Escrito por Pablo Heraklio
Facebook realiza experimentos masivos con sus 1.300 millones de coballas: ingeniería emocional
Ninguno de los 700.000 de usuarios de FB sabían que se encontraban en
un experimento del Equipo de Ciencia de los Datos.Tampoco de la
Manipulación Algorítmica de la Atención y Emociones, el Experimento de
Contagio Emocional de 2012 o la Iniciativa Minerva del Departamento de
Defensa de EEUU de 2008
Pocos de los 1.300 millones de usuarios
de Facebook sabían que se encontraban en el proceso de selección del
Equipo de Ciencia de los Datos de Facebook. Tampoco sabían sobre la
Manipulación Algorítmica de la Atención y Emociones, el Experimento de
Contagio Emocional y las conclusiones extraídas del mismo a cerca de la
relación Facebook-Felicidad Complacencia o sobre laIniciativa Minerva
del Departamento de Defensa de los Estados Unidos y las Revoluciones de
colores. Eso ha cambiado después de las denuncias a cerca de un
experimento psicológico llevado a cabo con cerca de 700.000 usuarios en
2012. Ahora algunos lo sabemos.
La querella: manipulación de los
News Feed y la información El grupo de presión de Defensa de la
Privacidad EEUU, Electronic Privacy Information Center EPIC, ha
presentado una querella ante la FTC que exige al organismo de control
investigar las actividades de Facebook acusando a la compañía de
practicas abusivas por usar sus recursos, ya no realizar estudios, sino
para realizar experimentos, lo cual implica manipulación y prueba de las
variables. A Facebook se la pela y anuncia que ni es el primero ni será
el último.
En el experimento llevado a cabo durante más de una
semana en 2012 y fue publicado en las Actas de la Academia Nacional de
Ciencias.Durante su desarrollo se escondió "un pequeño porcentaje" de
"palabras emocionales", con contenido emocional, extraídas de los feeds
de noticias de usuarios, sin su consentimiento, para poner a prueba el
efecto que tuvo en sus "estados", los "me gusta", que luego publicaron, o
ante las que reaccionaron de algún modo.
"La compañía
deliberadamente jugó con la mente de las personas", afirma EPIC en la
denuncia. "Facebook llevó a cabo el experimento psicológico con
investigadores de la Universidad de Cornell y la Universidad de
California, San Francisco, que no siguieron los protocolos éticos
habituales para la investigación con seres humanos."
http://www.theguardian.com/…/privacy-watchdog-files-complai…
>Nuevamente las organizaciones fascistas, capitalistas y
mercantilístas se quejan no del hecho de realizar este tipo de
experimentos sino por su inadecuación a la sacrosanta fórmula legal
pertinente.
También en 2012 miles de usuarios de Fuckbook fueron
víctimas de otro experimento. Recibieron un mensaje inquietante: estaban
siendo bloqueados fuera de la red social bajo la excusa de que se creía
que eran robots o usaban nombres falsos. Para volver a, los usuarios
tenían que demostrar que eran reales.
El experimento fue el
trabajo del equipo de Ciencia de los Datos de Facebook, un grupo de unas
tres docenas de investigadores con acceso único a uno de los
yacimientos de datos más ricos del mundo: los movimientos, pensamientos y
emociones de 1.300 millones de usuarios de Facebook.
El poco
conocido grupo, saltó a la luz esta semana por los informes acerca del
experimento de 2012 en el que lo alimentadores de noticias, feed news,
de casi 700.000 usuarios de Facebook fueron manipulados para mostrar los
mensajes más positivos o negativos. El estudio encontró que los
usuarios que vieron el contenido más positivo tenían más probabilidades
de escribir mensajes positivos, y viceversa. También de volver al
Facebook.
http://online.wsj.com/…/facebook-experiments-had-few-limits…
Facebook reconoce la manipulación y anuncia que lo volverá a hacer
La segunda ejecutiva más poderoso de Fuckbook, la CEO Sheryl Sandberg,
ha pedido disculpas por la realización de pruebas psicológicas secretas
en cerca de 700.000 usuarios en 2012, lo que provocó la indignación de
usuarios y expertos por igual.
Esto lo presentaron como si "formasen
parte de investigaciones mercantiles ya en curso, realizadas por las
distintas empresas para probar diferentes productos, y eso era lo que
era; estabamal comunicado ", dijo Sandberg, director de operaciones de
Facebook, desde Nueva Delhi. "Y por esa falta de comunicación nos
disculpamos. No quisimos molestar".
theguardian.com:facebook-apologises-psychological-experiments-on-users
>La cúpula dirigente de Facebook no se retracta del experimento en
sí, ni del la manipulación, ni de tratar a la gente como cobayas, si
mintieron o si crearon perjuicios, si no de la fórmula legal en la que
se ampararon. Aplicaron la táctica de hechos consumados. El estudio era
absolutamente fundamental. Los datos obtenidos son mucho más valiosos
que cualquier multa y suponen la herramienta predictiva que les
permitirá pervivir y extenderse en el futuro a medio y largo plazo.
Este estudio no es realmente lo que está en juego. Lo que está en juego
es la dinámica subyacente de cómo Facebook se ejecuta su negocio, opera
su sistema, y toma decisiones que no tienen nada que ver con lo que sus
usuarios quieren Facebook para operar. No se trata de la investigación.
Es una cuestión de Poder.
medium.com
Objetivo primario del experimento: vuelve a Facebook!
Un objetivo primario fue determinar si el contenido sentimental de los
mensajes podría afectar a la respuesta emocional de las personas después
de estar en Facebook. [Sabemos por lógica que sí, la parte científica
viene a la hora de cuantificar, medir y manipular el marasmo de
variables obtenidas para obtener un resultado concreto y preciso]. En
otras palabras, dado que Facebook quiere mantener a la gente en
Facebook, si la gente que sale del Facebook se siente más triste, es de
suponer que serían menos propensos a querer volver a Facebook de nuevo.
Por lo tanto, es el interés de Facebook dejar a la gente "sintiéndose
más feliz". Y este experimento estudia cómo el sentimiento, cómo la
carga emocional del contenido, influencia los sentimientos de las
personas. Esto sugiere que una carga emocional rápida aplicada al
producto minimiza los contenidos negativos. Es de suponer que esto es lo
mejor para los usuarios y lo mejor para Facebook.
https://medium.com/…/what-does-the-facebook-experiment-teac…
La manipulación algorítmica de la Atención y Emociones
>Otro punto clave es desarrollar una fórmula matemática para que el
programa pueda responder a su propósito. Es decir, una vez extraídas las
conclusiones el producto tiene que funcionar.
Facebook altera
activamente el contenido que vemos. La mayoría de las personas se
centran en la prácticas de marketing, comercialización, pero la mayor
parte de lo que los algoritmos de Facebook hacen implican la recolección
de contenidos [content curation] para luego ofrecer lo que ellos
piensan que cada uno desea ver. Facebook determina algorítmicamente cuál
de los mensajes de tus amigos vas a ver. Según el autor no lo hacen
esto por razones de marketing. Lo hacen porque quieren que desees volver
a la página día tras día. Quieren que seamos felices. No quieren que
quedes sobrecargado después de la visita. Sus algoritmos cotidianos
tienen el propósito de manipular nuestras emociones. ¿Qué factores son
tenidos en cuanta para ello? No lo sabemos.
https://medium.com/…/what-does-the-facebook-experiment-teac…
El Experimento de Contagio Emocional como parte de la Iniciativa Minerva
Facebook y Cornell researchers han sido acusados de que el
controvertido experimento "contagio emocional" fue financiado por el
Departamento de Defensa de EE.UU (DoD) en el marco de la Iniciativa
Minerva comenzado en 2008 a raíz del uso mundial de las redes sociales
para organizar las revueltas populares.
La Iniciativa Minerva se
puso en marcha en 2008, el año de la crisis bancaria global, y se creó
para permitir que el Departamento de Defensa se asociase con
universidades "para mejorar la comprensión básica del DoD de las fuerzas
sociales, culturales, conductuales y fuerzas políticas que dan forma a
las regiones del mundo de importancia estratégica para los EEUU".
El objetivo del proyecto es determinar "la masa crítica (punto de
inflexión)" de contagios sociales mediante el estudio de sus "huellas
digitales" en los casos de la revolución/golpe de estado egipcio de
2011, las elecciones rusas a la Duma de 2011, la crisis de subsidio a
los combustibles de Nigeria 2012, que dio lugar a un brote de violencia y
las proptestas del Parque Gazi en Turquia en el 2013.
http://www.theguardian.com/…/facebook-denies-emotion-contag…
>Tanto Cornell Reseach como la Universidad de California se han visto asociadas con dicho proyecto militar.
Facebook dirigido por un dictador benevolente
Para bien o para mal, la gente se imagina que Facebook está dirigido
por un dictador benevolente, que el sitio está ahí para que la gente
pueda conectar mejor con los demás. En algunos sentidos, esto es cierto.
Pero Facebook también es una empresa. Y una empresa pública para el
caso. Tiene que encontrar formas de ser más rentable cada trimestre que
pasa. Esto significa que se diseñan sus algoritmos no sólo para
comercializar en forma directa, sino para convencernos de volver una y
otra vez.
medium.com
>La realidad es que facebook es una corporación, una de las
Bilderberg, no tan benevolente cuando acumula y vende metadatos al mejor
postor, pasa información confidencial a los servicios secretos de las
potencias y corporaciones capitalistas y sirve de base publicitaria para
las actividades comerciales del resto de corporaciones.
Sistemas de selección de información, y generación automática de noticias: saturando la red de basura
Facebook no está solo en el negocio de la predicción algorítmica del
contenido que desea ver. Cualquier sistema de recomendación o sistema
curatorial [selectivo] está dando prioridad a algunos contenidos sobre
otros (incluyendo el que se usa aquí en medio). Pero vamos a comparar lo
que recogemos en este estudio con la práctica habitual.
La
mayoría de los sitios, de los principales medios de prensa, medios de
comunicación social [y los buscadores como Google o Yahoo, tweeter,
linked], tienen algún algoritmo que selecciona el contenido,
generalmente donde la gente haga más clic. Esto es lo que impulsa a los
Medios a producir listicles, artículos y titulares a partir de listas,
automátización usando las palabras más usadas, [trending topics como
"conseguir dinero gratis"], obteniendo titulares llamativos, como
noticias de accidentes de automóvil. [Para llamar la atención, de ahí la
necesidad de un algoritmo de Atención preciso]. ¿Qué crees que genera
más tráfico en tu web, un análisis detallado de lo que está sucediendo
en Siria o 29 fotos de los miembros más lindos del reino animal? La B.
Algo de lo que los medios aprendieron hace mucho tiempo es que el miedo
y los rumores/chismes venden periódicos. Esto significa que las
historias fabulosas sobre secuestros de niños, islas llenas de
peligrosas serpientes y famosos envueltos en escándalos sexuales suelen
ser los más clicados, retweeteados, favorito, etc ...Así que toda una
industria ha surgido para usar el click en el contenido basura como cebo
con la bandera de "noticias seria".
Cuando las personas están
rodeadas de medios de comunicación vendemiedos el ansia general crece.
Se temen a las cosas equivocadas. Por lo general aceptamos que los
"algorítmos de selección" tienen todo el derecho a priorizar contenido,
sin importar el efecto psicológico sobre los individuos o la sociedad.
¿Que hace que su práctica diferente [a la práctica periodística
tradicional, sujeta a códigos deontológicos, aunque constantemente se
quebrante]?
medium.com
Conclusiones sobre el experimento
Para realizar el exprerimento debieron realizar dos trabajos. Uno
prospectivo, seleccionando a las cobayas que lo sufrirían. Después
realizaron el perfil de 700.000 de los usuarios seleccionadoas. A cada
usuario le corresponden un perfil, y a cada perfil está hecho con un
sin fin de parámetros biopsicosociales y económicos. Estos se analizan
primero uno a uno, para discernir su importancia, y después en grupos de
dos, de tres y conjuntos, para analizar las relaciones entre ellos. Así
se pueden conocer los rasgos de la personalidad más importantes, y los
más influyentes.
Por último se realiza el trabajo perspectivo. Se
prepara una noticia/producto ajustado a un perfil concreto y se mide la
eficacia, es decir, de todos los usuarios que aceptan el producto
cuántos se ajustan el perfil deseado. A cada perfil se le corresponde
con una u otra información.
Más siniestros son los estudios sobre
la psicología de las masas. Repetimos, los motivos y las dinámicas de
los brotes de violencia y apaciguamiento se conocen desde antiguo. Lo
que se desconoce es su cuantificación, parámetros, variables y
medidas.Una vez conocidos, asociados a las condiciones, se pueden
manipular las emociones de modo que una masa enfurecida sea capaz de
asaltar una plaza e iniciar un golpe de Estado, al estilo Ucrania, lo
cual ahorraría millones en gasto militar y muchos años de subversión e
infiltración. O se puede calmar a una masa a pesar de encontrarse en un
nivel crítico de tensión, al estilo Egipto o España.
En facebook
se habla de los Algoritmos cotidianos para referirse a aquellos que se
manejan en el día a día.Existen cientos de algoritmos no cotidianos, de
prueba o especiales, ocasionales que también deben ser puestos a punto
para su utilización. Nos referimos a por ejemplo los Algoritmos
Emocionales, aquellos capaces de seleccionar las noticias o incluso
introducir palabras que logren alterar nuestros estados anímicos de
ansiedad, humor o bienestar.
Facebook se encarga de enseñar a
cada usuario lo que quiere ver. Ajustan lo que tú quieres con lo que
facebook quiere que quieras. Si eres anarquista verás surgir la
revolución por todo el mundo en tu pantalla, si eres fascista se alzará
el imperio español, si eres comunista... suerte.
¿Hay algún modo
de usar facebook sin caer en sus trampas? No. Facebook conecta tu vida
con aquellos que te importan y consigue que vuelvas una y otra vez a
verlos, como si de un recuerdo o memoria se tratases, rompiendo las
barreras del espacio. El problema es que esto es muy difícil de realizar
sin ceder datos personales, metadatos, huellas digitales, que es de lo
que la Corporación Facebook se nutre y busca. Es un sifón de datos. Si
lo logras y evitas ser trazada ole tus ovarios. Menéalo!
Frente a
la falta de una red social popular eficiente, son los medios de
contrainformación, alternativos e independiente actualmente los
generadores de información ajustada a la realidad más importantes. Pero
la información hay que buscarla activamente. Atiende por ahora a la
artesanía y arte del practicante, y vuelcan íntegros los sentimientos de
los autores. Su labor hace de balanza y compensación ante el ataque
diario de la basura automatizada que nos tragamos. y debido a la
manipulación de los medios masivos, son la única referencia al mundo
fuera de nuestra esfera de actuación local. Mientras los Media se
dedican a llenar la red de basura prefabricada, desde el fondo de
internet crece una base de información que solo parará cuando se corte
el cable.
Cada vez que conocemos más sobre la psicología y
matemáticas modernas más nos acordamos de la famosa obra de Asimov, La
Fundación.
Fuente- LA TARCOTECA Contrainfo: Facebook realiza experimentos masivos con sus 1.300 millones de cobayos: ingeniería emocional