Un tiburón ganando elecciones

El informe del parlamento ingles sobre Cambridge Analytica

Por Alejandra Dandan 


El tipo, flaco, de lentes y persuasivo, usa diez minutos de proyecciones disparadas en inglés. Al empezar, causa un golpe de efecto. La conferencia es sobre Big Data. El contexto, campañas electorales, año 2016. Dice que hay tres tipos de tecnologías de éxito. Comienza con la que llama ciencia del comportamiento. Proyecta una playa y dos carteles y dice:




—Si eres lo suficientemente suertudo como para poseer una playa privada y quieres impedir que la gente la use, puedes poner el cartel de la izquierda.




Entonces señala el cartel tradicional:





















La cosa cambia con el otro cartel. No hay prohibiciones directas sino una información. No aclara que es una mentira. Sólo dice que ese letrero, mucho más efectivo, tiene como destino cambiar comportamientos, ser creíble y es una motivación más potente.





















—Claramente la amenaza de ser comido por un tiburón —concluye— evitará que la gente vaya a nadar a esa playa.




Y probablemente sea cierto. Aquella pieza estremecedora no deja de asombrar aún ahora, cuando aquel disertante ha caído en desgracia. En aquella época, Alexander Nix aún era el influyente CEO de Cambridge Analytica (CA), con trabajo en las primarias norteamericanas de Ted Cruz antes de saltar a la campaña de Donald Trump. Pasó el tiempo. Nix intervino en las campañas del Brexit en el Reino Unido, pero su reinado comenzó a hundirse con las declaraciones de Christopher Wylie, ex empleado de SCL Group y CA que denunció manipulación de datos para influir en las campañas y todo acabó con la implosión de una cámara oculta ante la cual Nix desnudó las formas de inocular veneno en las redes con técnicas de desinformación, fake news, trolls y todo tipo de trucos sucios, sobornos y escándalos sexuales para hundir candidatos a pedido de quién ponga dinero.




Nix fue citado dos veces a comparecer ante el Comité de Cultura del parlamento británico, en el marco de la investigación sobre el Brexit que llevan adelante preocupados por la injerencia “extranjera” de los gigantes online en la política del Reino Unido. El 29 de julio, el Comité publicó su primer informe Desinformación y fake news, demoledor, contra el mundo de las redes: 89 páginas, producto de 20 sesiones, 61 entrevistas, más de 3.500 preguntas y 150 comunicaciones escritas, documentos reservados e intercambios con parlamentarios y organizaciones del mundo.




El informe tiene varias dimensiones de lectura. Algunas muy importantes a nivel doméstico: es la primera vez que aparece una referencia directa a la campaña presidencial de 2015 con el nombre de Mauricio Macri, asociado a quienes manipularon datos en las campañas de Trump y el Reino Unido. Pero el informe es sobre todo una alerta a las democracias. Queda claro, dice, que sin el conocimiento de la mayoría de los políticos y reguladores electorales de todo el mundo ni del público en general, un pequeño grupo de personas y empresas influyeron en las elecciones de diferentes jurisdicciones en los últimos años. En ese sentido, también advierte ante la amenaza de quienes pueden gastar millones de dólares para modelar un electorado con datos robados de una de las corporaciones más influyentes del mundo, y producir el algoritmo de un mundo portátil.




“La democracia, en su forma menos cínica, es la posibilidad de una racionalidad colectiva sobre el gobierno compartido. Los anuncios oscuros, microrregulados y adaptados psicológicamente, convierten a cada espectador en un electorado de uno. El desacuerdo y el debate se presentan solo como estados emocionales en lugar de ser un aspecto indispensable de la vida cívica. Los algoritmos de comportamiento usados por CA causan daño colectivo porque socavan la posibilidad de una toma de decisiones colectiva al hacer que sea imposible observar la realidad de los otros”. Por eso Diego Llumá, docente de Geopolítica de las Redes en la Universidad Nacional de San Martín (UNSAM), dice que el informe es sobre todo un límite que la política intenta ponerle al gobierno de los gigantes de las redes. Y un escenario en el que también entran en juego las disputas geopolíticas de la Unión Europea.



En aquella conferencia de 2016, de la que también se nutre el informe, Nix habla de la serie Mad Men. Dice que aquel modelo de publicistas creativos que pensaban una idea para bajar como mensaje está muerta. Que la información no baja. Se succiona. Se transforma y vuelve a inocularse. El análisis de datos basado en el perfil psicológico de cada audiencia era el corazón de CA, dice el informe. Un hecho respaldado por una emoción. La cultura del like. “Con el fin de unir el mensaje correcto con los votantes, Cambridge Analytica necesitaba información sobre ellos: qué productos compraron, qué leyeron, qué autos manejaron”.

SCL trabajaba en la manipulación de opinión popular en el exterior para militares y diplomáticos de Estados Unidos y el Reino Unido mucho antes del escándalo, dice Llumá. La empresa pertenecía a Nix y estaba ligada al Departamento de Psicometría de la Universidad de Cambridge. En 2013 Nix conoce al billonario financista republicano Robert Mercer y a su hija Rebekah Mercer y encuentra a Steve Bannon, del portal ultraderechista Breitbart News (socio de Mercer), luego jefe de campaña de Trump. En 2013, con inversiones de Mercer, Nix creó CA y también la canandiense AIQ. En total, AIQ recibió 3,5 millones de libras esterlinas de grupos que impulsaban la salida del Reino Unido. Por eso la Comisión Electoral británica abrió una investigación sobre los gastos de campaña en noviembre de 2017. AIQ es una pequeña compañía ubicada en Victoria, British Columbia. Se dedica a hacer micro-targeting de votantes. AIQ niega haber pertenecido a CA, a su empresa asociada SCL o haber accedido de manera inadecuada a la data obtenida de Facebook.



También dice Llumá que el mayor daño a la privacidad colectiva producido por el affaire CA es el uso de “modelos conductistas” (behavioral models) que elaboró CA con los datos apropiados de las 87 millones de personas de Facebook afectadas. El set de datos originales fue recolectado por la pequeña empresa Global Science Research (GSR) que pertenece al psicólogo cuantitativo Aleksandr Kogan de la Universidad de Cambridge. La tarea la hicieron para SCL, la empresa asociada a CA. Kogan usó una encuesta online llamada “thisismydigitallife” para hacerse de perfiles de 270.000 personas. Esto le permitió usar una App de Facebook (una posibilidad que ofrecía Facebook a desarrolladores, no existe más) para extraer datos de sus “amigos” hasta llegar a 87 millones.

Según el informe, hay 2.000 millones de personas que usan Facebook (el número de cristianos en el mundo) y 1.800 millones de usuarios de YouTube (el número de seguidores del Islam).

La gente revisa sus teléfonos unas 150 veces al día en el mundo desarrollado, es decir una vez cada 6,4 minutos en un día de 16 horas. La palabra ‘plataforma’ sugiere que estas empresas actúan de forma pasiva, que sólo publican la información que reciben y que no influyen en lo que vemos o lo que no vemos. Sin embargo no es así, dice. Las compañías tecnológicas controlan lo que vemos, porque ese es su modelo de negocios.

Esos son los algoritmos: el nuevo mundo en escala uno a uno. El universo portátil ahora con tiburones que te esperan en la puerta de tu casa. O corruptos k. O mapuches. O esto que pasa en estos mismos días, con más de 2.000 aterradores likes por emisión.