Inicio > Actualidad > Entrevistas > Marta Peirano: «Los periodistas llevamos 20 años trabajando para Google en lugar de para el lector»

Marta Peirano: «Los periodistas llevamos 20 años trabajando para Google en lugar de para el lector»

Marta Peirano: «Los periodistas llevamos 20 años trabajando para Google en lugar de para el lector»

Convocados por la página de Facebook “Heart of Texas”, un grupo de neonazis y secesionistas tejanos se manifestaron contra la “islamización” del Estado en los alrededores de una mezquita en Houston el 26 de mayo de 2016. En el mismo lugar y a la misma hora, un grupo de musulmanes se congregó para “salvar el conocimiento islámico”, siguiendo las directrices indicadas en otra página de la red social de Mark Zuckerberg, “United Muslims of America”. Jesús y Alá pactaron un milagro y, contra pronóstico, no hubo muertos.

“Heart of Texas” y “United Muslims of America” estaban gestionadas desde un ordenador de la Internet Research Agency (IRA), una agencia de desinformación fundada por un amigo íntimo de Putin en la que, desde un edificio de cuatro plantas en San Petersburgo, mil personas manejan cientos de miles de cuentas falsas dedicadas a mentir, desestabilizar, alimentar follones y provocar incendios virtuales con la idea de que se traduzcan en analógicos.

"Pasa como con fumar: la gente cada vez que fuma no tiene cáncer. Por tanto, la amenaza abstracta del cáncer es más lejana y pequeña que la necesidad de fumar"

Este es sólo uno de los ejemplos que la periodista y escritora Marta Peirano (Madrid, 1975) recoge en El enemigo conoce el sistema (Debate, 2019), un ensayo que prospecta en la infraestructura opaca, turbulenta y, en ocasiones, pavorosa, de la red, un territorio que, según la autora, no es libre, ni abierto ni democrático, y en el que las especies dominantes son un puñado de empresas que se venden al mejor postor, una legión de aplicaciones que se alimentan de nuestros datos personales y un océano de algoritmos secretos y ¿malvados?

Conversamos con Peirano sobre la cara oculta de Internet:

—¿Hasta qué punto el ciudadano es consciente de a lo que se expone?

—Creo que es muy poco consciente de lo que se expone, pero no porque le falte información, sino de la misma manera en que es poco consciente de a lo que se expone cuando fuma, por ejemplo, o a lo que se expone cuando consume determinadas drogas, en el sentido de que la amenaza conocida es tan abstracta, ¿no? Pueden coger tus datos y usarlos, por ejemplo, si alguna vez tú tienes necesidad de un servicio médico, o quieres acceder a un trabajo, o el Gobierno cambia de manos y se convierte en un régimen autoritario, o si te quedas en un aeropuerto de un país, donde, por ejemplo, es ilegal ser gay… Son cosas abstractas, mientras que la necesidad de utilizar las aplicaciones que han sido diseñadas para ser adictivas es una realidad completamente cercana. Pasa como con fumar: la gente cada vez que fuma no tiene cáncer. Por tanto, la amenaza abstracta del cáncer es más lejana y pequeña que la necesidad de fumar.

—¿Somos zombis del engagement?

"Te pueden decir que un algoritmo está diseñado para ayudarte a gestionar tu tiempo libre, pero suele estar diseñado para el engagement, es decir, está ayudando a la empresa a extraer datos durante tu tiempo libre. No te da más tiempo: te lo quita"

—El engagement es como la herramienta clave que alimenta la industria de extracción de datos. Las aplicaciones están optimizadas no para ayudarte a gestionar el día, tu dieta, tus ejercicios, a tus amigos, a tu familia, el trabajo, sino para generar engagement. Una de las ventajas del mundo digital y, sobre todo, de las plataformas que tienen millones de usuarios, es que puedes utilizar algoritmos que están optimizados no para entender, sino para identificar las cosas que generan más engagement e implementarlas no para el usuario concreto, sino para el resto de millones de usuarios. Entonces, se está implementando de manera permanente para generar adicción. La adicción es como un colateral de la optimización para el engagement. Ellos no quieren hacer adictos, sino que pases el máximo tiempo posible interactuando con sus productos para poder extraer datos de esa actividad. Por lo tanto, sus aplicaciones están diseñadas para que interactúes el máximo tiempo posible, ergo se han ido optimizando para generar una adicción.

—Ni el payaso de It, ni la niña de El exorcista: desde que he leído El enemigo conoce el sistema, la cosa que más miedo me da en el mundo son los algoritmos.

—Un algoritmo es, simplemente, un conjunto de funciones que están diseñadas para un objetivo concreto. Lo que cuento en el libro es que cuando esos algoritmos son completamente opacos… No siempre son completamente opacos: cuando trabajas con software libre, todo el código es visible. Pero cuando el código no es visible, tú no sabes lo que hacen esos algoritmos. Te pueden decir que un algoritmo está diseñado para ayudarte a gestionar tu tiempo libre, pero suele estar diseñado para el engagement, es decir, está ayudando a la empresa a extraer datos durante tu tiempo libre. No te da más tiempo: te lo quita. Cuando los algoritmos son invisibles y opacos, no nos queda más remedio que creer que hacen lo que nos dicen que hacen: organizar toda la información del mundo y hacerla disponible para ti, hacer del mundo un lugar más conectado y feliz… Y lo que estamos descubriendo por ingeniería inversa desde hace varios años es que casi siempre hacen otra cosa.

—Menciona, por ejemplo, el algoritmo de contratación de personal de Amazon que, al menos en 2015, discriminaba a las mujeres.

"En lugar de acceder a internet de manera directa, estamos accediendo a través de aplicaciones, como Google, Facebook... Ahora mismo, el 80% del tráfico de red está centralizado en esos canales. Entonces, la información está centralizada en servidores de, a lo mejor, una docena de empresas"

—Exacto. Tenemos un problema añadido: en los últimos años, para el desarrollo de algoritmos y de inteligencia artificial, se ha estado utilizando una técnica que no es la que utilizábamos, por ejemplo, en los 70. Antes hacíamos inteligencia artificial de manera lógica y semántica. Le enseñábamos a la máquina que “cada vez que pasa esto, tienes que hacer esto, y cada vez que pase esto, lo interpretas de tal manera y tu reacción tiene que ser esta”. El engagement no funciona así. A la máquina le enseñas un montón de ejemplos de lo que quieres. Por ejemplo, si quieres enseñarle a la máquina qué es un perro, le muestras un montón de fotos de perros, de distintos tamaños, colores, etcétera, y le dices que cada uno es un perro, para que la máquina identifique los patrones que está viendo con “perro”. Esto lo hacemos con todo. Si tú entrenas un algoritmo para contratar gente de la manera más limpia y profesional y optimizada para tener el mejor equipo posible, lo que hizo Amazon fue enseñar al algoritmo todos los currículums que se habían presentado históricamente, desde el principio de la empresa, y toda la gente que había terminado contratando. Claro, Amazon pensó: “Así entenderá cómo contratamos en la empresa”. Y lo que vio el algoritmo, que está entrenado para identificar patrones, es que lo que gusta a Amazon son las no-mujeres (risas). Entonces, aprendió a identificar, en los que no ponía “hombre/mujer”, claves. Por ejemplo: si había ido a algún colegio femenino, si había jugado en un equipo de voleibol o fútbol femenino… Entonces, aprendió bien: el algoritmo estaba bien optimizado para seguir la cultura de empresa de Amazon. Lo que señaló es que la cultura de empresa de Amazon es muy machista. ¿Qué pasa? Que cuando utilizas algoritmos, dices: “Bueno, esto no lo ha hecho una persona, por lo tanto no puede ser machista o tener prejuicios. ¡Es un algoritmo!”. Bueno, el algoritmo es el conjunto de las bases de datos con el que lo alimentas. Esto que le ha pasado a Amazon con las mujeres le pasa al Departamento de Policía de Los Ángeles o de Chicago con los afroamericanos.

—Afirma que la red no es “una estructura neutral, democrática y libre” y que, como todas las mentiras, esta “tiene un recuerdo de verdad”. ¿Cuál es ese recuerdo?

—La red, como todo el mundo sabe, tiene un origen militar, en el Departamento de Defensa de EEUU, durante la Guerra Fría. Cuando deciden abrir la red a otro propósito, a uno más académico, más humanista, la gran preocupación de los ingenieros que buscan hacer un proyecto internacional, que, en realidad, no es tan internacional, porque son ingenieros de países aliados, Francia, Inglaterra…, su mayor preocupación es que esta red de telecomunicaciones no caiga en manos de los gobiernos. Que, si vuelve a haber un Hitler, un Mussolini o un Stalin, no haya una red de telecomunicaciones que puedan controlar de manera directa: que no puedan ver quién habla con quién, qué se cuenta… Entonces, crean unos protocolos por los cuales la información, en lugar de viajar, como cuando haces una llamada telefónica con línea de cobre, de punto a punto, y entonces puede ser rápidamente interceptada, como cuando te pinchan el teléfono, lo que hace es atomizarse: en el momento en que abandona el dispositivo del emisor, se convierte en algo etéreo de paquetes de datos que viaja por líneas separadas y se vuelve a reunir en su destino. De manera que si quieres interceptar un mensaje, no tienes que pinchar una sola línea, sino adivinar dónde están todas y cada una de las partículas de ese mensaje e interceptar todas las líneas por las que se mueve. Estaba muy bien pensado. Lo que pasa es que cuando John Perry Barlow declara la independencia del ciberespacio, también está pensando en el poder de los gobiernos, y está diciendo: “Sacad las zarpas de nuestra red. Nuestra red es como el Salvaje Oeste: podemos llegar y hacer lo que queramos con ella, porque es infinita”. Él está pensando en que no la regulen para que las empresas puedan crecer, para que los llaneros solitarios puedan tener su rinconcito, para que haya foros secretos sin censura… ¿Qué pasa? Que, en los veinte años siguientes, las empresas acaban centralizando el tráfico que los ingenieros habían conseguido descentralizar con los protocolos TCP/IP. En lugar de acceder a internet de manera directa, estamos accediendo a través de aplicaciones, como Google, Facebook… Ahora mismo, el 80% del tráfico de red está centralizado en esos canales. Entonces, la información está centralizada en servidores de, a lo mejor, una docena de empresas.

—Zuckerberg declaró en el Congreso de EEUU que Silicon Valley es “un lugar extremadamente de izquierdas”. ¿Qué quiere decir, en este caso, “ser de izquierdas”?

—Es una excelentísima pregunta. También es una pregunta que nos podríamos hacer aquí. Siguiendo el espíritu de la Declaración de Independencia del Ciberespacio, digamos que todo el desarrollo de Silicon Valley se declara libertario en el sentido de que libertario es el que siente que tiene derecho a conquistar un territorio por sus propios medios sin que nadie lo coarte. El espíritu libertario de Silicon Valley es el de que los gobiernos no regulen ni nuestra manera de gestionar a los usuarios ni sus datos, ni nuestra manera de emplear o no emplear a gente en otros países… Es puro capitalismo sin responsabilidades. Otras industrias, ahora mismo, más o menos, están sujetas a responsabilidades. Pero este es un poder sin ningún tipo de regulación.

—Ni de aduanas.

"Una de las cosas que cuento en el libro es que, a lo largo de los últimos años, internet ha hecho dos recorridos paralelos: uno, como estructura, y otro, como metáfora. Nosotros hemos estado siguiendo la metáfora"

—¡Fíjate: esta gente no paga impuestos! Paga como un 0,003 de impuestos. Las plataformas digitales viven del trabajo no remunerado de miles de millones de personas y, en muchos casos, del trabajo remunerado pero canalizado a través de Uber, Airbnb, etcétera, de esto que llaman, porque esto es un mundo de metáforas, la “economía colaborativa”… Esto no es colaborativo: es feudalismo de toda la vida sin responsabilidades. Se han convertido en los nuevos paraísos fiscales, en el sentido de una infraestructura que está diseñada para recoger y esconder lo que pasa dentro. Son paraísos fiscales muy por encima de lo financiero: sabemos que, en determinados lugares, se está cometiendo un delito, en este caso, de evasión de impuestos y, sin embargo, hemos decidido no entrar. Durante, no sé, décadas hemos permitido que existan esos paraísos fiscales y, mientras los gobiernos persiguen al obrero de la construcción que, a lo mejor, se ha olvidado de declarar un trabajito que hizo en no sé dónde, permiten que exista una infraestructura en la que la gente que más tiene lo haga…

—Sistemáticamente.

—Exacto. Y esto es un poco lo mismo. Son espacios donde ya sabemos que se están cometiendo delitos y hemos decidido no entrar.

—Hay gente que piensa que con las herramientas del poder se puede desmantelar el poder. ¿Qué le tiene que decir a esa gente?

—Una de las cosas que cuento en el libro es que, a lo largo de los últimos años, internet ha hecho dos recorridos paralelos: uno, como estructura, y otro, como metáfora. Nosotros hemos estado siguiendo la metáfora. Lo que me encuentro una y otra vez cuando doy conferencias o clases es que la mayor parte de la gente discute mucho sobre el internet, pero no discute sobre internet, sino sobre sus metáforas, sobre lo que cree que es internet. En este caso, estamos hablando de una infraestructura diseñada para el control de masas, mientras se le vende a las masas que esa infraestructura está diseñada para liberarles de los regímenes autoritarios, para darles voz de manera protegida, para que puedan reunirse y derrocar, yo qué sé, al régimen del Sudán. La Primavera Árabe, claramente, es la cumbre, el pico de popularidad de este concepto: tú puedes utilizar Twitter o Facebook, es decir, herramientas completamente centralizadas en empresas que operan de manera oscura, que facilitan datos a un gobierno que no es el tuyo donde tú no tienes derechos civiles. Si eso no son las herramientas del poder… El poder siempre tiene una forma muy concreta: es centralizado. Las infraestructuras centralizadas siempre están diseñadas para que uno controle a todos los demás. Entonces, las herramientas del poder nunca pueden ser descentralizadas por su propia naturaleza.

—En el libro, cita a Hito Steyerl: “Caer es relacional: si no hay nada contra lo que caerse, puede que ni te des cuenta de que estás cayendo”. ¿Alguna vez nos estamparemos contra el suelo?

"Es decir: tú no quieres convencer a todo el mundo, eso sería una pérdida de tiempo; quieres convencer a la gente que sabes que puedes convencer"

(Piensa) Probablemente sí. Quiero decir: la figura un poco retórica que utiliza Hito es la de Alicia que se cae por el agujero de conejo, que es una metáfora que también se usa mucho para describir lo que nos pasa cuando llega una notificación al móvil, miramos para ver lo que es, desbloqueamos el móvil, y entonces caemos por ese agujero de conejo por el que empezamos a abrir Twitter, y luego Facebook, y luego Gmail, y luego empiezo otra vez sin darme cuenta, y olvido lo que tenía que hacer. Ella lo describe como estar en esta caída lenta que no tiene principio y no tiene fin. Estas aplicaciones están diseñadas para no tener fin. Un libro tiene páginas. Una serie tiene un final. Una canción tiene un final. Pero estas aplicaciones son una cascada interminable de contenidos que no tiene fin. Estás cayendo y no sabes dónde está el suelo. Pierdes, como cuando te traga una ola, el sentido de la realidad.

—Casi al final del libro, afirma que “el verdadero problema” son los grupos cerrados y los sistemas de propaganda masiva protegidos por criptografía como WhatsApp.

—Una de las historias que cuento en mi libro es la de que sabemos qué pasó en las elecciones de EEUU en 2016. La elijo porque es el momento en el que: primero, confluyen todas las tendencias naturales de ese capitalismo sin responsabilidades que ejercen las plataformas digitales, y segundo, porque es el caso del que más sabemos. A diferencia de, por ejemplo, España o Francia, el Gobierno de EEUU pidió dos informes oficiales a dos organizaciones completamente no relacionadas para ver si había habido una intervención rusa en la campaña electoral. Sabemos muchas cosas de cómo se operó durante esa campaña que no sabemos de nuestras elecciones, porque el Gobierno de España no pidió esa investigación. Lo que sabemos es que las agencias de desinformación, de las cuales, hay una agencia rusa particularmente potente, pero las hay en todas partes del mundo, sobre todo, donde hay regímenes autoritarios, como China o Indonesia, han empezado a utilizar para la manipulación política una técnica que, de hecho, le han copiado al ISIS, por la cual tú utilizas la herramienta de segmentación de Facebook para encontrar a tu audiencia. Es decir: tú no quieres convencer a todo el mundo, eso sería una pérdida de tiempo; quieres convencer a la gente que sabes que puedes convencer. En este caso, fíjate, fueron a buscar a los neonazis. Y Facebook te permite encontrar a la gente que ha dicho “soy neonazi” y ha aparecido vestido con las ropas del KKK y con banderas en las que pone “muérete negro”, o los secesionistas de Texas, este tipo de gente, pero también te ayuda encontrar a los que son neonazis o supremacistas pero que no lo han dicho. ¿Por qué? Porque tiene una herramienta que dice “Encuentra a audiencias parecidas”. Facebook identifica a los neonazis y luego dice qué gente se les parece, por qué les gustan las mismas cosas, tienen el mismo uso de lenguaje, el mismo círculo de amistades…, te encuentra a los que están dentro del armario. Entonces, te haces un segmento de población y les haces una campaña específica para ellos. Los rusos, por ejemplo, lo que hicieron fue encontrar a distintos grupos de gente, incluyendo a afroamericanos…

—…y juntarlos en un mismo punto con los neonazis.

"Me ha parecido más útil ayudar a la gente a que identifique los patrones, los elementos de una campaña de desinformación y de intoxicación de la población en países donde no tienen una inversión emocional"

—Exacto. Entonces, no solamente los enfrentan, sino que aprovechan grupos que ya existían secretos. Esto significa no sólo que el resto de la gente no puede entrar en ellos, sino que no sabe que existen. Luego, los invitan, los meten en el grupo secreto, y ceban sus miedos, sus ansiedades o su orgullo supremacista con noticias falsas, con memes… Alimentan la parte de su personalidad que les interesa. Esos grupos cerrados se convierten en los trolls del movimiento, pero luego, a su alrededor, se crea un ecosistema entero de grupos en Instagram, en WhatsApp, etcétera, que están vinculados a ese grupo secreto. Es decir, que cuando ellos salen de ese grupo, se encuentran con una meteorología que confirma lo que aprenden y lo que practican en ese grupo. WhatsApp es particularmente interesante, porque te permite llegar a millones de personas con un mensaje que está diseñado para ser personal, porque es un sistema de mensajería personal, para que te comuniques con tus amigos, con tu pareja, con tus colegas de la oficina, pero de manera masiva y, además, cifrada, lo que significa que, técnicamente, estás sujeto al secreto de las comunicaciones, con lo que tú puedes contarle lo que quieras a millones de personas sin tener la responsabilidad que tendrías si hicieras una campaña en marquesinas. De manera que esas personas ven una campaña que para el resto no existe, y que les llega directamente al bolsillo con un mensajito como si fuera de un amigo, de alguien de su círculo de confianza. O sea, estamos en un ecosistema perfecto para propaganda de masas sin responsabilidades.

—¿Por qué en El enemigo conoce el sistema hay tan pocas referencias a casos que hayan sucedido en España?

—Ha sido una decisión totalmente deliberada. Llevo unos dos años, o dos años y medio, hablando de cómo funcionan las campañas de desinformación, y me he dado cuenta de que cuando hablas de desinformación usando ejemplos del país o de la región en la que estás hablando, a la gente se le nubla el sentido y empieza o a discutir contigo o a discutir entre ellos. Entonces, me ha parecido más útil ayudar a la gente a que identifique los patrones, los elementos de una campaña de desinformación y de intoxicación de la población en países donde no tienen una inversión emocional, para que, cuando lleguen a ellos, sean capaces de identificar el que les toca sin estar contaminados por la propia campaña de desinformación. En España no puedes explicar una campaña de desinformación hablando de Cataluña. Porque nadie te escucha. La propia contaminación que hay en Cataluña impide que la gente comprenda… No sólo en Cataluña: en las generales y en las municipales, Cataluña ha sido un objeto de campañas tóxicas. No puedes decir “Cataluña” y esperar que la gente piense de manera racional en España.

—Para terminar: ¿cómo encajamos los periodistas en este ecosistema? ¿Somos cómplices?

—Sí, somos cómplices, pero somos cómplices igual que los usuarios son cómplices de la industria de extracción de datos porque, voluntariamente, han accedido a llevar un teléfono encima que ellos mismos pagan, ellos mismos llenan de aplicaciones…, qué digo ellos, nosotros mismos nos ocupamos de tenerlo encendido todo el rato, nos lo llevamos a la cama, al baño, a las cenas de familia… La prensa y los periodistas llevamos veinte años trabajando para Google en lugar de para el lector. En el momento en el que la obsesión es tener 2.320 millones de usuarios en lugar de tener los lectores que tienes que tener, hemos generado dinámicas y asumido roles que nos han perjudicado terriblemente. Ahora mismo, nuestro gran problema es que convivimos en el mismo entorno mediático con noticias falsas, y nuestros lectores no son capaces de distinguir cuándo la noticia viene de una fuente fidedigna y cuándo es un bulo.

4.8/5 (85 Puntuaciones. Valora este artículo, por favor)