Inicio > Firmas > El futuro está por hackear > Blade Runners para cazar al clon de Inteligencia Artificial que me suplanta en videoconferencias

Blade Runners para cazar al clon de Inteligencia Artificial que me suplanta en videoconferencias

Blade Runners para cazar al clon de Inteligencia Artificial que me suplanta en videoconferencias

Durante este año os he contado varias cosas de mi equipo de Ideas Locas, ese pequeño grupo de pre-innovación hacker con el que lo mismo hacemos una prueba de concepto de una vulnerabilidad de seguridad informática que nos ponemos a construir una inteligencia artificial como Maquet para intentar escribir textos al estilo del gran maestro Pérez-Reverte en El Capitán Alatriste.

Nuestros proyectos son siempre divertidos y amenos. Pablo González, Fran Ramírez, Enrique Blanco, Bruno Ibáñez López, Sergio Sancho, Guillermo Peñaranda, Roberto Aranda, y el resto de amigos, y de compañeros, que se van sumando a nuestras ideas locas hacen que los resultados sean, cuanto menos, curiosos y sorpresivos. Y por eso nos metemos con cualquier cosa que vemos que en el futuro va a ser una realidad. Y así fue como empezamos esta historia.

"En ese año 2018, el mundo de la tecnología comenzaba a estar sacudido por la siguiente evolución transformadora: la eclosión de la inteligencia artificial en la aplicación de problemas cognitivos"

Corría el año 2018 y el mundo estaba en pleno escándalo con las fake news, las noticias de injerencia de ciberciminales o cibersoldados rusos en las elecciones americanas, el caso de Cambridge Analytica y la tensión en todas las elecciones políticas que había por Europa, incluida España. Fake news por todas partes. Y se puso muy de moda para los media un concepto que en el mundo de la tecnología llevábamos ya casi una década a plena potencia: el mundo del Big Data como motor de distribución de fake news adaptadas.

Pero al mismo tiempo, en ese año 2018, mientras todos los medios generalistas seguían enzarzados con las fake news y el Big Data, el mundo de la tecnología comenzaba a estar sacudido por la siguiente evolución transformadora: la eclosión de la inteligencia artificial en la aplicación de problemas cognitivos, que ya venía trabajándose desde tiempo atrás.

La madurez del Cloud Computing permitía tener potencia de cómputo cuasi infinito y un coste muy bajo. La explosión de las tecnologías de Big Data permitía tener grandes cantidades de datos almacenables y procesables en tiempo útil a un coste muy asequible. Es decir, se habían resuelto las grandes limitaciones que ponían freno de mano al desarrollo exponencial de la Inteligencia Artificial. Y aquello empezaba a volar en todo.

"Aparecieron algunos modelos entrenados de Inteligencia Artificial muy curiosos que eran capaces de cambiar las caras de las personas en un vídeo. Algo muy incipiente, pero muy prometedor"

No, realmente no fue en el año 2018 cuando empezó el acelerón de la Inteligencia Artificial. Ni mucho menos. La inteligencia artificial lleva desarrollándose desde mediados del siglo XX, pero ha sido en el siglo XXI cuando se multiplicó la velocidad a la que se expandía y evolucionaba, gracias a ir acabándose con las limitaciones anteriores. Ya en la década del 2010 el Machine Learning comenzó a ser una disciplina en evolución y crecimiento, pero han sido en los últimos cinco años cuando los algoritmos avanzados de entrenamiento de modelos de inteligencia artificial han despegado y se han popularizado hasta tal punto que cualquiera puede entrenarlos desde su casa para cosas maravillosas… o al menos impactantes.

En aquel año 2018, como ya he dicho, los modelos de inteligencia artificial centrados en resolver problemas cognitivos —o mejor dicho, de simular el raciocinio humano en su resolución— se dispararon. Y aparecieron algunos modelos entrenados de Inteligencia Artificial muy curiosos que eran capaces de cambiar las caras de las personas en un vídeo. Algo muy incipiente, pero muy prometedor. En aquellos primeros vídeos públicos —no sabemos mucho de los que se hayan utilizado con otros fines privados en aquel tiempo— se crearon suplantaciones divertidas y humorísticas, y de difamación de personalidades, pero empezaron a hacer cosas muy curiosas —ejemplo: la cara de la actriz de Star Wars Daisy Ridley en el cuerpo de una actriz porno—.

"La inteligencia artificial de las cabezas hablantes era capaz de simular cómo sería el movimiento de una cabeza a partir de solo una fotografía"

Aparecieron cosas como This person does not exist (Esta persona no existe), donde una inteligencia artificial crea a una persona distinta cada vez que das al clic con el ratón en esta web. Todas parecen de verdad, pero ninguna es de verdad. Todas son creadas con un modelo de Inteligencia artificial que mezcla rasgos y razas de otras personas como si de una copulación y nacimiento digital se tratase. Una maravilla que permite que muchas de las fotos de perfil que algunos usan en las redes sociales sean de gente que no existe.

Foto de una persona que no existe creada con IA.

Otra de mis favoritas fue Talking Heads, o las cabezas hablantes, al más puro estilo de Futurama, donde personalidades del presente habían llegado al futuro distópico de la serie sobre el futuro con el robot más sexy del mundo (el gran Bender), metidas en peceras que les conservaban vivos. La inteligencia artificial de las “cabezas hablantes” era capaz de simular cómo sería el movimiento de una cabeza a partir de solo una fotografía. Cosas curiosas que podían traer a la “vida” a personajes históricos de fotografías y pinturas.

Y de repente apareció la posibilidad de hacer algo maravilloso: crear una inteligencia que suplantara a una persona en tiempo real en una videoconferencia. Para ello, debíamos entrenar a un modelo con un vídeo de una persona, más o menos largo, para que pudiéramos ver los movimientos, más o menos en 360 grados, de una persona frente a una cámara. Una vez entrenado ese modelo, ya sería fácil utilizar un programa de visión artificial —por supuesto, basado también en inteligencia artificial— que reconociera los movimientos de otra persona frente a la cámara.

De esta forma, como si fuera un autentico titiritero, la persona que está frente a la cámara es capaz de mover la inteligencia artificial que crea en tiempo real a la otra persona. Es decir, una persona se mueve delante de la cámara, la inteligencia artificial reconoce los movimientos de cejas, pómulos, labios, ojos, y en tiempo real es capaz de recrear a otra persona.

"De hecho, con ese programa funcionando, subíamos a la gente a los escenarios a manejarme. A que pudieran jugar a controlar a Chema Alonso un ratito"

Nosotros lo hicimos en 2018, cuando veíamos que esto podría ser una amenaza para las empresas —ejecutivos que sufrieran suplantaciones de sus ejecutivos—, pero también para los adolescentes, que podrían estar hablando con personas que ellos creyeran de una edad y un sexo concreto, pero… que no fuera así.

En el vídeo podéis ver cómo mi compañero Enrique Blanco me mueve con gracia y salero, haciéndome ser su muñeco, un títere en sus manos que puede salir por el Zoom o el Teams, o cualquier otro programa de videoconferencias. De hecho, con ese programa funcionando, subíamos a la gente a los escenarios a manejarme. A que pudieran jugar a controlar a Chema Alonso un ratito. Y a la gente le gustaba. Os lo prometo.

Este mes pasado, el periódico The Guardian sacaba la noticia de que varios políticos europeos habían sido engañados por ciberciminales —o cibersoldados— que habrían utilizado modelos de inteligencia artificial como el que nosotros construimos para suplantarme a mí, pero en ese caso para suplantar a opositores al gobierno ruso.

Claro, podría haber sido un cibercriminal queriendo extorsionar al político engañado, o cibersoldados o ciberespías queriendo sacar información de lo pro-opositores rusos que son —o no— determinados políticos de la Unión Europea.

Lo cierto es que la inteligencia artificial se ha desarrollado fuerte y robusta, y, a día de hoy, estamos intentando ver cómo conseguimos evadir estos ataques, utilizando contraseñas compartidas por las personas en el mundo físico para estar seguros de que la persona con la que tienes una videoconferencia es quién tú sabes, o midiendo el parpadeo de las personas que ves en tu Zoom, o midiendo hasta el latido del corazón de la persona, para saber que está viva. Sí, midiendo el latido del corazón a distancia a través de la imagen de un vídeo, que hoy ya se han desarrollado modelos de inteligencia artificial capaces de hacer esas cosas.

"En la Deep Web, en esa parte de Internet a la que se accede solo con programas especiales que garantizan el anonimato de las conexiones y la privacidad de las comunicaciones, ya se pueden comprar modelos de inteligencia artificial para suplantar a personalidades a la carta"

Este es el mundo que tenemos hoy, y el que vendrá en los próximos tres años va a ser… sorprendente y curioso. ¿Hay que temer a la inteligencia artificial? Mi visión es que no. Nos acostumbramos a las falsificaciones de las imágenes, a las falsificaciones de las voces —que incluso fueron motivo de humor en muchos programas de televisión—, nos acostumbraremos a las suplantaciones en los vídeos, que ya no damos por reales fácilmente, y el siguiente paso será acostumbrarnos a que incluso en tiempo real, la voz que oímos por teléfono o la persona que vemos por una vídeo conferencia no sea la que dice que es…

¿Qué será lo próximo? Quién sabe, pero tal vez deberemos ir creando nuestro equipo personal en las empresas para cazar Blade Runners, ya que en la Deep Web, en esa parte de Internet a la que se accede solo con programas especiales que garantizan el anonimato de las conexiones y la privacidad de las comunicaciones, ya se pueden comprar modelos de inteligencia artificial para suplantar a personalidades a la carta. Tú di a quién quieres manejar como me manejaba mi compañero a mí en el año 2018, y lo tendrás… por unos pocos BitCoins, por supuesto.

Saludos,

Chema Alonso.

4.9/5 (17 Puntuaciones. Valora este artículo, por favor)
Notificar por email
Notificar de
guest

0 Comentarios
Feedbacks en línea
Ver todos los comentarios