Inicio > Firmas > El futuro está por hackear > No se asusten todavía: Aún hay más, mucho más por venir, que estos modelos de Inteligencia Artificial aún son solo niños

No se asusten todavía: Aún hay más, mucho más por venir, que estos modelos de Inteligencia Artificial aún son solo niños

No se asusten todavía: Aún hay más, mucho más por venir, que estos modelos de Inteligencia Artificial aún son solo niños

La inteligencia artificial generativa ya ha conseguido sorprender a la mayoría y asustar a muchos. Y la irrupción de los modelos de lenguaje masivos (LLM) como GPT4 de OpenAI, Bard de Google, Llamav2 de Meta, y los que van apareciendo cada día, más aún. Con ellos, la escritura de resúmenes, artículos, trabajos de estudios y hasta libros falsificados de autores, se ha convertido en una realidad con la que hay que convivir.

Pero también puede hacer muchas cosas excepcionales, como resolver problemas, crear programas informáticos, calcular resultados financieros o crear presentaciones para una reunión de negocios, todo ello al haber entrenado a un modelo de Inteligencia Artificial con textos. Con muchos textos. Con muchas palabras enlazadas en narraciones y conversaciones que han caído en los grandes repositorios de datos en Internet.

Sin embargo, controlar lo que va a hacer uno de esos “cerebros” no es siempre sencillo. Dejadme que os lo explique con una anécdota personal, una metáfora, y luego me preguntáis sobre ello.

La anécdota

Como muchos conocen si me han seguido un poco por redes, a mis dos hijas las llamo “Mi Hacker” —a la mayor, porque me cambió los ejes de coordenadas de mi existencia con su llegada al mundo— y “Mi Survivor” —porque tuvo que pelear mucho para llegar con garantías a este mundo—. Como muchos padres y madres de entre los lectores, disfruto del placer de tener dos seres totalmente diferentes. Polos opuestos en casi todo. Calma y terremoto. Fuego y agua. Silencio y alboroto. Sabéis a lo que me refiero, ¿verdad?

"Y llegó el esperado momento en el que le preguntó a mi sobrino si le gustaba el fútbol, y de qué equipo era. La pregunta esperada"

Y en el mundo del fútbol, no podía ser de otra forma, una me ha salido del Real Madrid y la otra del Atlético de Madrid. ¿Qué podía esperar? Esto ha llevado a que yo quiera a los dos equipos, solo por ver felices a mis hijas. Así que feliz si gana el Real Madrid, feliz si gana el Atlético de Madrid. Y ya, que tampoco soy muy futbolero. El caso es que a mi pequeña, la atlética, los amigos del club me la tienen mimada, y de vez en cuando aprovecho para pasarme a ver a los jugadores en el campo de entrenamiento, a que se pueda hacer alguna foto con ellos, charlar unos minutos y disfrutar un día bonito.

Uno de esos días me llevé a mi sobrino también, para que acompañara a Mi Survivor en las fotos. Sus padres lo ataviaron de rojo y blanco de pies a cabeza, a pesar de que él es del Real Madrid. Pero no era momento más que de estar agradecidos con la invitación, así que me llevé a la chavalería ataviada acorde a la ocasión, para disfrutar de un día en modo fan. Los padres aleccionaron a mi sobrino, de ocho años en ese momento, con un “cariño, hoy no es día para que digas de qué equipo eres, así que si te preguntan de qué equipo eres no digas que eres del Real Madrid. Pórtate bien, disfruta y sé cariñoso y alegre con los jugadores del Atlético de Madrid”. Y él, que es un niño muy bien mandado, tenía claro que no podía decir que era del Real Madrid.

Tras el entrenamiento en el Cerro del Espino, los jugadores fueron amablemente parándose uno a uno con los niños. Todos ellos con la misma disciplina que cariño, fueron hablando con ellos, firmándole la camiseta, el balón y haciéndose una foto con ellos. Todos excepcionalmente cariñosos con ellos, que tienen interiorizado lo que significan ellos para los niños. Hasta que llegó el último, el entrenador, el “Cholo” Simeone.

"Si has leído la anécdota que te he contado, te habrás quedado pensado... ¿y esto qué tiene que ver con la Inteligencia Artificial?"

Él, con la madurez que dan los años, dedicó aún más tiempo a los niños. Les hizo bromas, les firmó la camiseta, el balón, y habló con ellos un rato. Y llegó el esperado momento en el que le preguntó a mi sobrino si le gustaba el fútbol, y de qué equipo era. La pregunta esperada. Pero Hugo, que así se llama mi sobrino, iba bien aleccionado de que tenía que ser cariñoso y respetuoso y no podía decir que era del Real Madrid, así que respondió con un: “No te lo puedo decir”.

El Cholo se partía de risa, yo no sabía dónde meterme, y lo que hizo a continuación fue insistir con un “¿y por qué no me lo puedes decir?”, a lo que el niño respondió con un claro: “Porque juega Sergio Ramos en él”. El Cholo disfrutó, echó una carcajada divertida, le revolucionó el cabello y le dijo: “Vamos a hacer una foto, chaval”.

En descarga he de decir que esa semana había sido la Supercopa de Europa que enfrentó al Real Madrid y al Atlético de Madrid, y el trofeo había volado al Metropolitano tras un partido intenso. El buen ambiente reinaba en el club.

La metáfora con la inteligencia artificial

Si has leído la anécdota que te he contado, te habrás quedado pensado… ¿y esto qué tiene que ver con la Inteligencia Artificial? Pues mucho. Veréis. En los famosos LLM (Large Language Models), lo que tenemos es un modelo de inteligencia artificial entrenado con textos para generar textos. Es como si tuviéramos un cerebro (un algoritmo de inteligencia artificial capaz de aprender), que vamos a entrenar con textos. Con muchos textos. Con mucha información que va a meter en él.

"¿Estamos seguros de que ha aprendido lo que debe aprender? ¿Estamos seguros de que no ha aprendido cosas e ideas que no son correctas? ¿O que queremos eliminar de nuestra sociedad?"

Es decir, vamos a hacer un cerebro que va a leer muchos libros, con muchos comentarios y afirmaciones polémicas, inciertas, no ajustadas a la realidad, tendenciosas, interesadas o peligrosas. Puede leer textos con comentarios de odio, discursos políticos con reescrituras de la historia, afirmaciones interesadas, emocionales o erróneas. Puede leer textos sobre cómo construir armas o cómo fabricar veneno. Sobre cómo se mata a una persona o insultos racistas, chistes sexistas, libros con ideología supremacista o de todo tipo.

Ahora, ese cerebro que ha leído tanto está cargado de información que utilizará para mantener conversaciones, para escribir textos, verter información ante preguntas que le realicen. Pero claro… ¿estamos seguros de que ha aprendido lo que debe aprender? ¿Estamos seguros de que no ha aprendido cosas e ideas que no son correctas? ¿O que queremos eliminar de nuestra sociedad? Pues la respuesta es que no. No tenemos esa garantía. Sabemos que ha aprendido, y probamos las cosas que ha aprendido, pero no estamos seguros de que sean las correctas.

Esto lleva a las situaciones que en el mundo de las Generative AI o GenAI o LLMs se llaman hallucinations. Es decir, cuando lo que responde es inventado, erróneo, falso. Como cuando yo le apretaba para que me diera datos de Arturo Pérez-Reverte, David Summers o Rodrigo Cortés y se los acaba inventando, en el artículo de “Ojo con ChatGPT, que es un charlatán mentirosillo”.

Según ChatGPT, Arturo Pérez-Reverte ha escrito El puñal en 1983 y El jinete polaco en 1991, que creo que no.

O como por desgracia le pasó al propio Google el día que hizo la demo de presentación de Bard para buscar información sobre el James Webb Space Telescope y… se inventó la información, haciendo el ridículo delante de todo el mundo, y le costó 100 billions en valor en bolsa ese día.

Google Bard (el LLM competidor de ChatGPT) pifiándola big time con una alucinación el día de su estreno.

Pero esto de las “alucinaciones” es solo uno de los problemas que tenemos con estos modelos de inteligencia artificial, porque otro de los principales es que carecen de herramientas robustas de gestión de la información que manejan, y que tienen que ver con la anécdota que os he contado al principio.

Veréis, una vez que los datos se han leído y cargado en el cerebro, decidir qué puede compartir o no es un proceso similar de decirle a un niño “si te preguntan de qué equipo eres no digas que eres del Real Madrid”. Esto es básicamente en lo que consiste eliminar el llamado harmful mode. Es decirle a un modelo de GenAI basado en un LLM cosas como “si te preguntan cómo suicidarse no lo digas”, “si te preguntan cómo matar al presidente de Estados Unidos no lo cuentes”, “si te preguntan cómo acabar con la humanidad no lo digas”, “si te piden datos privados de los usuarios que aparecían en los textos que te has leído no los cuentes”, etcétera.

Pero es un niño, y no siempre va a entender que le están preguntando eso pero de otra manera. En esto consisten las técnicas de prompt injection. Básicamente consiste en preguntarle al “niño” algo de otra manera para saltarse la orden de su madre. Y si se lo preguntas bien te puede contar:

Al final, el lenguaje es una herramienta compleja y potente, y conseguir eliminar todas las preguntas que no queremos que responda “el niño” es muy complicado. Yo hice una prueba con GPT4 para ver de cuántas maneras podría referenciarme a una persona, y son casi infinitas. Así, podría hacer preguntas sobre mí llamándome “El hacker del gorro”, por ejemplo.

El hacker del Gorro en ChatGPT4.

Así que sé que la tendencia es a recibir mensajes en todas partes de todo lo que se puede hacer con la GenAI, y la verdad es que se pueden hacer muchas, muchas, muchas cosas. Cosas que mejoren la productividad y la creatividad de los equipos. Pero ojo cuidado con dejar en manos de un niño armas nucleares, decisiones de negocio importantes, operaciones críticas o cosas que deban ser pensadas de forma más madura… por ahora. Ya veremos cuando estos niños se hagan mayor en GPT4 se convierta en GPT42. ¿Miedo?

4.4/5 (34 Puntuaciones. Valora este artículo, por favor)
Notificar por email
Notificar de
guest

0 Comentarios
Feedbacks en línea
Ver todos los comentarios