La verdad: Primera víctima de la inteligencia artificial

Autor: Revista Semanal | RS 56


¿Quién es Geoffrey Hinton? El mundo, hasta la semana pasada, no conocía a Geoffrey Hinton, un científico que trabajaba en la gigante de la tecnología de las comunicaciones, la empresa Google, siendo el mismo uno de los pioneros de la inteligencia artificial (IA), al anunciar que renunciaba a su trabajo en para sentir la libertad de hablar sobre los peligros de esta tecnología; y lo hizo, tras darse cuenta de que las computadoras podrían volverse más inteligentes que las personas, mucho antes de lo que él y otros expertos lo esperaban.

En su primera aparición pública tras conocerse su renuncia, este científico y técnico, ante un reportero del New York Times, dijo: “Me fui para poder hablar sobre los peligros de la Inteligencia Artificial, IA, sin considerar cómo afecta esto a Google”.

Continuó diciendo que su preocupación estaba dirigida sobre la capacidad de la IA para crear imágenes y textos falsos convincentes, creando un mundo en el que la gente “ya no podrá saber qué es verdad”.

Es decir, la primera víctima de esta nueva tecnología que ya está presente en la cotidianidad de los seres humanos es la Verdad.

Es que en los últimos meses hemos sido testigos pasivos de varios ejemplos de que este británico tiene razón. He aquí algunos ejemplos.
Ejemplo n.1
Todos los fanáticos de las carreras de fórmula 1, saben que el piloto Michel Schumacher sufrió un accidente mientras esquiaba en los Alpes suizos y que, como producto de este evento quedó en estado de coma, del que no ha salido desde hace 10 años.
Sin embargo, una revista alemana publicó una hipotética entrevista con el piloto, lo que significaba a sus fanáticos que su situación había cambiado y que se encontraba en franca recuperación, y lo más importante, que su inteligencia estaba intacta.
Luego de unas semanas dicha entrevista produjo una gran
indignación porque en realidad, quién respondió al cuestionario fue una máquina de inteligencia artificial

No hay ninguna imagen pública suya desde el 29 de diciembre de 2013, el día que Schumacher sufrió un grave accidente de esquí en la estación de Méribel, y su familia se ha encargado de ocultar todo tipo de fotos, vídeos o cualquier información visual al respecto.

Tras su mudanza a la localidad mallorquina de Andratx, la información sobre su estado real es toda una incógnita. Tanto su esposa Corinna como sus hijos Mick  y Gina Maria guardan con celo toda noticia al respecto. Por eso, la portada de la revista ‘Die Aktuelle’ anunciando a toda plana la primera entrevista a Michael Schumacher desde 2013 sacudió a medio planeta.
El problema es que dicha entrevista nunca existió: fue hecha por una inteligencia artificial y todas las respuestas estaban hechas con un programa, character.ai, que se había encargado de dar unas respuestas que, sonaban “engañosamente reales”.
LAS FALSAS RESPUESTAS DE MICHAEL SCHUMACHER
En el texto hay preguntas del estilo «¿Cómo ha estado desde el accidente que sufrió en el 2013?», o «¿cómo se encuentra hoy?», que bien podrían ser las que se preguntaran al histórico piloto si este pudiera hablar.

La IA que ha fingido responder como Schumacher responde con vaguedades como «Mi vida ha cambiado completamente», o similares.
No es hasta el final del texto cuando se especifica que la entrevista está hecha por una IA. “¿Dijo realmente Michael Schumacher todo esto? Esta es una entrevista hecha por internet en una página de inteligencia artificial”.

“Escándalo mundial”, “ojalá les metan una buena denuncia” forman parte de algunos de los comentarios que ha suscitado el engaño de directivos y reporteros de “Die Aktuelle”.
A partir de este ejemplo, ¿se podrá confiar en los medios amarillistas y escandalosos?
Ejemplo n.2
Hace un par de meses, la prensa internacional difundió una serie de fotografías del hipotético arresto del expresidente norteamericano Donald Trump, quien enfrenta a la justicia de su país, acusado de ser instigador del ataque al edificio del Congreso en protesta de su pérdida en las elecciones en las que triunfó el actual presidente Jim Baiden.
Y como si esto fuera poco, la fiscalía de Nueva York está juzgándolo por usar dineros de su campaña electoral del 2016 para pagar por el silencio de una actriz de pornografía, con quién habría mantenido una relación que, naturalmente, no quería que se supiera.



Cuando fue trasladado a Nueva York para que rindiera su declaración, la expectativa ciudadana se encendió y un activista de la Inteligencia Artificial, manipuló ciertas imágenes hasta mostrar que la policía de aquella ciudad lo arrestaban sin contemplaciones.
Lo malo fue que esas fotos fueron falsas.
¿Podrá alguien confiar en las fotografías que se publiquen?
Ejemplo n. 3
En esta misma línea, y por los mismos días, una foto del Papa Francisco vistiendo una chompa de naylon, de color blanco que, supuestamente, lo cubría del frío europeo.
Naturalmente, las fotos eran falsas. Un conocido fotógrafo de los llamados “paparazzis” había manipulado la imagen con el objeto de obtener réditos económicos.
Ante este ejemplo se me ocurre que, a partir de este momento, nadie está libre de que algún desadaptado o un ser sediento de venganza pueda vestir o desvestir a cualquier persona, sea esta famosa o, simplemente, la que “me cae mal” y provocarle un descrédito social inconmensurable.
Ejemplo n. 4
En las redes sociales aparecen rostros de personajes históricos como Jesús, Cleopatra, Julio César, Tupac Yupanqui, Montezumac, Hernán Cortés, Simón Bolívar, Antonio José de Sucre, pero la lista puede ser infinita, pero que mueven los labios con una facilidad asombrosa para exponer ideas y pensamientos no siempre adecuados ni ciertos. Dichos movimientos labiales engañan a cualquier lector de labios por la perfección con la que coinciden al movimiento de expresar una letra, una palabra, una frase.
Quien quiera manipular la historia y “hacerle” decir cualquier idea a un personaje, ya tiene las herramientas necesarias para hacerlo y convencer a un iluso espectador de que tal o cual idea o concepto fue fruto de la inteligencia del personaje.
¿Podemos tener confianza en la historia expresada de esta manera?
Así, entonces la verdad queda en entredicho. La confianza que surge de la verdad pasa a ser un valor despreciable. El padrino de la Inteligencia Artificial no vacila en afirmar: “Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”.
Pero este, si bien es uno de los aspectos más controversiales de esta tecnología, hay otro que también causa escozor. Esta tecnología podría desplazar rápidamente a los trabajadores y convertirse en un peligro mayor a medida que aprende nuevos comportamientos. “La idea de que estas cosas podrían volverse más inteligentes que las personas, es cierta. “La mayoría de la gente pensó que estaba muy lejos. Yo también lo creí. Pensé que faltaban entre 30 y 50 años o incluso más; ya no pienso igual”.