¿Leyes para la Inteligencia Artificial?

Erick Iriarte

Ley Cero

Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Primera Ley

Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

Segunda Ley

Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera Ley

Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Desde que Asimov planteara estas leyes para los cerebros positrónicos ha transcurrido casi un siglo. Estas leyes que han ido evolucionando se han plasmado también para la Inteligencia Artificial (IA) y de hecho son nuestro punto de partida.

Debemos partir desde la idea que una IA no es autogenerada (aún no estamos en Skynet). Una IA es creada por alguien, por un programador o un grupo de ellos que,  en el mejor sentido, tendrán su impronta (incluyendo sus visiones del mundo y sus propios prejuicios); siendo de esta manera podemos tener un instrumento que aún con posibilidad de aprender, termina tomando como base ciertos límites propios del programador. Por más desarrollada que pueda ser una IA, sigue siendo una construcción humana.

Pero alguien pudiera preguntar ¿Y si una IA hace una IA? #SciFiLaw, si las reglas iniciales están claras, similares a las planteadas por Asimov a un cerebro positrónico como mandatos imperativos, seguirán dichas reglas como si fuera una licencia vírica. El tema está en que con una generación sin reglas, donde el machine learning no tenga mayores parámetros que la “tendencia” o la “mayor presencia de casos positivos”, pudiéramos terminar dependiendo de la forma de aprendizaje. Y esto nos lleva de nuevo al ¿Cómo aprendemos?  ¿Cómo aprenderá la IA? ¿Qué programación para aprender y aprehender tiene dicha tecnología?

¿Puede la IA ser un problema para el derecho de autor o para el arte? ¿La investigación científica se verá afectada por textos no creados  por humanos? ¿O cómo afectará la visión del mundo si las IA comienzan a tener ‘prejuicios’ o ‘tendencias’ hacia una visión del mundo en específico? ¿Terminará siendo un instrumento discriminador?

Lo cierto es que al momento tenemos más preguntas que respuestas, pero quizás las preguntas no son nuevas, sino que pueden encontrarse en diversas novelas de ciencia ficción de los pasados 100 años. Una visión pesimista donde la IA termina llegando a la conclusión que la única manera es eliminar a los humanos o una visión optimista donde la IA sirve para desarrollar nuestra sociedad y eliminemos las brechas sociales y las diferencias. Probablemente la respuesta es que la IA actual no sea ninguna de las dos, pero si queda claro que la visión pro-tecnología se olvida que dicha tecnología fue hecha por personas con sus propias dimensiones, realidades, prejuicios y miedos.