¿Ética en la inteligencia artificial?

Italo Sotomayor Medina

Italo Sotomayor Medina

 Cuando en la Facultad de Derecho me enseñaban sobre dilemas éticos, siempre utilizaban un ejemplo muy clásico, pero ilustrador: un auto pierde los frenos y tiene dos caminos. El primero, le significaría atropellar a cinco personas, y, el segundo, a una sola. La pregunta frecuente de nuestros profesores era, “¿qué camino elegirían si fueran ese conductor?” y la respuesta natural de todos, que hasta ese momento nos parecía muy obvia, era que, sin duda, elegiríamos el segundo camino, atropellaríamos (lamentablemente) a una persona, pero salvaríamos a cinco. Todos, confiados en nuestra respuesta, recibíamos el cuestionamiento (ético) de nuestro profesor: “¿por qué esa persona tiene menos derecho a vivir que las otras cinco?.

Ahora, ‘modernicemos’ ese ejemplo, con lo que un coche autónomo podría hacer. El coche, que en su interior tiene a un humano que lo guía, pierde los frenos y debe decidir, para reducir el impacto de un inminente accidente, si atropella a un peatón (puede también ser un ciclista) o estrellarse contra alguna construcción. Finalmente, de forma autónoma, el coche decide atropellar al peatón y resguardar la vida del humano que se encuentra a bordo. Sí, algo paradigmático, pero perfectamente posible; sin embargo, en esta ocasión, el auto ha respondido en base a su sistema de aprendizaje y ha concluido a qué vida le asigna mayor valor.

Aunque los ejemplos aquí descritos pueden ser algo drásticos, forman parte del análisis rutinario sobre la inteligencia artificial (IA) y su impacto en las actividades humanas. Claro, sobre sus beneficios no tenemos dudas y no se diga sobre su potencial a futuro; no obstante, es importante y urgente que la IA empiece a dotarse de un código de valores, particularmente, de los más universales: respeto, libertad e igualdad. De allí que la IA, a través de sus creadores y promotores, tienen el reto de lograr que las máquinas y sus sistemas, aprendan, razonen, perciban, predigan, planifiquen y/o lleven el control de un sin número de situaciones y escenarios, que redunde y esté centrada en el ser humano.

Una verdadera IA, debe asegurarnos que protegerá los derechos fundamentales, que no restringirá la libertad humana, que prestará atención a los grupos más vulnerables, que no reducirá el derecho a la información y privacidad de las personas; en definitiva, que no dañe, destruya o engañe a nadie. Pero, ¿esto es posible? Sí, en la medida en la que entendamos a la IA como un aliado, como un invento disruptivo del entorno digital y no como una herramienta para la promoción de sesgos, odio y discriminación, pues, las propias máquinas, podrían repetirlos, amplificarlos y asumirlos como su forma de entender nuestro mundo.

En estos tiempos de extrema dependencia tecnológica, hace falta que nos cuestionemos sobre cómo las máquinas procesan y utilizan nuestros datos, para mitigar riesgos y robustecer sus objetivos que, bien direccionados, podrían ayudar a la humanidad a prevenir o evitar, crisis sociales, catástrofes económicas y sanitarias, la destrucción del ecosistema y más. Esto solo será posible si la utilizamos con prudencia, fiabilidad, seguridad y comprendiendo el papel esencial que juega el ser humano, con su experiencia y conocimiento, en el tratamiento de datos de los cuales aprende la IA. No se trata de entender a la IA como un grupo de ceros y unos o como meras operaciones matemáticas, sino más bien, debemos propender que funcione con esquemas morales y valores humanos, identificando los dilemas éticos y prejuicios; solo así evitaremos una dictadura de los algoritmos.

@ItaloSotomayor
[email protected]