Inteligencia artificial podrían provocar extorsión sexual

Las mujeres son más víctimas de esta situación.
Situación. Las mujeres son más víctimas de esta situación.

La falsificación de fotos de mujeres desnudas se vuelve cada vez más realista con el uso de aplicaciones de inteligencia artificial.

Estas aplicaciones fotográficas desnudan digitalmente a las mujeres, ingresando una simple frase, logran manipular las imágenes y de esta forma, se pueden provocar extorsiones sexuales a las víctimas.

Esta práctica es conocida como ‘Deepfake’ lo que resulta un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona.

¿Cómo detectar una imagen falsa?

Tanto si se trata de una imagen como un video, existen varios factores que pueden ayudar a detectar la falsificación.

Las incongruencias de la piel, las sombras apagadas, errores de deslumbramiento en gafas, vello facial poco realista, demasiado o poco parpadeo, color de los labios, entre otras características pueden delatar a estas imágenes.

Además, en caso de que alguna persona esté siendo víctima de extorsión con este tipo de material podrá denunciar directamente en los organismos competentes. (VAB)