La detección de fotografías falsas de desnudos de adolescentes en Almendralejo (Badajoz) evidencia que la plaga de creaciones hiperrealistas de inteligencia artificial con fines maliciosos, especialmente pornográficos, ha llegado a España.

Las víctimas fueron suplantadas por otras personas mediante un programa informático que generaba imágenes falsas. Algunas de sus víctimas son menores de edad en su vuelta al cole.

Una vuelta al cole traumática para decenas de menores en Extremadura

A principios de este mes se descubrió que más de 20 niñas de entre 12 y 17 años habían sido víctimas de deepfakes en Almendralejo, un municipio de Badajoz de unos 30.000 habitantes.

Algunas de ellas recibieron por redes sociales fotos falsas de ellas mismas desnudas, creadas con una aplicación de inteligencia artificial que suplantaba su identidad. Otras se enteraron por sus compañeros de clase o por sus madres, que habían visto las imágenes circulando por los móviles.

Las niñas afectadas pertenecían a cuatro de los cinco centros educativos que imparten secundaria en el pueblo. Algunas de ellas sufrieron ataques de ansiedad, miedo y vergüenza al ver las fotos.

Sus madres decidieron denunciar los hechos y crear un grupo de WhatsApp para coordinarse y apoyarse entre ellas. La policía judicial de Almendralejo inició una investigación y logró identificar a “varios” de los presuntos autores de los montajes fotográficos.

Preocupante ola de “deepfake” porno en España

¿Qué son los deepfakes?

Los deepfakes son vídeos o imágenes falsos que se crean mediante inteligencia artificial (IA) para suplantar la identidad de una persona o alterar su apariencia o su voz. El término proviene de la combinación de las palabras en inglés “deep learning” (aprendizaje profundo) y “fake” (falso).

Estos se basan en redes neuronales que analizan grandes conjuntos de datos para aprender a imitar las expresiones faciales, los gestos y la voz de una persona. Luego, aplican esa información a otro vídeo o imagen para modificarla o sustituirla por otra persona.

¿Qué se está haciendo para prevenir y combatir los deepfakes?

Este caso no es el primero en España en evidenciar la plaga de creaciones hiperrealistas de inteligencia artificial con fines maliciosos, especialmente pornográficos. Se trata de una forma de agresión digital que vulnera el derecho a la imagen y la intimidad de las víctimas.

Las propuestas de ley presentadas para reformar el Código Penal, y así incluir explícitamente la creación y distribución de deepfakes, no han tenido éxito. Sin embargo, podría perseguirse bajo el artículo 173.1 que indica lo siguiente:

“El que infligiera a otra persona un trato degradante, menoscabando gravemente su integridad moral, será castigado con la pena de prisión de seis meses a dos años. “

La Comisión Europea ha presentado un borrador de Reglamento de IA que se discutirá en el Parlamento Europeo en los próximos meses para establecer normas de transparencia para los sistemas de IA destinados a generar o manipular contenidos de imagen, audio o vídeo.

Como ciudadanos, tenemos un papel activo y responsable en el uso y consumo de los medios digitales. Podemos adoptar una actitud crítica y reflexiva ante la información que recibimos y compartimos, verificando su veracidad y su origen.

También podemos denunciar los casos de deepfakes que atenten contra los derechos de las personas o que generen desinformación o confusión.

Por admin