Unicef pide penalizar los deepfakes sexuales de menores generados por IA

El Fondo Internacional de las Naciones Unidas para la Infancia (Unicef) instó a los gobiernos de todo el mundo a actuar con urgencia y penalizar todos los deepfakes de contenido sexual de menores generados por inteligencia artificial.

En un comunicado publicado el 4 de febrero, la Unicef manifestó su preocupación ante el rápido aumento de imágenes sexuales de niños, niñas y adolescentes, generadas por IA, que circulan en internet. 

El organismo señaló que en los deepfakes está incluida la práctica de “nudificación”. Esta hace referencia al uso de las herramientas de IA para quitar o modificar la ropa en las imágenes. Todo esto con el fin de crear imágenes sexualizadas o desnudos falsos.

Unicef pide penalizar deepfakes sexualizados de menores

Unicef realizó un estudio conjunto con ECPAT e Interpol en 11 países. Este arrojó que más de un millón de niños y niñas han sido víctimas de estas prácticas de contenido falso generado por IA en el último año. 

Según el informe, esto representa alrededor de 1 de cada 25 niños y niñas, lo que equivale a un niño o una niña de un aula escolar estándar. “Los propios niños y niñas son muy conscientes de este peligro”, afirmó la Unicef.

En este sentido, el organismo internacional destacó que en algunos países, los menores manifestaron su preocupación de que alguien utilizara la tecnología para crear imágenes o videos falsos sexualizados.

Las imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas. Los abusos cometidos mediante deepfake siguen siendo abusos y, aunque las imágenes sean falsas, el daño que causan es absolutamente real”, afirmó el organismo.

En el comunicado, el Fondo de las Naciones Unidas para la Infancia explicó que usar la identidad de un menor lo hace una víctima. Además, señaló que aunque no haya una identidad real en las imágenes, el contenido de abuso infantil generado por IA es sumamente peligroso. 

Al respecto, precisó que este tipo de material normaliza la explotación de menores y fomenta el consumo de contenidos violentos. Asimismo, genera problemas para las autoridades, ya que dificulta las labores de investigación para identificar y rescatar a niños y niñas que sí están sufriendo abusos reales.

Las propuestas

Ante esta práctica, Unicef pide a los gobiernos ampliar las definiciones de lo que constituyen imágenes de abusos sexuales de menores para incluir el contenido generado por IA, así como también penalizar la creación, compra, posesión y distribución de estos deepfakes.

El daño que provoca el abuso mediante deepfake es real y requiere una acción inmediata. Los niños y niñas no pueden estar esperando a que la legislación se actualice”, sostuvo el organismo en la publicación en su web.

Otra de las propuestas del organismo internacional es que los desarrolladores de IA diseñen sistemas seguros para evitar su mal uso. A su vez, las empresas digitales deben invertir en tecnología que detecte y bloquee automáticamente el material de abuso infantil.

Información de Unicef y EFE / redacción Mente Digital

No dejes de leer: Firefox añadirá un botón para controlar las funciones de IA en el navegador


Nuestras redes sociales, únete y sé parte de la tecnología

Instagram

Telegram

YouTube

X (Twitter) 

TikTok

Artículos recientes

Firefox añadirá un botón para controlar las funciones de IA en el navegador

Mozilla, la organización detrás del navegador Firefox, anunció esta...

ClawdBot, la IA que propone crear un idioma secreto

OpenClaw (anteriormente ClawdBot), el asistente de IA con capacidad...

Spotify se vuelve más social: Chats grupales y nuevas funciones

La plataforma de streaming Spotify anunció esta semana que...

App vigila la soledad en China y confirma si estás vivo

Bajo el provocativo nombre de "¿Estás muerto?" (Si-le-ma), una...