Redacción.- La proliferación de herramientas de inteligencia artificial ha traído consigo desafíos éticos y sociales inéditos, particularmente entre los adolescentes. Un reciente estudio publicado en la revista científica PLOS One revela un dato alarmante: más de la mitad de los jóvenes de entre 13 y 17 años en Estados Unidos ha utilizado aplicaciones de IA para crear imágenes de desnudos, ya sea de sí mismos o de otras personas.
Este fenómeno, según Infobie, que se ha convertido en una práctica extendida, plantea serias preocupaciones sobre la privacidad, el consentimiento y la exposición a riesgos digitales en una generación hiperconectada.
La investigación, liderada por Chad Steel de la Universidad George Mason, constituye una evidencia a gran escala que mide el uso de tecnologías de nudificación con IA en menores estadounidenses.
Además, los participantes masculinos registraron tasas más altas tanto en la creación como en la distribución de estas imágenes, aunque la afectación se observa en ambos géneros, como creadores y como víctimas. El fenómeno se agrava por la facilidad de acceso a estas herramientas, el bajo costo y la escasa regulación efectiva.
Cómo funcionan las apps de desnudos con IA
Las aplicaciones de “nudificación” utilizan IA para transformar una fotografía real en una versión falsa en la que la persona aparece sin ropa, lo que se conoce como deepfake. A diferencia de los generadores de imágenes a partir de texto, estas apps requieren una foto real como punto de partida, lo que implica de manera directa a una persona concreta como víctima.


