Deepfake escolar: crecen los casos de alumnos que crean fotos sexuales de compañeras con IA y las viralizan

La situación alarma a padres y a docentes por la falta de regulación ante el accionar de quien realiza las imágenes y las dificultades de las instituciones educativas para encontrar soluciones. Por qué es tan importante la ESI, cómo afrontar los riesgos y dónde acudir.
Fuente: https://tn.com.ar/sociedad/2025/03/22/deepfake-escolar-crecen-los-casos-de-alumnos-que-crean-fotos-sexuales-de-companeras-con-ia-y-las-viralizan/
Cientos de fotos. Comercializadas a través de Discord, Instagram, Telegram. Desnudas, en ropa interior o traje de baño. Con el avance de la tecnología crecen también los riesgos y en el último tiempo las escuelas están más en alertas que nunca. Durante el 2024 se registraron a lo largo de todo el país al menos una decena de casos en donde un alumno o un grupo de estudiantes utilizó fotos de sus compañeras y las editó con Inteligencia Artificial para desnudarlas.
Las caras son las de las jóvenes afectadas, los cuerpos los crea la plataforma de edición. Y juntos forman una imagen erótica de una adolescente. La viralización, en tan solo horas, puede ser infinita así como también las consecuencias.
Allí comienza también un calvario. Decenas de chicas afectadas, vulneradas -pese a que la foto está editada-, complejos, problemas de autoestima y psicológicos. Cambios de colegios que terminan siendo una solución obligatoria para evitarle un sufrimiento mayor a las adolescentes, pero que deja un sabor de falta de justicia.
Las claves para entender mejor cómo fue creciendo este fenómeno con el tiempo, las consecuencias y cómo abordar los temas con los adolescentes.
La mirada judicial: los tres tipos de deepfakes, la responsabilidad de las apps y cómo se investiga
La difusión de material de abuso sexual infantil es una problemática que creció exponencialmente en los últimos años. El peligro que se suma ahora es la aparición de la Inteligencia Artificial como herramienta para este delito. Lo que antes solamente se difundía, ahora se crea y se difunde.
Los informes mundiales confirman el crecimiento de esta actividad: el último informe de Europol (la Oficina Europea de Policía) señala que la inteligencia artificial es cada vez más utilizada para la producción de material de explotación sexual infantil y “hace más complicada la identificación de víctimas y autores”.
Un relevamiento de la Internet Watch Foundation (IWF) señaló que, a partir de la incorporación de la Inteligencia Artificial para manipular imágenes de menores de edad, hubo un crecimiento del 360% de las fotos sexuales publicadas en la web de niños y niñas de entre 7 a 10 años.
“La IA lo que hace es que en poco tiempo se genera mucho contenido, por eso es una gran amenaza para los menores de edad”, explicó a TN el Fiscal de Ciberdelitos de la UFI N°22 de Azul, Lucas Moyano.