Los victimarios son los mismos compañeros de escuela, acosando a menores entre los 12 y 15 años.
Redes sociales, inteligencia artificial, extorsión, contenido viral. Sumar todo esto está generando una problemática que es cada vez más frecuente entre los jóvenes actualmente: las imágenes falsas de desnudos, que se usan para manipular y amenazar la integridad de menores.
Según New York Times, el uso de IA para crear contenido falso está generando una preocupación cada vez mayor en las comunidades escolares de Estados Unidos. Un fenómeno inquietante es la creación y difusión de imágenes alteradas, también conocidas como deepfakes, que pueden ser generadas por algoritmos de IA para modificar digitalmente la apariencia de personas en imágenes y videos.
Siendo una modalidad en la que las víctimas jamás comparten contenido de este tipo, pero en la que los ciberdelincuentes toman una imagen normal y logran alterarla para que tenga otro tono, convirtiéndola en contenido explícito, que parece real, y se vuelve una forma de amenaza y acoso.
Casos reales de imágenes falsas
Uno de los casos mencionados en la investigación se dio en la ciudad de Westfield, Nueva Jersey, donde estudiantes de secundaria utilizaron software de inteligencia artificial para generar imágenes sexualmente explícitas de sus compañeras de clase.
Estas imágenes, fabricadas de manera falsa, fueron compartidas en redes sociales y chats grupales, lo que resultó en una situación de acoso y humillación para las víctimas.
Otro caso proviene de Beverly Hills, California, donde estudiantes de octavo grado crearon y compartieron imágenes explícitas de compañeras de clase de 12 y 13 años utilizando IA. Ante esta situación, las autoridades escolares tomaron medidas firmes, incluyendo la expulsión de los estudiantes involucrados y la emisión de advertencias claras sobre las consecuencias del uso inapropiado de la IA.
“Todos los distritos escolares están lidiando con los desafíos y el impacto de la inteligencia artificial y otras tecnologías que están disponibles para los estudiantes en cualquier momento y en cualquier lugar”, dijo Raymond González, superintendente de las Escuelas Públicas de Westfield.
Las imágenes alteradas son tomadas de redes sociales. Fotos en las que las víctimas están en situaciones normales, pero que mediante una aplicación de inteligencia artificial es posible convertirlas en material explícito. Como sucedió en el caso de Westfield, en el que un joven empezó a seguir a una menor de 15 años en Instagram y, después de alterar las imágenes, compartió el contenido en un grupo de Snapchat.
Estos incidentes son solo una parte de una problemática más amplia que está afectando a los jóvenes en las redes sociales. La creación de contenido falso mediante IA no se limita únicamente a imágenes falsas, sino que también incluye la generación de textos manipulados y la producción de noticias falsas, lo que puede tener graves consecuencias en la percepción de la realidad.
Varios son loss riesgos que enfrentan los jóvenes ante esta proliferación de contenido manipulado. En primer lugar, la difusión de imágenes falsas puede causar daños irreparables en la reputación y el bienestar emocional de las víctimas, quienes pueden experimentar vergüenza, ansiedad y depresión como resultado del acoso y la humillación pública.
“Se oye mucho sobre la seguridad física en las escuelas. Pero de lo que no se oye hablar es de esta invasión a la seguridad emocional y personal de los estudiantes”, aseguró Michael Bregy, superintendente del Distrito Escolar Unificado de Beverly Hills.
En los dos casos reportados por New York Times, las escuelas enviaron mensajes a sus estudiantes advirtiendo la gravedad de esta situación, asegurando que “cualquier estudiante que sea descubierto creando, difundiendo o en posesión de imágenes generadas por IA de esta naturaleza enfrentará acciones disciplinarias”.
Sin embargo, Francesca Mani, una de las víctimas del contenido alterado, cree que ya es momento de “empezar a actualizar nuestra política escolar, porque si la escuela hubiera tenido políticas con respecto a la IA, estudiantes como yo habrían estado protegidas”, dijo la menor de 15 años.