Nuevo caso en España de chicas desnudadas con Inteligencia Artificial. En esta ocasión los investigados son dos menores de La Rioja, después de que la propia víctima pudiera la denuncia. Los jóvenes habrían accedido a una foto que ella publicó en una red social y mediante una aplicación, crearon un cuerpo desnudo falso con la cara de la chica y luego difundieron la imagen.

Estas acciones pueden provocar graves consecuencias a la víctima, como miedo, sentimiento de culpa, ansiedad e incluso trastornos de alimentación. Sin embargo, estas no son las únicas ya que la lista de secuelas de las víctimas de estos falsos desnudos, es muy variada y compleja.

Natalia Ortega, directora de Activa Psicología, explica que "además genera vergüenza" por el hecho de preguntarse "cómo yo he podido tener contactos con esa persona y esa persona ha manipulado mi imagen, me ha utilizado". Esa vergüenza es la que, en muchos casos, provoca que las víctimas, especialmente menores, no se atrevan ni a denunciar.

Es por esta razón que es extremadamente complicado detectar este tipo de acoso. Aunque, eso sí, el bajo rendimiento escolar y el aislamiento son dos de las señales de alarma. Ortega relata que "dejan de ir a clase, a actividades extraescolares que antes iban, o incluso salir con sus amigos". En su lugar "se refugian mucho metidas en su habitación".

Aunque nuestro Código Penal no recoge de forma expresa este tipo de delitos, ya existen condenas al respecto. En el caso de los adultos, pueden enfrentarse a varios delitos con penas de cárcel como aquellas que van contra integridad moral, de producción o distribución de pornografía infantil. Incluso, puede enfrentar uno de revelación de secretos por la difusión de estas imágenes.

En el caso de los menores, se juzgaría de forma diferente. Así lo ha explicado a laSexta la abogada de Legálitas Sara García: "en los juzgados de menores no se imponen penas, sino medidas, que pueden ir desde internamiento en centros de menores a trabajos en beneficios de la comunidad". Entonces, el primer paso y el más importante es que las propias víctimas se reconozcan como tal, para que una vez así no duden en denunciar.

Otra consecuencia de este tipo de contenidos es la desinformación. Para evitarla la red social Tik Tok ha anunciado que comenzará a etiquetar e identificar aquellos contenidos generados con IA. Este tipo de vídeos llevarán una marca de agua para distinguirlas de forma sencilla.