La Guardia Civil investiga a cinco jóvenes por difundir imágenes de 20 menores desnudas creadas por inteligencia artificial. Los investigados subieron estos falsos desnudos a redes sociales en un caso que la Guardia Civil califica como complejo, en alusión a la dificultad a la hora de discernir si esas imágenes eran reales o artificiales.
Estos jóvenes se enfrentan a delitos de pornografía infantil y de revelación de secretos. En este caso en concreto, en el que hay mayores y menores de edad entre los investigados, se contemplan indemnizaciones por daño moral, las cuales asumen los padres si son menores de 14 años, ya que son inimputables.
Si nos fijamos en el caso de Almendralejo, que ocurrió en septiembre del año pasado y que puso el foco en este tipo de realidad, la Fiscalía sugirió un pacto para no llegar a juicio, y los 15 menores acusados de 20 delitos de pornografía infantil fueron condenados a un año de libertad vigilada y obligados a realizar cursos sexual-afectivos.
En el caso de ser mayores de edad, el Código Penal sí contempla cárcel para la pornografía infantil: de cinco a nueve años. Hay que recordar que enviar estas imágenes también supone un delito penado con hasta seis años de cárcel. Cabe resaltar que los juristas coinciden en que será inevitable un cambio en el Código Penal para poder tipificar los delitos cometidos con inteligencia artificial.
Los casos de 'deepfakes' son cada vez más frecuentes, con imágenes falsas de Donald Trump, el papa Francisco, Vladimir Putin o Pedro Sánchez inundando las redes sociales. De momento, las webs y aplicaciones que permiten crear estas imágenes tendrán que regularse; en mayo se aprobó un marco regulador en el Parlamento Europeo, pero el uso que haga de ella la persona que la utiliza de momento es una cuestión personal.