La sentencia fue confirmada el pasado miércoles por el organismos de la justicia federal. Con esto, la justicia mexicana sienta un precedente muy importante en relación a la distribución de imágenes con contenido sexual o pornográfico creadas utilizando herramientas de inteligencia artificial.
Condena confirmada
Durante la jornada del pasado 21 de mayo, se llevó a cabo la lectura de la sentencia a Diego N. en el reclusorio de oriente. El joven fue hallado culpable del delito de trata de personas en modalidad de pornografía infantil al haber creado y comercializado imágenes con contenido sexual y pornográfico de sus compañeras en el Instituto Politécnico Nacional (IPN).
El código penal de México, tipifica el delito pornográfia infantil cuando «se procure, obligue, facilite o induzca, por cualquier medio, a las personas menores de edad a realizar actos sexuales o de exhibicionismo corporal con fines lascivos o sexuales, reales o simulados para video grabarlas, fotografiarlas, filmarlas, exhibirlas o describirlas a través de anuncios impresos, transmisión de archivos de datos en red pública o privada de telecomunicaciones, sistemas de cómputo, o cualquier dispositivo electrónico», según establece el Artículo 202.
Por lo tanto, al comprobarse que la tablet desde la que se realizaron y comercializaron los videos es propiedad de Diego N., la justicia dictaminó que cometió el delito de tráfico de pornografía infantil. En la tablet de Diego N. se encontraron más de 20 mil videos y 166 mil imágenes de sus compañeras que comercializaba entre grupos de estudiantes y canales externos.
Paulina Zepeda, integrante del movimiento Ley Olimpia, remarca la importancia del precedente constituido a partir de la condena a Diego N., para facilitar el acceso a la justicia en el caso de las estudiantes del IPN, que llevan adelante el proceso legal desde el año pasado.
La violencia sexual digital existe
Según el último informe realizado por el Frente Nacional para la Sororidad (FNS), publicado en septiembre de 2024, titulado «Violencia sexual digital contra las mujeres en México», la violencia sexual digital es una nueva forma de agresión relacionada con el ejercicio de la sexualidad, que nace a partir de la creación y constante mejora de herramientas tecnológicas basadas en inteligencia artificial.
Entre las nuevas formas de violencia sexual que el FNS a registrado en su investigación están la producción no consentida de material íntimo sexual; la difusión de contenido íntimo no consensuado; el robo o usurpación de identidad con fines de explotación sexual; el acoso sexual digital; el grooming; la sextorsión; amenazas; acecho; el ofrecimiento de servicios sexuales no autorizados; y ahora la creación o alteración de imágenes con inteligencia artificial para su venta con fines sexuales.
Una absolución previa
Más allá de la condena confirmada esta semana, a finales del año pasado, Diego N. fue absuelto por el juez Francisco Salazar Silva, argumentando una falta de pruebas contundentes que confirmaran la responsabilidad del acusado en la edición de las imágenes creadas.
Más allá de este revés, los procesos en su contra continuaron por los delitos de violencia digital y pornografía infantil. Al mismo tiempo, la resolución del Juez Salazar Silva generó fuertes discusiones en el Congreso de la CDMX, donde la diputada del PRI, Tania Nanette Larios Pérez, expuso que en un ipad propiedad de Diego N. fueron encontradas cientos de miles de imágenes y miles de videos editados para utilizar a sus compañeras como material pornográfico.
“Esta decisión (la del juez Salazar) es un retroceso en la lucha de los derechos de las mujeres, es un obstáculo más en las batallas para lograr justicia ante crímenes de género”, aseguró Larios Pérez en ese momento.
El florecimiento de las IA como herramientas de creación de contenido es un fenómeno que llegó para quedarse. No obstante, el caso de Diego N. puede considerarse fundamental tras su resolución, para avanzar en la legislación del uso inapropiado o delictivo que estas herramientas pueden generar.
Así como es importante para las instituciones educativas y medios de comunicación tener un ojo puesto en el uso excesivo de la IA para proyectos o publicaciones falsas. Utilizar cualquier programa de inteligencia artificial para robar la identidad de una persona, y ponerla en situaciones como una imagen o video pornográfico, debe ser considerado un delito de igual magnitud que la distribución de pornografía infantil tradicional.