Alertan por uso de Inteligencia Artificial para violentar a mujeres

Foto de depositphotos.com

Ciudad de México.- Al abrir su Instagram una joven de 27 años descubrió un mensaje con fotos en las que reconocía, su rostro, pero no su cuerpo, había sido desnudada a través de Inteligencia Artificial.

No había mensajes escritos; sin embargo, fue suficiente ver su intimidad vulnerada para inquietarla y decidió no responder.

Se trata del único caso de ese tipo, hasta el momento, recibido por el Consejo Ciudadano para la Seguridad y Justicia de la Ciudad de México, por lo que se le dio asesoría para evitar una posible extorsión o fraude con el uso de esas fotos y la canalizaron al Ministerio Público.

El Frente Nacional para la Sororidad, a través de sus redes, ha recibido cinco casos en los que se ha usado la Inteligencia Artificial para generar contenidos sexuales de mujeres, dos de ellas universitarias.

Les han dado contención emocional, se han borrado los contenidos, pero ante la posibilidad de enfrentar un proceso jurídico han desistido para no ser sobreexpuestas, compartió Olimpia Coral, cofundadora del Frente e impulsora de la Ley Olimpia.

Esos casos se suman a las ocho estudiantes del IPN que denunciaron penalmente a Diego “N” en octubre pasado por el mismo delito.

“Se estima que hay muchos más casos. Hoy simplemente se baja la aplicación, puedes manipular esta información cualquier persona con Wi-fi, un teléfono inteligente podría hacer explotación del cuerpo de una mujer”, dijo.

La Ley Olimpia permite castigar esas agresiones, tanto producción como difusión de contenido sexual no autorizado por la persona, pero se requiere que además de las autoridades las empresas digitales asuman su responsabilidad y actúen para evitarlo, señaló.

Eso tiene que contemplarse en las propuestas de ley de ciberseguridad en redes sociales que no sólo deben tocar el tema económico, sino de los derechos de las mujeres, puntualizó.

Mientras la información de los que generan esos contenidos sea reservada y no se pueda obtener como dato de prueba, refirió, no será posible detener la explotación sexual digital de mujeres.

“No necesitas tener el cuerpo físico de una persona para explotarla, para prostituirla”, aseveró.

En 2019 la empresa de ciberseguridad DeepTrace detectó, mediante el estudio The estate of deepfakes, que el 96 por ciento del total de deepfakes en línea son de contenido pornográfico no autorizado.

“¿Te imaginas un día levantarte y ver tu foto de perfil alterada con IA para explotarla sexualmente?”, cuestionaron alumnas del IPN tras descubrir, en octubre pasado, que un compañero reunía fotos de mujeres para manipularlas y crear contenidos sexuales y venderlos.

Una alumna halló una tableta de Diego N que contenía más de 166 mil fotos además de miles de videos que eran transformados con Inteligencia Artificial para generar contenido sexual y comercializarlo.

Aunque son miles las víctimas, entre estudiantes del IPN y de otros lugares, sólo ocho universitarias mantienen un proceso judicial en contra de Diego N.

“Fue algo en la virtualidad que ha mermado sus estudios, su capacidad sentimental, psicológica, su seguridad, ellas han presentado trastornos psicológicos, ansiedades, consecuencias, incluso, físicas”, mencionó Coral.

La pugna de las víctimas es visibilizar que aunque se trata de una práctica virtual el daño es real.

“La violencia digital contra las mujeres y niñas causa graves daños y sufrimientos psicológicos, físicos, sexuales y/o económicos”, señala la ONU Mujeres.

El Frente Nacional para la Sororidad y Defensoras Digitales visibiliza este tiempo de violencia.

De acuerdo con el Informe de Violencia Digital de 2022, de acuerdo con el Informe de Violencia Digital 2022.

-95 de cada 100 víctimas de violencia digital son mujeres.

– 8 de cada 10 personas agresoras (identificadas) son hombres.

– 38.8 por ciento de las afectada son estudiantes.

-72.3 por ciento de las estudiantes son universitarias, refiere ese informe.

– 29.4 de las víctimas son empleadas privadas.

(AGENCIA REFORMA)