Era septiembre de 2023 cuando Eli recibió una llamada de su hija. Desesperada y entre lágrimas, le confesó que su rostro había sido editado y montado sobre la imagen de una mujer desnuda, y había sido difundida en un grupo de Telegram integrado exclusivamente por hombres. Se llamaba “Chicas de Sanje y la Zona”, en referencia a San Jerónimo Sud, una pequeña localidad santafesina de apenas 3000 habitantes. Sus integrantes solicitaban imágenes de mujeres del pueblo, y una persona las generaba con inteligencia artificial (IA) para luego compartirlas con otros hombres de la zona. En ese grupo circularon imágenes de más de 80 mujeres del pueblo, de las cuales 18 se animaron a denunciar.
Fue al reunirse con algunas de ellas que Eli descubrió dos verdades que cambiarían su vida para siempre. La primera: su hija no era la única víctima. Ella también aparecía desnuda en esas creaciones, tan realistas como perturbadoras. La segunda: quien había hecho esas imágenes no era un desconocido, sino su vecino de toda la vida, al que seguiría cruzándose en la calle sin que enfrentara consecuencia alguna. ¿El motivo? Lo que hizo no era considerado un delito en la Argentina. Y, hasta el día de hoy, todavía no lo es.
Las imágenes sexuales y pornográficas de mujeres generadas con inteligencia artificial entran en el marco de lo que se conoce como deepfakes [ultrafalsos], que consisten en la creación o edición de imágenes con inteligencia artificial de personas reales o inexistentes. La problemática apareció en 2017 a la par del crecimiento de la IA en el mundo. Los casos empezaron a surgir en diferentes países. Muchos se originaron en foros de la red social Reddit, donde las deepfakes sexuales buscaban alterar videos de actrices o cantantes y volverlos pornográficos.
“Vos toda tu vida intentas hacer lo correcto y, solo con un clic, un tipo te arruina la vida”, lamentó Eli. El caso de San Jerónimo Sud fue uno de los más reconocidos en la Argentina. Comenzó el 15 de septiembre de 2023, cuando varias mujeres del pueblo empezaron a recibir mensajes de sus vecinos y conocidos advirtiendo que había imágenes pornográficas de ellas circulando en Telegram, una red de mensajería conocida por su falta de regulación sobre los contenidos y en paralelo, una extrema protección sobre la identidad de los usuarios que difunden, como en este caso, material pornográfico o violento.
El equipo de Ley Olimpia en la Argentina contabilizó, al menos, 30.000 grupos en el país que propagan material íntimo, sexual, de explotación sexual de niñas, mujeres y adolescentes, en muchos casos, creado con inteligencia artificial. Estos chats proliferan principalmente en Telegram.
Nilda se enteró cuando una amiga la llamó. “Ella me dijo que sabía que no era yo porque se daba cuenta. Pero ella es mi amiga de toda la vida y me conoce. Tuve que llamar a mi hijo, que en ese entonces tenía 21 años, para explicarle que habían circulado imágenes, pero que no era yo”, recordó. Nilda se encontró con otras mujeres que decían haber sufrido lo mismo y juntas crearon un grupo de Whatsapp, alarmadas ante algo de lo que no tenían conocimiento alguno.
“Fuimos a hablar con la presidenta comunal acá en el pueblo, pero dijo que se trataba de algo del ámbito privado. Fuimos a la comisaría, pero no sabían cómo tomarnos la denuncia”, explicó. Se dirigieron a un juez comunitario de pequeñas causas, quien las llevó a un juzgado y las escuchó una por una. Aun así, era inútil: no había manera de proceder.
Las víctimas denunciaron al número de teléfono en Telegram, que en esa red figuraba como A.O. Sin embargo, al vincularlo al Whatsapp, figuraba con el nombre de una mujer que vivía en el pueblo -enfrente de la casa de toda la vida de Eli-, y que, un día antes de la presentación de las víctimas, había denunciado que le hackearon el celular. Ella y su esposo eran los principales apuntados. “Parecía un delivery. Había gente que pedía y consumía. Escribía ‘¿tenés la foto de tal chica de San Jerónimo?’ y esta persona se dedicaba a idearla. Había comentarios horribles”, señaló Nilda.
“Yo tuve que ir a avisarle a mis padres, porque vivimos enfrente. Mi hija tiene su negocio enfrente y yo a 20 metros. Fue una situación rara y perversa”, agregó Eli.
Para colmo, Telegram inhabilita la posibilidad de sacar captura de pantalla a las conversaciones, lo que hizo que las víctimas tengan que sacarles fotos desde otro celular a cada uno de los chats. 18 mujeres denunciaron lo ocurrido en la fiscalía de San Lorenzo. Tiempo después, hubo un allanamiento a la casa de la pareja, donde secuestraron el teléfono del hombre de 49 años y descubrieron que las fotos estaban en ese celular.
Sin embargo, el allanamiento no se relacionó con la denuncia por las deepfakes, sino por un antecedente penal que el hombre posee por distribución y circulación de material pornográfico a raíz de una presentación de la ONG Missing Children. Le secuestraron seis celulares, dos pendrives, una notebook, 29 discos, una cámara y cinco archivos de memoria. Encontraron imágenes sexuales creadas con IA de mujeres adultas y menores de edad. También identificaron videos e imágenes de pornografía infantil de niños desconocidos. A pesar de que identificaron más de 48.000 imágenes en los dispositivos, el hombre no fue detenido y, junto a su mujer y su hija pequeña, se mudaron a Roldán, una localidad aledaña. Hasta hoy viven impunes.
El vacío legal y la falta de regulación de las plataformas
La creación de deepfakes porno es un fenómeno que creció de manera exorbitante desde fines de la pandemia. Sin embargo, la mayoría de los gobiernos del mundo carecen de regulaciones o leyes que permitan controlar y penalizar la difusión del contenido sexual credo con imágenes de adultos.
Uno de los marcos regulatorios más grandes está en la Unión Europea, donde rige la Ley de Servicios Digitales. Por esa ley, el dueño de Telegram, el empresario ruso Pavel Durov, fue detenido en agosto de 2024 cuando aterrizó con su avión privado en París. Las autoridades judiciales lo acusaron, entre otras cosas, de presunta complicidad en el funcionamiento de una plataforma que permite transacciones ilícitas, imágenes de abuso sexual infantil, tráfico de drogas y fraude, y la negativa a compartir información con la justicia francesa sobre blanqueo de dinero y prestación de servicios cifrados a delincuentes.
A Durov lo liberaron bajo fianza y con la condición de que se presentara dos veces por semana ante el Palacio de Justicia. Durov rechazó las acusaciones.
Pero el problema no es centralmente Telegram, en todo caso es uno de los canales en lo que esto ocurre. Decenas de sitios web especializados en la creación de este tipo de contenido triunfan en internet, donde usuarios anónimos las usan para su producción en masa y su distribución. Hace tan solo dos meses, el sitio web Mrdeepfakes, conocido como la página de mayor reproducción de este contenido a nivel mundial, anunció que cerraría tras siete años en funcionamiento. Fue luego de perder un proveedor de servicios clave y que haya una fuerte militancia en contra del sitio.
Según un estudio de la Universidad de Stanford, para noviembre de 2023, la página era responsable de 43.000 deepfakes sexuales de 3800 individuos. El 95,3% eran mujeres. Otros sitios continúan triunfando, muchas veces utilizados por los usuarios para la “pornovenganza”, amenazas, entre otros. Luego comercializan ese contenido en la dark web.
Las deepfakes porno no están penalizadas hoy en día en la Argentina. Este fenómeno existe hace varios años y hay una ardua batalla encabezada por víctimas, abogados y ONGs para que este accionar sea incluido como un delito en el Código Penal, en particular en su artículo 128, que actualmente penaliza a quienes produzcan, publiquen o distribuyan imágenes pornográficas de menores de edad.
“El fundamento principal para su inclusión es que los pedófilos usan materiales creados artificialmente de niños llevando a cabo actividades sexuales para seducir a otros niños de ser abusados y naturalizarlo. Es un método de captación”, señaló la encargada de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas de la ciudad de Buenos Aires, Daniela Dupuy.
Según la fiscal, esto facilita la constante circulación de este tipo de material: “En el Ministerio Público Fiscal ingresaron 124.000 casos de material de niños, niñas y adolescentes reales en 2024, que son 300 o 400 casos por día. Si a eso se suma la facilidad de estas fotos o videos, esta cantidad va a ir aumentando y provoca, lejos de desalentar a los pedófilos, a que siga pidiendo material de inteligencia artificial”.
Con el desarrollo de la IA, estas imágenes hiperrealistas son cada vez más difíciles de detectar como falsas, incluso pericialmente. El problema no es solo el vacío legal, sino que este contenido es colgado en plataformas y redes sociales donde no hay regulación. Una vez que las imágenes son difundidas en gran escala, éstas quedan para siempre en manos de los usuarios.
“Yo puedo pedirle a la plataforma que baje el contenido, pero el problema es que una o varias personas pueden haber bajado el archivo y volver a subirlo a las redes. Esto es la victimización latente, terciaria, porque la víctima no solo sufre por la comisión del delito, sino por su entorno. Le impacta en lo social, familiar, escolar (si es menor). Y vive con temor”, explicó Dupuy.
Recientemente, la Cámara de Apelaciones de Zárate-Campana emitió un fallo histórico: consideró que el artículo 128 del Código Penal comprende representaciones generadas o modificadas por inteligencia artificial de niños, aun cuando no haya víctimas reales. Es la primera vez que ocurre en el país.
Sin embargo, no hay legislación vigente que incluya a los adultos afectados por este fenómeno. Y persiste el conflicto con las plataformas. “No hay una regulación en la Argentina que las obligue a cumplir con los pedidos administrativos por parte de las usuarias [de eliminar los deepfakes]. Esto genera mucha resistencia en las grandes plataformas, que tienen mucho poder. Hace 15 años que no podemos legislar sobre la difusión no consentida de material íntimo y se caen todos los proyectos que se presentan”, reclamó Florencia Zerdá, abogada y fundadora de GENTIC, una organización que promueve el activismo contra la ciberviolencia de género.
En grandes compañías como Meta existen políticas para denunciar a cuentas que se encargan de la sextorsión o que suben contenido sexual no consentido, con un foco puesto principalmente en menores de edad. Sin embargo, una vez que las imágenes fueron publicadas, nada garantiza que vayan a ser eliminadas rápidamente. Algunos pedidos pueden tardar días, semanas, o directamente nunca resolverse.
La diputada Mónica Macha, una de las principales impulsoras de la tipificación de las deepfakes sexuales en el Código Penal, remarcó que el diálogo con las plataformas “no es fluido”.
Un click para arruinar una vida
“Tenemos miedo de todo. En septiembre se cumplen dos años de lo que pasó y estamos remando contra la corriente”, lamentó Nilda. Ella, Eli y otras cuatro mujeres se encuentran como querellantes en la denuncia que realizaron en la fiscalía de San Lorenzo. El resto de las víctimas decidió no involucrarse debido al fuerte impacto que tuvo en sus vidas la difusión de las deepfakes.
Depresión, ataques de pánico, separaciones de pareja y cambios en sus trabajos son los principales conflictos que afectan a quienes fueron expuestas por este vecino de San Jerónimo Sud. Hasta el día de hoy, las persigue el miedo de la revictimización: que quienes descargaron esas imágenes en sus celulares puedan volver a publicarlas. “No sabemos quiénes más están detrás de esto”, afirmó Eli.
“Yo estoy acá sentada y no sé si hay alguien en otro punto del país viendo las fotos”, sostuvo Nilda. Las deepfakes, además, incluían el nombre y apellido de las mujeres que aparecían. “Estaban nuestros nombres, nuestros rostros… algunos videos parecían reales. Te los quedas mirando y… parezco yo, pero no lo soy”, señaló. Eli agregó: “Cuando vas a una juntada en cualquier lugar y decís que sos de San Jerónimo y reconocen al pueblo, te paralizas. El primer pensamiento es que saben sobre las fotos”.
Una vez que las víctimas tuvieron acceso a las imágenes encontradas en el teléfono del hombre, notaron que él no solo robaba imágenes de sus redes sociales, sino que también les sacaba fotos a sus víctimas desde una verdulería que era de su propiedad y donde trabajaba con su mujer. También lo hacía en el taller comunal a donde enviaban a su hija.
“Yo fui compañera desde preescolar con él. Y vecinos. Si vos me hubieses preguntado, ¿lo creías capaz de eso? Te hubiese dicho que no”, masculló Eli.
Desde ese momento, sus vidas cambiaron por completo. Eli, dueña de un estudio de pilates, dejó de publicar fotos de su trabajo, ya que luego eran usadas por el hombre para crear otras imágenes donde las posiciones deportivas se convertían en poses sexuales.
“Me limitó un montón a nivel laboral. Antes siempre hacíamos videos con las alumnas… eso se terminó. Dejé de tomar hombres en mi estudio. A mis padres hasta el día de hoy les cuesta horrores que su hija y su nieta estén… es terrible”. Durante un año, la familia de Eli la acompañó con medidas de seguridad: su padre la vigilaba cuando salía de trabajar y su esposo la esperaba afuera de la casa cuando llegaba. Eli, además, pasó más de seis meses sin publicar nada en redes sociales.
Esto también modificó la forma en la que la percibían socialmente. Varios hombres del pueblo se encontraban en el grupo de Telegram donde se difundían las imágenes. “A mi esposo lo llamaron para decirle, ‘che, ¿podemos ver la foto?’. Está ese morbo”, contó Eli.
Nilda sufrió también con su pareja: “Me afectó mucho la intimidad al punto de separarme. La pasé muy mal. Me trajo daños físicos. Cada vez que hablo de este tema, se me brota la piel. Nadie sabe cómo ayudarte y nosotras no sabíamos qué hacer”, recordó. “Te sentís sola. Y querés alzar la voz y del otro lado no hay nadie para escucharte”.
Ante la inexistencia de una tipificación en el Código Penal de este delito, las víctimas de San Jerónimo Sud debieron recurrir a una denuncia por injurias. “No puede ser que no haya una ley que proteja a las mujeres. Porque al final se termina protegiendo a la violencia”, sumó Eli.
Juliana Tagliati, abogada de las víctimas e integrante del Centro de Asistencia Judicial, sostuvo que la normativa actual deja a las víctimas “en la incertidumbre”. “Los abogados tenemos que ver en qué delito incluirlo. Tenemos que pensar de manera muy artesanal y arriesgada”, señaló. Y agregó: “Los daños son tales que queda la duda de si eran ellas o no a nivel reputación. Una vez que se instala, es muy difícil de probar que las fotos son montadas y es muy difícil reparar el daño frente a esta violencia de la cual sus víctimas son principalmente mujeres”.
Las posibles soluciones
Una serie de proyectos se presentaron hasta el momento en el Congreso de la Nación para conseguir la tipificación de estos accionares bajo el artículo 128 del Código Penal. GENTIC y la organización Ley Olimpia -que luchó porque la violencia digital sea considerada un delito en base a la experiencia de Olimpia Coral Melo, una activista mexicana que fue víctima de la difusión no consentida de un video íntimo- son algunos de sus principales impulsores.
“La Ley Olimpia en Argentina planteó la incorporación de la violencia digital como una forma de violencia a las mujeres y diversidades en la Ley 26.485. Es el reconocimiento de un tipo de violencia nuevo, y mostró la necesidad de invertir y tener un presupuesto para políticas de prevención, asistencia y acompañamiento a víctimas”, explicó la diputada Mónica Macha, una de las principales impulsoras de la Ley Olimpia, ya sancionada en el país.
Ahora, Macha y diferentes organizaciones luchan por el tratamiento y sanción de la Ley Belén, que busca que la violencia digital se incorpore en el Código Penal. “Plantea además que el responsable es el que sube el material, pero también el que lo viraliza”, analizó. Allí se incluye la creación y difusión de imágenes sexuales creadas con IA. Y aunque se aprobara, todavía queda mucho trabajo. “Puede llevar años construir esa consciencia de lo nocivas que pueden resultar estas conductas, que tienen que tratarse en la educación y en políticas públicas. La sociedad tiene que despertar y hacer un click”, cerró la abogada Florencia Zerdá.