“Mejor prevenir que curar”, refiere el dicho popular para significar que, aunque un remedio (una solución, decisión o acción a tiempo) pueda resultar incómodo o costoso, es preferible soportarlo antes que sufrir las consecuencias de no haber hecho nada (la enfermedad).
El proverbio se aplica a las deepfakes, que podrían socavar la transparencia del proceso electoral de octubre, con la consecuente afectación al Estado de Derecho, salvo que la autoridad correspondiente tome las medidas necesarias para evitar el daño que pudiere generarse en la credibilidad de ese proceso, esto es, prevenga una grave enfermedad para el resultado electoral.
Recordemos que la tecnología deepfake supone la utilización de una técnica de inteligencia artificial generativa (IAG) que permite editar videos falsos mediante la clonación de la imagen y la voz de personas que aparentemente son reales, aunque no lo son. Se trata de crear “datos sintéticos”: datos que parecen reales pero que son falsos, al punto de que es imposible distinguir, a simple vista, lo verdadero de lo apócrifo. Esta tecnología ha evolucionado (y lo sigue haciendo) de modo que, en breve, no podremos distinguir, a ciencia cierta, si estamos en presencia de una situación fáctica real o una absoluta mentira; nada más y nada menos.
La técnica fue usada en casos de repercusión pública, como la supuesta imagen del papa Francisco vestido con una campera blanca de Balenciaga, o la fotografía del arresto del presidente Donald Trump por parte de las autoridades estadounidenses. Ambas imágenes eran falsas, aunque muchos las tomamos por verdaderas; un engaño de película.
Dejando de lado estas imágenes “pícaras”, las deepfakes impactaron groseramente en distintos procesos electorales –Estados Unidos (2024), Eslovaquia (2023) e India (2023)– con gravedad institucional, al inducir a engaño a los ciudadanos para manipular el voto. En estos casos, las falsificaciones del audio (verbigracia, la supuesta voz del entonces presidente Biden instando a los demócratas a no votar en las elecciones primarias de 2024 en EE.UU.) afectaron la nitidez de los procesos electorales, cubriendo de un manto de oscuridad la decisión libre ciudadana.
Recordemos el caso de Taylor Swift, quien, luego del debate presidencial entre Trump y Kamala Harris, apoyó la candidatura de la demócrata. No obstante, a las pocas horas de haber manifestado su respaldo, comenzó a circular por la red X un video falso de Taylor en el que manifestaba que votaría por Trump, lo que fue inmediatamente desmentido por la estrella, aunque muchos seguidores se “tragaron el sapo”.
El escándalo de las deepfakes también llego a la Argentina cuando, en las últimas elecciones legislativas de CABA, circuló por redes sociales un supuesto video del expresidente Mauricio Macri en el que apoyaba la candidatura de Manuel Adorni (del partido libertario) y manifestaba haber tomado la decisión de dar de baja a la candidata de Pro Silvia Lospennato. El video falso, construido con IAG, se viralizó en X y generó confusión y situaciones equívocas, en el electorado y en el sentido de voto.
Este hecho fue denunciando ante el Tribunal Electoral, que ordenó a X eliminar y dar de baja el contenido apócrifo dentro de las dos horas de notificada, lo que no pudo realizarse en el plazo indicado, ya que X no tiene representación legal en la Argentina (no ha arraigado jurisdicción), con lo cual no se sabía a qué domicilio notificar. El video siguió disponible, en línea, por muchas horas.
Cabe insistir en la necesidad de que todas las redes sociales que explotan servicios de publicidad u otros en la Argentina mantengan una representación legal y arraiguen jurisdicción en el país, de manera que puedan ser notificadas de órdenes judiciales o llevadas a juicio. Nadie ha escuchado esta recomendación, lo que garantiza que, de producirse nuevas deepfakes electorales, se darán los mismos obstáculos procesales para eliminarlas o darlas de baja. Ante tamaños despropósitos que violentan el sistema democrático y la transparencia del proceso electoral, ¿qué propuestas de solución se ensayan en el nivel global? ¿Cómo estamos parados en la Argentina? La respuesta ofrece alternativas técnicas que pasan por mecanismos de moderación de contenido (mediante personas físicas o algoritmos de reconocimiento de contenido falso), etiquetado de contenidos falsos o marcas de agua que los identifiquen. Hasta hoy, ninguna de estas opciones parece efectiva.
Estas posibles soluciones técnicas deben complementarse con el dictado de una legislación especial que prevenga y sancione la creación y difusión de deepfakes que alteren la identidad de las personas o afecten derechos colectivos, como en el caso de los procesos electorales. En EE.UU. rige desde el 19 de mayo la Take it down Act Bill, que sanciona con penas de prisión la difusión (o amenaza de publicación) de imágenes íntimas sin consentimiento y deepfakes creadas con IAG, y establece un mecanismo notice and take down por el cual las redes sociales deben eliminar contenido falso dentro de las 48 horas de notificadas de su existencia, bajo pena de multa o proceso de práctica desleal ante la autoridad de control.
En la Unión Europea, si bien la Digital Services Act (ley de servicios digitales vigente) establece obligaciones generales de moderación de contenido, aún no regula específicamente las deepfakes. Sin perjuicio de eso, la “Directiva sobre violencia contra la mujer”, vigente en Europa, tipifica como delito la difusión de deepfakes sexuales no consentidos cuando el contenido manipulado (imagen o voz) parece auténtico y se difunde sin consentimiento de la víctima, y establece penas de hasta tres años de prisión por la creación/difusión y hasta dos años de prisión por la tenencia de material apócrifo; establece asimismo la obligación de las plataformas digitales de eliminar contenido falso –sin demora justificada– bajo pena de multa y/o suspensión de su actividad local.
En la Argentina no contamos con una norma especial que tipifique la creación y/o difusión de imágenes falsas o deepfakes, aunque han adquirido relevancia, en el ámbito privado y judicial, la existencia de videos falsos con desnudos (nuds) que involucran a adolescentes y menores de edad. En este sentido, el 21 de mayo, el Juzgado de Familia, Niñez y Adolescencia de Paso de los Libres (Corrientes) dictó un interesante fallo en el que ordenó al Ente Nacional de Comunicaciones (Enacom) adoptar las medidas necesarias para que se proceda a bloquear, en territorio argentino, el acceso al sitio web (app) “undressHer.up”, que permite crear desnudos falsos.
En este caso concreto, una adolescente fue víctima de la creación de imágenes falsas sintéticas de desnudez con su rostro en cuerpos que no le pertenecían, habiéndose utilizado para ello la app mencionada, que facilitaba eliminar digitalmente la ropa de la joven y complementar su imagen con desnudos apócrifos que, lógicamente, conllevan un claro supuesto de violencia digital.
No obstante la carencia de una legislación específica, en octubre de 2024 el Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires (MPF) promovió una demanda colectiva contra el gobierno de la ciudad de Buenos Aires (GCBA) con objeto de obtener una sentencia que ordenara al gobierno local adoptar las acciones necesarias para bloquear, en todas las redes de acceso a internet que administra, el acceso a páginas web que prestan el servicio de clonación de voz y rostro, como asimismo promueva una campaña masiva de concientización sobre los riesgos y consecuencias de la utilización de esos sistemas de IAG.
El 25 de marzo último se arribó a un acuerdo que puso fin a la controversia, por el cual el GCBA se comprometió a adoptar medidas concretas para prevenir y evitar el uso no consentido de datos biométricos –imagen o voz– en sistemas de IAG, con especial atención a grupos vulnerables y agentes estatales, las que, supuestamente, se encontrarían en proceso de ejecución.
Los casos mencionados permiten concluir la necesidad de obtener un compromiso real y efectivo de todos los jugadores vinculados a una tecnología que permite socavar procesos electorales democráticos, junto con la necesaria intervención de los legisladores en el establecimiento de reglas de juego claras para la industria de la IAG, de la mano de campañas de concientización para grandes y chicos.
Esperamos que las elecciones de octubre no se vean distorsionadas por la creación y difusión de deepfakes de candidatos y representantes ciudadanos que confundan a la población, y que haya acciones concretas de las autoridades, que limiten y sancionen este tipo de conductas a fin de evitar la existencia de un resultado electoral viciado en la voluntad ciudadana. Porque siempre es mejor “prevenir que curar”.
Abogado y consultor en derecho digital, privacidad y datos personales; director del programa de “Derecho al olvido y cleaning digital” de la UBA; profesor de Derecho UBA y Austral