LeBron James envió una carta documento a una empresa tecnológica que permitía generar contenidos basados en su imagen sin autorización usando inteligencia artificial, según reveló el sitio especializado 404 Media. El reclamo legal fue dirigido a Interlink AI, una plataforma alojada en Discord que ofrecía herramientas para crear videos hiperrealistas de celebridades —incluidos James, Stephen Curry y otros jugadores de la NBA— con escenas que iban desde lo absurdo hasta lo ofensivo, como representaciones del basquetbolista embarazado o en contextos de abuso en prisión.
Se trata de uno de los primeros casos en los que una figura pública de alto perfil toma medidas legales frente a la circulación de imágenes no consensuadas generadas por inteligencia artificial. Hasta ahora, gran parte de las preocupaciones legales se centraban en contenidos explícitos. Por ejemplo, cuando imágenes inapropiadas de Taylor Swift lograron viralizarse en redes sociales. Pero LeBron considera que la línea de lo inadmisible va más allá: el límite no se dibuja solo en lo sexual, sino en la representación con fines maliciosos de una persona.
Los desarrolladores detrás de Interlink AI operaban sobre una plataforma llamada FlickUp, cuyo fundador, Jason Stacks, confirmó a 404 Media que fue el equipo legal de James —el estudio Grubman Shire Meiselas & Sacks— quien envió la carta. “Recibimos la notificación y en menos de 30 minutos eliminamos todos los modelos realistas de personas del sistema”, dijo Stacks. “La IA generativa es hoy el ‘lejano oeste’ en materia de propiedad intelectual, pero queremos estar del lado correcto del cambio”.
En su canal de Discord, Interlink llegó a publicar tutoriales paso a paso para enseñar a los usuarios cómo generar videos con la apariencia de LeBron James. Uno de los más virales mostraba al jugador diciendo: “Curry, ven rápido, mi bebé está naciendo”, en una secuencia que simulaba un embarazo. Otros videos imaginaban a James como una persona en situación de calle o con poses sexualizadas. Según 404 Media, algunos de estos contenidos lograron millones de vistas en Instagram antes de ser eliminados por la plataforma.
El caso no solo expone el vacío legal que rodea la generación de imágenes con IA, sino también la falta de mecanismos de control efectivos. “Generan daño tanto a nivel individual como colectivo. Es necesario implementar medidas para mitigar su efecto”, dijo a LA NACION Antonella Stringhini, abogada especialista en inteligencia artificial. Meta, dueña de Instagram, se negó a comentar si recibió también una carta legal por parte de James, aunque al menos tres cuentas que difundían estos videos fueron dadas de baja.
La popularidad de los modelos de IA basados en celebridades como Elon Musk, MrBeast o Kanye West —además de estrellas del deporte— refleja una demanda creciente de este tipo de contenidos, a menudo creados sin consentimiento y con fines virales o de monetización. Interlink incluso animaba a sus usuarios a aprovechar estas figuras públicas como recurso creativo: “Estos modelos les dan más flexibilidad a la hora de crear historias virales”, escribieron los moderadores antes del escándalo.
Un ejemplo clásico son los deepfakes, con videos en los que aparece un falso Elon Musk recomendando invertir en una moneda cripto poco conocida.
Aunque la empresa no compartió el contenido completo de la carta, Stacks publicó en su cuenta de Instagram fragmentos impresos del documento legal y bromeó, en tono nervioso: “Estoy jodido. Es una carta de uno de los jugadores más grandes de la historia”. Su publicación funciona como síntoma de una tendencia: mientras la IA empuja los límites de lo posible, las figuras públicas empiezan a responder legalmente, abriendo el debate sobre la protección del derecho a la imagen en la era digital.
En Argentina, medidas para condenar los deepfakes se van haciendo presentes. Por ejemplo, hace unas semanas la Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana, resolvió que el artículo 128 del Código Penal argentino también alcanza y sanciona las representaciones de abuso sexual infantil generadas o alteradas mediante inteligencia artificial, aún cuando no haya víctimas reales identificadas. El caso tuvo origen en una denuncia contra un hombre acusado de publicar y distribuir material sexual que involucraba a menores de 18 años y si bien sienta un precdente clave, todavía no es una regulación formal.
“Queda claro que la solución más adecuada no pasa por ampliar continuamente el sentido de normas preexistentes”, explicó a LA NACION Lucas Barreiro, abogado especializado en derechos digitales y privacidad de datos. “Creo que lo que hay que hacer es actualizar el Código Penal para penalizar expresamente la generación sintética de representaciones sexuales de menores, sea cual sea la tecnología utilizada para su producción”, aseguró. En este sentido confirmó que hay diversos proyectos legislativos presentados en esta línea como, por ejemplo, el 3955-D-2024 de diputado Juan Fernando Brugge.