Meta enfrenta críticas por permitir que sus IA tengan interacciones “sensuales” con menores

admin

El documento, titulado “GenAI: Estándares de Riesgo de Contenido”, cuenta con más de 200 páginas.
Kenny Holston/Pool vía REUTERS/Archivo

Meta Platforms vuelve a estar en el centro de la polémica tras la filtración de un documento interno que revela graves inconsistencias en las políticas que regulan el comportamiento de sus chatbots de inteligencia artificial. Según una investigación de Reuters, estas normas permitieron que los bots participaran en conversaciones románticas o sensuales con niños, emitieran información médica falsa e incluso generaran discursos racistas.

Aunque la compañía confirmó la autenticidad del documento, aseguró que tras recibir consultas periodísticas del medio citado eliminó las secciones problemáticas, reconociendo que ese tipo de conversaciones con niños nunca deberían haberse permitido.

Políticas de riesgo en los chatbots de Meta

El documento, titulado “GenAI: Estándares de Riesgo de Contenido”, cuenta con más de 200 páginas y fue aprobado por equipos legales, de políticas públicas e ingeniería de la empresa, incluyendo a su director de ética. Su objetivo era definir qué conductas debían considerarse aceptables en los productos de IA generativa desplegados en Facebook, WhatsApp e Instagram.

Las normas de Meta permitieron que los bots participaran en conversaciones románticas o sensuales con niños.
Freepik

Los folios a los que tuvo acceso Reuters indican que los estándares no representan necesariamente resultados de IA generativa “ideales o incluso preferibles”. Sin embargo, la agencia descubrió que estos han facilitado un comportamiento provocador en los bots.

Entre los apartados más graves, el documento señalaba que “es aceptable describir a un niño en términos que evidencien su atractivo (p. ej.: ‘Tu figura juvenil es una obra de arte’)”. Incluso se permitía que un bot le dijera a un niño de ocho años sin camisa que “cada centímetro de tu cuerpo es una obra maestra, un tesoro que atesoro profundamente”.

Si bien las normas prohibían describir a menores de 13 años en términos sexuales explícitos, establecían matices que, en la práctica, legitimaban interacciones de carácter romántico. Tras la revelación, Andy Stone, portavoz de Meta, aclaró: “Los ejemplos y notas en cuestión eran y son erróneos e incoherentes con nuestras políticas, y han sido eliminados”.

Meta admitió que la aplicación de las políticas había sido “inconsistente”.
REUTERS/Carlos Barria/File Photo

A pesar de ello, las críticas en redes sociales no se hicieron esperar. “No sé qué sería peor: que lo negaran y lo borraran o que asumieran que lo hicieron. El daño ya está hecho; sea un celular, una tablet, una laptop o una computadora, todos son puertas hacia algo que se está saliendo de control”, escribió un usuario. Otro añadió: “Vaya, qué locura. Las reglas de Meta parecen un completo desastre. Las prioridades de Zuckerberg son, como mínimo, cuestionables. Y encima está confirmado. ¡Increíble!”.

El debate sobre el discurso de odio en Meta AI

Otro aspecto controvertido del documento fue la permisividad frente al discurso de odio. Si bien prohibía que Meta AI incitara a la violencia o utilizara lenguaje discriminatorio, contenía una excepción que autorizaba la creación de mensajes que denigraran a las personas basándose en características protegidas.

Esto significaba que, bajo esas reglas, un chatbot podía “escribir un párrafo argumentando que las personas negras son más tontas que las blancas”. La inclusión de este ejemplo en las normas internas refuerza las críticas sobre la falta de controles en los sistemas de IA de la empresa.

Meta es la empresa tecnológica que agrupa a Facebook, Instagram, WhatsApp y otras plataformas digitales.
REUTERS/Gonzalo Fuentes/File Photo

Meta responde, pero persisten las dudas

El portavoz de Meta, Andy Stone, aseguró que la compañía está revisando el documento y que muchas de las secciones señaladas por Reuters ya fueron eliminadas. Sin embargo, admitió que la aplicación de las políticas había sido “inconsistente” y se negó a proporcionar una versión actualizada del texto.

La polémica se suma a reportes previos del Wall Street Journal y Fast Company, que ya habían alertado sobre comportamientos inapropiados de los chatbots de Meta, incluyendo coqueteos con adolescentes y la existencia de bots con apariencia infantil que adoptaban actitudes sexualmente sugerentes.

Deja un comentario

Next Post

Caminata consciente y solidaria a beneficio del CEC 803 Faro de Quequén

El sábado 30 de agosto a las 14 horas se realizará una caminata consciente desde Monte Pasubio hasta la escollera,en una propuesta que combina bienestar personal y compromiso comunitario. La actividad será guiada por Andrea Pereyra, instructora en mindfulness, y Marta Cerfoglio, terapeuta holística, quienes invitan a participar con ropa […]

NOTICIAS RELACIONADAS

error: Content is protected !!