Laura Ellis lidera desde la BBC uno de los laboratorios más activos en la exploración del futuro tecnológico de los medios. Su tarea implica no solo anticipar cambios, sino garantizar que los valores fundamentales del periodismo público no se diluyan en la tormenta de innovación.
Desde el uso pionero de automatización en la redacción hasta la participación en organismos globales como el C2PA (Coalición para la Procedencia y Autenticidad del Contenido, un estándar técnico abierto que permite a los creadores, editores y consumidores verificar la procedencia y las ediciones de contenido digital), Ellis y su equipo buscan el equilibrio entre oportunidad y riesgo, eficiencia y ética, escala y humanidad.
En una entrevista con LA NACION, la ejecutiva de medios reflexiona sobre los límites del periodismo robotizado, la amenaza de los “contenidos impostores” y el rol de la BBC como contrapeso frente al avance desregulado de plataformas y algoritmos.
Su mensaje es claro: hay que poner a las audiencias primero, ser transparentes, y no olvidar nunca que, detrás de una buena historia, debe seguir habiendo un ser humano.
– En su rol de Directora de Prospectiva Tecnológica en la BBC, ¿cómo integra principios de ética aplicada en las decisiones sobre tecnologías emergentes como la IA generativa?
– Nos apoyamos en nuestra larga trayectoria de diseño ético y compromiso con la universalidad. Contamos con equipos muy bien informados y una gran experiencia acumulada. Además, buscamos de manera proactiva vincularnos con otros actores de la industria para compartir problemas y posibles soluciones. En todo momento nos guían nuestros valores fundamentales y el compromiso con nuestra audiencia. Nos tomamos muy en serio la necesidad de aprovechar las tendencias que aportan valor, pero adoptándolas de manera coherente con nuestros principios.
– Ha hablado del equilibrio entre riesgos y oportunidades al adoptar nuevas tecnologías. ¿Podría dar un ejemplo concreto en el contexto de automatización de contenidos en su organización?
– Sí. Cuando empezamos a usar periodismo automatizado, creamos 20 versiones localizadas de una misma nota usando formato contextual con Arria -una plataforma de IA que transforma datos estructurados en lenguaje natural-. Sabíamos que podían filtrarse errores, así que revisamos minuciosamente la historia “semilla” y la planilla de datos, y luego hicimos una lectura ligera de las 20 versiones antes de publicarlas. Así, logramos escalar nuestra producción sin comprometer la calidad ni nuestra reputación.
– ¿Cómo influyen los algoritmos de personalización en la experiencia del usuario de la BBC y cómo gestionan posibles sesgos o efectos negativos?
– Tenemos procesos establecidos para asegurarnos de que el uso de algoritmos esté cuidadosamente monitoreado.
—-
La compañía de medios británica cuenta con una sección en su sitio web en la que pone a disposición de la audiencia una guía para entender de qué manera se trabajan los proyectos de personalización en diferentes formatos.
La BBC personaliza su contenido en audio usando la información de la cuenta de los usuarios en sus plataformas como iPlayer, Sounds, News, Sport, Weather o Bitesize, es decir servicios que ofrecen sugerencias basadas en lo que ya se ve, se escucha o se lee. Así, en iPlayer el sistema recuerda hasta dónde llegó el usuario en cada episodio para que se pueda retomar exactamente dónde se dejó. En Sport, es posible personalizar un “My Sport” (Mi Deporte) eligiendo hasta 300 temas deportivos, recibir alertas y mantener ese perfil sincronizado en todos los dispositivos.
Nos tomamos muy en serio la necesidad de aprovechar las tendencias que aportan valor, pero adoptándolas de manera coherente con nuestros principios
La cadena británica también aplica personalización en otras secciones: en News sugieren artículos basados en el historial y en lo que leen usuarios con gustos similares (sin ocultar las noticias destacadas); en Weather, al marcar localidades favoritas, ofrecen pronósticos personalizados disponibles en todos los dispositivos; en la sección “For you” se agrupa contenido seleccionado automáticamente según la actividad, tendencias y lo popular en cada lector; y en su contenido infantil y educativo se pueden fijar temas o materias para verlos primero o retomar estudios personalizados según tu nivel escolar.
—-
– ¿Y qué procesos de gobernanza y transparencia utilizan para asegurar que la automatización de noticias no comprometa la integridad editorial?
– Aplicamos ciertas “reglas de negocio” a las noticias para asegurarnos, por ejemplo, de que las notas legales no queden mal posicionadas o asociadas inapropiadamente.
—-
La BBC asume un compromiso explícito con la transparencia en el uso de la IA, basándose en sus principios editoriales y sus BBC AI Principles. Parte fundamental de esta política es dejar claro cuándo, cómo y por qué se utiliza IA, tanto frente a las audiencias como dentro de la organización. La lógica es sencilla: si la IA genera o transforma contenido, hay que explicitarlo para preservar la confianza del público. Esto aplica especialmente en noticias, asuntos de actualidad o contenidos fácticos, donde la línea entre lo real y lo generado artificialmente puede volverse difusa.
Para lograr esa transparencia, establece dos tipos de fórmulas: la directa (como etiquetar una imagen como generada por IA) y la indirecta (como informar el uso de IA en los créditos del contenido o en los términos y condiciones del sitio). La divulgación directa es obligatoria cuando el uso de IA puede inducir a error o si se automatiza contenido sin supervisión humana. Por ejemplo, si se usa IA para anonimizar un rostro mediante face-swapping (el intercambio de rostros es una técnica que consiste en reemplazar digitalmente el rostro de una persona en una imagen o video por el de otra persona, utilizando IA) o para generar subtítulos automáticos en un podcast, debe informarse explícitamente.
En el caso específico de las noticias y contenidos informativos, la BBC prohíbe que la IA genere contenido directamente, salvo que se trate de contenidos previamente chequeados y verificados. Incluso en estos casos, si la IA tiene un impacto significativo -como traducir todo un artículo- se requiere consignarlo. Por el contrario, si solo se usó un software de transcripción para una conferencia de prensa como parte de una investigación, no hace falta mencionarlo. El medio del Reino Unido propone una fórmula clara para las menciones: indicar el formato del contenido, el rol del humano (incluida su supervisión), el rol de la IA y un enlace para más información. De esta manera, la BBC busca no solo proteger su integridad editorial, sino también construir una cultura de apertura y rendición de cuentas en torno a la automatización.
—-
– Con relación al aprendizaje automático (marchine learning), ¿qué tipo de modelos están utilizando para clasificar o recomendar contenidos y cómo se evalúa su precisión y equidad?
– No puedo responder esa parte por razones de confidencialidad comercial. Lo que sí puedo decir es que se evalúan mediante revisiones periódicas.
– ¿Cómo aborda la BBC el problema de la desinformación y los deepfakes en el ecosistema de medios, por ejemplo, a través de iniciativas como “Project Origin” -una iniciativa en colaboración con otras organizaciones, para autenticar contenido multimedia y garantizar su procedencia original a medida que circula online- o estándares como C2PA?
– Atacamos la desinformación con cuatro herramientas: detección de deepfakes (video, imagen o audio manipulado o generado artificialmente mediante IA, que puede mostrar a personas reales o ficticias realizando acciones o diciendo cosas que nunca hicieron o dijeron) o anomalías (en desarrollo en BBC R&D -investigación y desarrollo-), colaboración con redacciones, alfabetización mediática y trazabilidad del contenido. Los equipos técnicos trabajamos muy cerca del área de noticias y otros sectores para enfocar bien nuestros esfuerzos.
– Desde tu experiencia, ¿deberían plataformas como Google o Meta ser reguladas como editoras, y qué implicancias tiene esto para la BBC?
– No puedo responder eso -lo dejamos en manos de los reguladores-. Lo único que diría es que todos deberían priorizar los intereses de los usuarios y garantizar que el contenido que reciben sea seguro y preciso.
– ¿Cómo contribuye el equipo que lidera al desarrollo de normas internacionales o estándares técnicos en cuanto a procedencia de medios y verificación?
– Hacemos mucho trabajo participando en organismos de estandarización como el W3C. Tenemos representantes en el comité principal del C2PA y en varios subcomités. Dedicamos mucho tiempo a dialogar con partes interesadas y a fomentar la adopción de estándares.
– ¿Qué impacto ve en la calidad informativa cuando se combina personalización automática con contenido lineal tradicional?
– Creo que todavía no entendemos completamente ese impacto. La investigación con audiencias nos mostró que, aunque la personalización es valiosa, la gente también valora las experiencias compartidas. Tenemos que evitar que nuestro ecosistema informativo se contamine con “basura IA” o contenido impostor, como lo llamamos, por eso promovemos herramientas como C2PA.
– ¿Cómo gestiona la tensión entre la personalización para el engagement y el riesgo de creación de burbujas informativas?
– Tenemos que evitar los rabbit holes (espirales de contenido, una expresión que se usa para describir la experiencia de una búsqueda inicial que puede conducir a muchas más consumiendo mucho tiempo y desviando la atención) porque, como medio público, nuestros valores nos impiden fomentar patrones dañinos. Como no tenemos una necesidad primaria de obtener clics, podemos darnos el lujo de asumir riesgos y ofrecer contenidos diversos. Nos enorgullece brindar una experiencia rica, diversa y que invite a la reflexión.
Atacamos la desinformación con cuatro herramientas: detección de deepfakes o anomalías (en desarrollo en BBC R&D -investigación y desarrollo-), colaboración con redacciones, alfabetización mediática y trazabilidad del contenido
– La BBC fue pionera en crear newsrooms digitales end-to-end (redacciones 100% digitales). ¿Qué aprendizajes clave surgieron de esa transición, especialmente en términos de ética tecnológica?
– ¡Que siempre es más difícil ser el primero! Es mucho más fácil seguir rápidamente que abrir camino. En cuanto a la tecnología ética, el multiskilling puede ser difícil, y es clave cuidar mucho a quienes asumen nuevas responsabilidades.
– Cuando se habla de periodismo automatizado o periodismo robot, ¿qué límites y éticos consideran necesarios para mantener credibilidad y confianza?
– La transparencia es esencial. Y chequear es esencial para evitar las “alucinaciones”. Eso hace que escalar este tipo de contenido sea difícil. También necesitamos preservar la humanidad del periodismo: el valor único de una persona que experimenta algo y se lo transmite a otras.
– Pensando a futuro, ¿qué conversaciones cree que deberíamos tener con urgencia en los próximos cinco o 10 años sobre medios, tecnología y sociedad?
– Tenemos que preguntarle al público qué quiere de la IA, sin asumir ni permitir que IA discriminatoria o dañina los perjudique. Tenemos que hacer lo posible para elevar el nivel del discurso público, que hoy está peligrosamente polarizado, y dar a las personas mejores herramientas para navegar el ecosistema informativo.
¿Quién es Laura Ellis?
- Formación. Periodista, experta en tecnologías emergentes. Es graduada de la Universidad de Nottingham y tiene un Máster en Soluciones digitales y tecnológicas de la Universidad de Aston.
- Carrera. Después de casi 30 años en el periodismo, donde trabajó en equipos de noticias de la BBC en radio, TV y digital, lideró dos equipos regionales de noticias y actualidad. Fue clave en establecer la primera redacción digital integral del BBC. Actualmente es Head of Technology Forecasting, donde impulsa el aprovechamiento de tecnologías emergentes como la IA, el periodismo automatizado y personalizado, la ética tecnológica y la verificación.