Franco Piccato: “La mejor defensa contra la mentira viral es una ciudadanía informada”

admin

La desinformación impulsada por la inteligencia artificial se ha convertido en una amenaza significativa que afecta la confianza pública y la salud de las democracias. Franco Piccato, director ejecutivo de Chequeado, aborda estos desafíos en una entrevista con LA NACION y destaca cómo la IA permite la creación de contenido falso con una velocidad, volumen y realismo sin precedente. Esto va más allá de un simple tuit o artículo, incluyendo la fabricación de audios, imágenes y eventos que nunca ocurrieron, lo que hace cada vez más difícil distinguir lo real de lo manipulado. La consecuencia de esta situación es una profunda pérdida de confianza, ya que las personas comienzan a dudar de todo lo que ven y escuchan.

El periodista subraya que para enfrentar esta “tormenta que no para” se necesita una combinación de “inteligencia humana bien organizada”. Entre los antídotos que propone se encuentran la verificación rigurosa, la alfabetización mediática y un compromiso real por parte de las plataformas tecnológicas. En este sentido, la educación es fundamental para empoderar a la ciudadanía a pensar críticamente y a discernir la intención detrás de un contenido, en lugar de solo centrarse en si fue generado por IA.

Además, enfatiza que, si bien la inteligencia artificial representa un riesgo, también puede ser una aliada para el periodismo de verificación, siempre que se utilice con criterios claros y supervisión humana. Chequeado ha desarrollado herramientas basadas en IA para automatizar tareas repetitivas, permitiendo a los periodistas enfocarse en el análisis y la interpretación de contexto, lo que ninguna máquina puede hacer. Y concluye que, en un futuro dominado por estas tecnologías, la confianza se convertirá en el activo más valioso del periodismo, y esta se construirá a través de la transparencia, la rigurosidad y la capacidad de servir a las personas.

– ¿Cuál considera que es el mayor riesgo del uso de la inteligencia artificial para la producción de contenidos periodísticos en la era de la desinformación?

– El mayor riesgo de la IA es su capacidad para generar contenido falso con velocidad, volumen y realismo. Ya no se trata sólo de un tuit o un artículo malintencionado: hablamos de audios falsos, hechos que nunca ocurrieron, imágenes que simulan. Todo se puede fabricar en segundos. Y cuanto más avanza la tecnología, más difícil es distinguir lo real de lo manipulado. Eso genera pérdida de confianza, que es el problema de fondo. Si ya no podemos creer en lo que vemos o escuchamos, ¿en qué confiamos? Los actores que buscan desinformar por motivos políticos, económicos o simplemente para provocar caos encuentran en la IA una herramienta potente para confundir, polarizar o manipular. Y eso vuelve aún más desafiante una tarea básica del periodismo: verificar los hechos. Hoy, la verificación es una gran responsabilidad frente al desorden informativo en el que vivimos.

– Entonces las noticias falsas potenciadas por IA son ¿un problema de volumen, de velocidad, de credibilidad, o una peligrosa combinación?

– Es una combinación peligrosa. Las noticias falsas potenciadas por IA se producen en masa, viajan rápido y golpean la credibilidad. Es como enfrentar una tormenta que no para. Frente a eso, muchas personas empiezan a dudar de todo, incluso de su propia capacidad para distinguir lo verdadero de lo falso. El problema no es sólo técnico, sino también emocional y social. Cuando la mentira se vuelve más sofisticada, el daño se mide en confianza perdida. En Chequeado lo vemos todo el tiempo: audiencias cansadas, confundidas, con poca paciencia para discernir. Por eso, nuestro desafío, y el de todos los que trabajamos por la integridad de la información, es adaptarnos rápido y con responsabilidad. No alcanza con decir “esto es falso” en el momento indicado. Hay que explicar por qué, cómo se detectó y qué está en juego.

– ¿Cómo cambia el mapa de la desinformación en América Latina con la irrupción de tecnologías como ChatGPT o los generadores de imágenes y videos?

– La irrupción de tecnologías de IA generativa cambia por completo el mapa de la desinformación en América Latina. Ahora, los mensajes falsos no solo se producen más rápido, sino que pueden adaptarse con precisión quirúrgica a cada comunidad, aprovechando sistemas de recomendación y micro-targeting cada vez más afinados. La desinformación ya no es genérica: es personalizada, emocional y diseñada para explotar miedos y sesgos. Además, estamos frente a una desigualdad estructural. Las respuestas de los chatbots en español son menos precisas, los modelos entrenados en inglés entienden menos nuestro contexto y las plataformas moderan peor lo que circula en nuestra lengua. Eso deja a millones de personas más expuestas a caer en contenido engañoso. Otro factor silencioso es la circulación en servicios de mensajería privada como WhatsApp y Telegram, donde los audios reenviados y los videos fuera de contexto operan sin visibilidad, sin filtros y sin freno. Todo esto configura un ecosistema más dañino.

No creo en el tecno entusiasmo ingenuo, pero sí en usar la tecnología para el bien

– ¿Pero qué antídotos efectivos existen hoy para contrarrestar la desinformación amplificada por IA?

– No hay un único antídoto, pero sí hay una combinación que funciona: verificación rigurosa, alfabetización mediática, compromiso real de las plataformas y trabajo colaborativo entre distintos sectores. Frente a la desinformación amplificada por IA, respondemos con inteligencia humana bien organizada. Cuando una persona se cruza con una mentira, busca a quién creerle. Por eso es clave que existan medios confiables, verificadores independientes, y un ecosistema libre y plural que no esté capturado por intereses. También hay que formar a las audiencias: enseñar en las escuelas cómo leer críticamente, cómo identificar trampas narrativas, cómo entender la intención detrás de un contenido. No para desconfiar de todo, sino para pensar mejor. El pre-bunking, que implica anticiparse con publicaciones preventivas a los engaños más comunes, ya se está usando con buenos resultados. Esto no es suficiente si las plataformas no hacen su parte. Para investigar campañas sistemáticas de desinformación, necesitamos saber quién paga por qué, a quién se dirige un anuncio, cuánto se gasta y con qué objetivos. Y sobre todo, que las empresas tecnológicas cumplan con sus compromisos: si un contenido generado por IA puede interferir en elecciones, dañar la salud o facilitar estafas, tiene que ser mitigado. Sin transparencia, el problema va a seguir creciendo. La clave está en no trabajar solos. Esta es una pelea que se gana en red.

Franco Piccato y parte del equipo de Chequeado

– ¿Y hasta qué punto la educación y capacitación pueden servir como un freno frente a la viralización de contenidos falsos?

– La educación es uno de los frenos más potentes frente a la desinformación, siempre que se adapte al ritmo de la tecnología y al contexto real de quienes consumen información todos los días. Es importante aprender a pensar críticamente, a entender cuándo y por qué alguien quiere engañarte. Muchas veces nos quedamos en la pregunta equivocada: “¿Esto fue generado por IA?”. Pero la pregunta central es otra: “¿Esto es confiable?”. Una imagen puede ser real, y aun así ser usada para manipular. Por eso, enseñar a leer contexto, propósito y patrones de engaño es más útil que enseñar solo a detectar un video manipulado. Hacen falta más docentes, escuelas y universidades trabajando este tema, no como algo aislado sino como parte de la formación ciudadana. En Chequeado lo hacemos todos los días, con proyectos educativos, talleres, alianzas con plataformas y organizaciones internacionales. Es una forma concreta de ayudar a las personas a tomar decisiones informadas. Porque la mejor defensa contra la mentira viral es una ciudadanía informada y entrenada para no tragarse cualquier cosa.

– ¿Qué aprendizajes de la experiencia de Chequeado podrían servir de modelo para otros medios y organizaciones en la región?

– Cumplimos 15 años y, mirando para atrás, hay aprendizajes que pueden servir a otros medios y organizaciones de la región. Empezamos como el primer sitio de fact-checking en el Sur Global y hoy somos una organización que combina periodismo, tecnología cívica y educación. Todo lo que hacemos responde a una misma misión: ayudar a que las personas tomen decisiones informadas. Una de las lecciones más importantes es que se puede innovar desde el sur global. Creamos herramientas como Chequeabot, El Desgrabador o El Chequeador que hoy usan redacciones de toda América Latina. No teníamos un roadmap perfecto, aunque sí una escucha atenta y ganas de probar. En vez de adaptarnos a las reglas de otros, nos animamos a crear las nuestras. Eso nos permitió crecer y seguir fieles a nuestro propósito. También aprendimos que colaborar rinde más que competir. Impulsamos redes como Reverso y LatamChequea, y cofundamos Factchequeado para luchar contra la desinformación en español que afecta a comunidades latinas en Estados Unidos, en alianza con Maldita.es de España. En Argentina coordinamos la Red de Periodismo Innovador y a nivel regional la Red latinoamericana de formadores en fact checking. América Latina es una región desigual y sobrecargada de desinformación, ningún medio puede trabajar aislado. Cuando compartimos aprendizajes, tecnología y recursos, el impacto se multiplica. Otro punto clave es la transparencia. No como gesto simbólico, sino como rutina diaria. Contamos cómo nos financiamos, cómo chequeamos, cómo decidimos. Eso construye confianza con las audiencias y protege nuestra independencia. Misión clara, método, trabajo en red y apostar por la transparencia nos permitió construir un proyecto global con impacto real. Y si puede servir de inspiración para otros, ¡mejor todavía!

Si el periodismo no sirve a las personas, la tecnología no alcanzará para salvarlo

– ¿Cómo se adapta el trabajo de un fact-checker cuando la desinformación ya no es solo textual, sino también audiovisual y generada sintéticamente?

– El trabajo del periodismo de verificación cambió por completo. Ya no se trata sólo de leer y contrastar un texto. Hoy verificamos audios, videos, imágenes y contenido generado por IA, muchas veces diseñado para engañar desde el formato mismo. Lo falso se disfraza de verdad. Por eso usamos herramientas específicas, análisis de metadatos, búsqueda inversa y modelos que nos ayudan a detectar patrones. Y más allá de la tecnología, también tuvimos que entrenar nuevas habilidades y aliarnos con expertos de otras disciplinas. La otra parte, igual de importante, es explicar cómo trabajamos. Qué verificamos, con qué herramientas, hasta dónde llegamos. La desinformación audiovisual apela a las emociones y muchas veces genera más impacto que una mentira textual. Por eso, decir “esto es falso” es sólo una parte del proceso de verificación. Hay que reconstruir la confianza paso a paso, con procesos claros, lenguaje accesible y decisiones editoriales que puedan sostenerse públicamente. Hoy el trabajo es más complejo, pero también más necesario. Requiere combinar periodismo, tecnología y sentido crítico. Como siempre, pero sumando nuevas herramientas, nuevos formatos y nuevas amenazas.

– ¿La IA puede ser una herramienta aliada de la verificación o el riesgo supera a la oportunidad?

– Ya contamos con evidencia que nos muestra que la IA puede ser una gran aliada, siempre que se use con criterios claros, supervisión humana y reglas transparentes. No es una dicotomía entre oportunidad o riesgo: es un equilibrio que hay que construir todo el tiempo.

Franco Piccato tiene una amplia experiencia tanto en plataformas digitales como en medios de comunicación de la región

– ¿Qué avances tecnológicos aplican hoy en Chequeado para automatizar parte del proceso de verificación sin perder rigurosidad?

– En Chequeado desarrollamos el Chequeabot, que asiste en la detección de frases chequeables; y El Desgrabador, que transcribe y resume audios en segundos. Todo eso nos permite responder más rápido, con más precisión y en más formatos. Creamos un Panel de Tendencias en tiempo real que avisa sobre los principales temas de la conversación pública en varios países. Ya estamos usando IA para mejorar procesos y desarrollamos un Asistente de Redacción que permite automatizar tareas comunes, desde encontrar frases chequeables o redactar posteos en redes, hasta corregir estilo, resumir textos o redactar solicitudes de financiamiento. Todo desde el navegador, con una interfaz fácil de usar. Este tipo de herramientas nos permiten ganar tiempo, escalar impacto y liberar al equipo para que se enfoque en lo que no puede hacer una máquina: interpretar contexto, decidir qué es relevante y cómo contarlo. Ahora, también somos conscientes de los riesgos. Hay modelos que alucinan, otros que amplifican sesgos, y opacidad en los sistemas que dificulta auditar cómo se entrenan o con qué datos. En un entorno así, organizaciones como Chequeado tienen un rol clave: no solo para verificar contenidos generados con IA, sino también para exigir transparencia, trazabilidad y responsabilidad en el desarrollo de estas tecnologías. En lo personal, no creo en el tecno entusiasmo ingenuo. Tampoco en el rechazo automático. Apostamos a entender la tecnología, adaptarla a nuestras necesidades y usarla para el bien.

– ¿Qué lugar ocupa la confianza en el periodismo en un contexto donde ya no podemos creer ni en lo que vemos ni en lo que escuchamos?

– La confianza es el corazón del periodismo. La paradoja es que nunca fue tan difícil ni tan necesario generar confianza. Cuando ya no podemos confiar en lo que vemos o escuchamos, el periodismo tiene que ser una brújula, no otra fuente más de ruido. En Chequeado sabemos que la confianza no se pide, se construye con transparencia, con procesos claros, con rigor en cada dato y con una política explícita para reconocer errores. Para construir confianza es importante mostrar cómo trabajamos, con qué fuentes, con qué límites y con qué criterios editoriales tomamos decisiones. Cada vínculo que cuidamos, cada metodología que abrimos, cada chequeo que explicamos es parte de ese tejido. En vez de correr detrás del algoritmo o del último contenido viral, el periodismo tiene la oportunidad de volver a lo primordial: aportar contexto, verificar hechos, contar historias relevantes y estar al servicio de las personas.

– ¿Cree que la regulación de la IA puede ayudar a reducir la desinformación o el problema va más allá del marco legal?

– La regulación es una herramienta más. Puede ser parte de la solución, pero no alcanza por sí sola. El problema de la desinformación es demasiado complejo como para pensar que se resuelve sólo con leyes. Tiene dimensiones tecnológicas, culturales, políticas y económicas. La IA no lo inventó, pero sí lo aceleró y lo volvió más difícil de detectar. Como demuestra el modelo de la Unión Europea, la regulación es una herramienta muy valiosa para establecer transparencia en los sistemas, trazabilidad del contenido, protección de datos, y responsabilidad de quienes diseñan y despliegan modelos que pueden amplificar daño. El espacio digital no puede ser tierra de nadie. El desafío es proteger derechos sin limitar la libertad de expresión ni el acceso a tecnologías que también pueden fortalecer el periodismo y la democracia. Regular no significa censurar. Y ahí es súper importante que los periodistas, los fact-checkers, la academia y la sociedad civil tengamos voz en la conversación regulatoria, no sólo gobiernos o grandes tecnológicas. Para reducir la desinformación necesitamos una combinación de leyes claras, tecnología responsable, periodismo riguroso y audiencias más preparadas. Ninguna de esas patas puede faltar.

Es importante aprender a pensar críticamente, a entender cuándo y por qué alguien quiere engañarnos

– ¿Qué rol deberían tener las grandes plataformas en la gestión de la desinformación que generan sus propias herramientas?

– No pueden mirar para otro lado. Las redes sociales tienen un rol central en el ecosistema de la desinformación porque sus modelos no sólo amplifican contenido, también lo priorizan y lo generan. Diseñan algoritmos, moderan información, monetizan la atención de los usuarios y ahora las compañías que desarrollan IA generativa producen contenidos que pueden confundirse fácilmente con piezas reales. Es momento de exigirles que se hagan cargo del impacto que tienen y que trabajen para reducir el daño. En la práctica, esto significa, en primer lugar, más transparencia: sobre cómo funcionan sus sistemas, cómo entrenan sus modelos y qué datos usan. Segundo, trazabilidad: que los contenidos generados por IA puedan identificarse fácilmente, sin ambigüedades. Tercero, colaboración: con medios, verificadores, académicos y sociedad civil, para detectar y frenar campañas dañinas a tiempo. Y cuarto, inversión: no solo en resolver los problemas que generan, sino también que destinen fondos, datos y acceso a herramientas para que organizaciones independientes puedan hacer su trabajo de verificación, investigación y alfabetización digital. La libertad de expresión no está en juego cuando se busca frenar la mentira sistemática. La verificación de información aporta contexto y precisión al debate público. Lo que está en juego es la calidad del debate porque impacta directo en la salud de nuestras democracias. Y en eso, nadie puede quedar afuera.

– Si tuviera que proyectar el futuro cercano, ¿cómo imagina el ecosistema de noticias en cinco años, con IA cada vez más sofisticada y audiencias más desconfiadas?

– Habrá más complejidad, y también más oportunidades. Vamos hacia un nuevo sistema operativo social donde el periodismo se desplegará en interfaces conversacionales mediadas por máquinas. La IA va a estar integrada en casi todas las etapas de producción, distribución y consumo de contenido. Eso puede ser una amenaza o una herramienta poderosa, según cómo se use. Por un lado, va a haber más desinformación, más automatizada, más difícil de detectar y más personalizada para engañar. Y al mismo tiempo, audiencias que llegan agotadas por el ruido. Esa combinación nos pone a prueba a todos. Sin embargo, también vemos algo positivo: el periodismo que logre adaptarse, que use la IA con criterio editorial y que invierta en calidad para generar confianza, va a tener un valor diferencial. No solo por lo que cuenta, sino por cómo lo cuenta y por la relación que construye con sus audiencias. El futuro no es solo de quien tenga más tecnología, sino de quien la use con propósito y transparencia. Organizaciones como Chequeado van a ser cada vez más necesarias como puente entre tecnología y ciudadanía, como referencia de credibilidad, y como red que articula esfuerzos en distintos países. No vamos a poder cubrir todo ni frenar cada contenido falso. Pero sí podemos marcar estándares de uso ético, generar herramientas, formar nuevas generaciones de ciudadanos y mostrar que otro periodismo es posible, aún en entornos hostiles. En cinco años lo que hoy parece nuevo va a ser lo normal. Lo importante es no perder de vista para qué hacemos lo que hacemos, el sentido de nuestra misión como medios de interés público. Porque si el periodismo no sirve para mejorar la vida de las personas, la tecnología sola no alcanzará para salvarlo.

¿Quién es Franco Piccato?

  • Formación. Graduado del Executive Program in News Innovation and Leadership de la Craig Newmark Graduate School of Journalism en CUNY (City University of New York). Coautor del libro Periodismo Disruptivo (La Crujía, 2015).
  • Carrera. Es el director ejecutivo de Chequeado, la organización argentina fundada en 2010 pionera en periodismo de verificación, educación y tecnología cívica en América Latina, que trabaja para fortalecer el debate público. Periodista y editor, desde hace más de dos décadas se enfoca en la intersección entre periodismo y tecnología. Lideró proyectos de innovación, audiencias y producto en medios de Argentina y la región. Fue editor ejecutivo de Estrategia Digital en Clarín, secretario de Redacción en La Voz del Interior (Córdoba) y editor digital en América Economía (Chile). Entre 2020 y 2022, trabajó en Facebook como gerente de alianzas estratégicas para medios del Cono Sur.

Deja un comentario

Next Post

¿Me pueden multar si no llevo la cédula verde?

En la Argentina, al igual que en la mayoría de los países, para manejar un vehículo se requiere contar con una serie de documentos obligatorios. Estos papeles no solo son solicitados habitualmente en los controles de tránsito, sino que también sirven para respaldar al conductor en caso de un siniestro […]
¿Me pueden multar si no llevo la cédula verde?

NOTICIAS RELACIONADAS

error: Content is protected !!