Meta presentó una serie de herramientas y estudios desarrollados por su laboratorio de investigación fundamental en inteligencia artificial (FAIR). Los lanzamientos buscan contribuir al desarrollo de tecnologías aplicadas a la química, la neurociencia y los modelos de lenguaje. Todos los recursos estarán disponibles en acceso abierto para la comunidad investigadora.
Uno de los principales lanzamientos es Open Molecules 2025 (OMol25), un conjunto de datos que permite simular el comportamiento de moléculas a nivel atómico. Está diseñado para facilitar el desarrollo de nuevos materiales, por ejemplo, para el almacenamiento de energía o la industria farmacéutica. Según Meta, se trata del conjunto de datos más grande hasta ahora en su tipo, con simulaciones que incluyen configuraciones hasta diez veces más complejas que las disponibles anteriormente.
Junto con este recurso, Meta presentó el Modelo Universal para Átomos (UMA), un modelo de aprendizaje automático que permite predecir cómo interactúan los átomos en diferentes materiales y moléculas. Fue entrenado con información de más de 30 mil millones de átomos y se plantea como una herramienta que puede ser utilizada y adaptada en distintos proyectos de investigación científica e industrial.
La compañía también compartió avances en el muestreo adjunto, un método que permite entrenar modelos generativos en situaciones donde no se cuenta con grandes bases de datos. Este enfoque se basa en ajustar las respuestas del modelo utilizando un sistema de recompensas, en lugar de depender exclusivamente de ejemplos previos. Meta sostiene que esta técnica puede aplicarse en áreas como la generación de imágenes, videos o muestras químicas.
Otro avance presentado es un estudio realizado en colaboración con el Hospital de la Fundación Rothschild que explora cómo el cerebro humano representa el lenguaje. El estudio identifica similitudes entre esa representación y el funcionamiento de los modelos de lenguaje extensos (LLMs), aunque también advierte sobre las diferencias en la eficiencia del aprendizaje: los humanos adquieren lenguaje con una eficiencia extrema, con aproximadamente 1,000 veces menos palabras que los LLMs.
La realidad es que la inteligencia artificial ya se está usando en el campo científico, principalmente para la escritura de manuscritos. La nueva tecnología ayuda en el desarrollo de borradores, en la edición y en la organización del contenido, ahorrándoles tiempo y recursos a los investigadores. También participa en el proceso de revisión por pares, tradicionalmente a cargo de colegas del campo. La inteligencia artificial agiliza esta etapa y ofrece sugerencias, además de detectar inconsistencias técnicas.
Sin embargo, el cambio más profundo está en el acceso y la síntesis del conocimiento científico. “Las herramientas de IA pueden realizar lecturas profundas de miles de documentos, descubriendo patrones y conexiones que a un ser humano le llevaría meses identificar. Esto allana el camino para nuevos tipos de descubrimientos, más interdisciplinarios, más integrados y potencialmente más rápidos”, explicó a LA NACION Samuel Yossef, investigador científico.
Por su parte, Ignacio Spiousas, investigador de Conicet y la Universidad de San Andrés, explicó que el primer riesgo es la infiltración de alucinaciones dentro de las publicaciones científicas. “Al ser modelos que generan lenguaje aprendiendo de su forma y no de su contenido, el problema es que expresan estas alucinaciones con la misma seguridad que hechos verdaderos”, señaló. Como consecuencia principal, puede producirse una expansión de información falsa o la reproducción de conceptos erróneos que la inteligencia artificial incorpora a su estructura interna y replica sin distinguir su validez.
Además, los sesgos presentes en la estructura de los datos refuerzan la necesidad de una revisión humana constante. Es evidente que las herramientas de IA seguirán integrándose en los procesos científicos; sin embargo, la supervisión profesional debe mantenerse lúcida para identificar errores o alucinaciones ya estructuradas en los sistemas. “Las decisiones científicas deben seguir siendo humanas. La IA es una herramienta poderosa, pero carece de criterio y responsabilidad”, advirtió Yossef. “Ignorar ese límite es arriesgado, para la ciencia y para la sociedad”, concluyó.