
La irrupción de Grokipedia, la enciclopedia generada por inteligencia artificial y promovida por Elon Musk, representa mucho más que una simple competencia para Wikipedia. Según John Herrman, columnista de tecnología en New York Magazine, el proyecto es una advertencia sobre el futuro de la información digital: “Grokipedia, y los proyectos de IA de Musk en general, nos invitan a ver a los modelos de lenguaje como herramientas ideológicas poderosas e intrínsecamente sesgadas, que, independientemente de lo que pensemos del ejemplo de Grok, siempre lo son”.
Herrman sostiene que la relación de Musk con Wikipedia pasó de la admiración pública a una cruzada personal. Recordó que en 2021, Musk celebró el aniversario de la plataforma con un mensaje positivo: “¡Feliz cumpleaños Wikipedia! Me alegra que existas”. Sin embargo, con el tiempo, el empresario intensificó sus críticas, calificando a Wikipedia de “rota” y acusándola de ser una “extensión de la propaganda de los medios tradicionales”.
Para el columnista, la transformación de Musk es evidente: “Desde 2019, su problema puntual con Wikipedia se ha convertido en un agravio expansivo, pasando de una ofensa personal a una cruzada justiciera que es ‘necesaria’ para el objetivo de la humanidad de ‘entender el Universo’”.
El análisis de Herrman subraya que la motivación de Musk para crear Grokipedia no es solo tecnológica, sino profundamente personal y política. El autor planteó que tal vez a Musk, “uno de los hombres más ricos y poderosos del mundo, no le tiene sentido que otros —ya sean wikipedistas voluntarios, miembros remunerados de los medios o usuarios de una plataforma que no le pertenece— puedan hablar de él, describir cosas que le importan y ser tomados en serio”.
Este impulso de controlar el entorno informativo a su alrededor, según Herrman, es tan único como los métodos de Musk: “comprar una red social, fundar una empresa de IA, crear un chatbot a su imagen y ordenarle reescribir toda la enciclopedia”.
El columnista describió a Grokipedia como un producto que, en apariencia, imita a Wikipedia en formato y estilo, pero que en realidad es el resultado de un proceso automatizado: “Sus artículos son escritos y formateados como los de Wikipedia y, en algunos casos, incluso contienen pasajes idénticos. Suelen ser mucho más largos y están organizados de manera menos consistente”.
Herrman, con experiencia en el uso de herramientas de investigación profunda basadas en IA, identificó rápidamente el patrón: “Un modelo de IA que rastrea un índice de enlaces, sintetiza sus contenidos y produce un informe exhaustivo pero verboso”.
El autor destacó que Grokipedia no es editable de manera directa como Wikipedia, aunque permite sugerencias de cambios a través de una interfaz similar a las Community Notes de X. Además, advirtió que los artículos reflejan las sensibilidades codificadas de Grok, el chatbot “anti-woke” de Musk.
En temas controvertidos, Grokipedia se asemeja a una versión asistida por máquina de Conservapedia, con un rechazo explícito a las narrativas y coberturas mediáticas “mainstream”. Herrman citó la revisión de Wired sobre la plataforma, que encontró que “las entradas notables denunciaban a los medios tradicionales, destacaban puntos de vista conservadores y, a veces, perpetuaban inexactitudes históricas”.
Otros medios, como Inc y SFGATE, detectaron errores fácticos y calificaron el contenido de “racista”. Para Herrman, el contraste entre Wikipedia y Grokipedia es fundamental: “Una Wikipedia automatizada no es realmente una Wikipedia. El sitio que Grokipedia intenta reemplazar es el resultado de un fenómeno sin precedentes de abajo hacia arriba, en el que millones de personas contribuyeron tiempo, atención y esfuerzo para crear un recurso compartido, sintetizando información existente a través de un proceso desordenado, defectuoso, pero en última instancia deliberativo y productivo”.
En cambio, Grokipedia es “un esfuerzo de arriba hacia abajo, generado por un modelo entrenado en recursos como Wikipedia, luego desplegado para reescribirlos con una sensibilidad diferente”.
El columnista de New York Magazine advirtió que Grokipedia es tanto un ejemplo futurista de automatización por IA como un retroceso a la centralización informativa previa a la web. “Es una nueva pieza de un sistema informativo claustrofóbicamente referencial: una base de datos de artículos escritos por un chatbot para que luego puedan ser referenciados como fuentes autorizadas por el mismo chatbot, y tal vez ayudar a entrenar a otro”, afirmó Herrman, quien comparó este fenómeno con los resúmenes de IA de Google.
El autor consideró que el origen centrado en la figura de Musk es “absurdo e indigno”, pero también revelador: “El intento de Musk de rehacer su propio entorno informativo es instructivo y, si no exactamente sincero, útilmente transparente (o al menos mal disimulado)”.
Herrman observó que Musk ya no bromea sobre “su propia versión ficcionalizada de la realidad”, sino que ahora prefiere hablar en términos mesiánicos sobre amenazas apocalípticas, sin importar el tema. El análisis de Herrman extendió la crítica a la industria de la inteligencia artificial en general, señalando que la ideología de los creadores se codifica inevitablemente en los productos. “En Grok y Grokipedia, podemos ver claramente cómo se codifican intencionalmente ideologías particulares en productos de IA que luego se despliegan ampliamente y con fines abiertamente ideológicos”, sostuvo el columnista.
Esta tendencia, según Herrman, no es nueva: “Los chatbots repiten los mismos argumentos a las audiencias e invitan muchas de las mismas críticas obvias que antes recibieron los periódicos, los canales de televisión y las redes sociales”. Herrman comparó la estrategia de Musk con la de otros actores mediáticos, como Fox News y Mark Zuckerberg, y subrayó que ahora son las empresas de IA las que “nos guiñan el ojo mientras nos piden que confiemos en ellas, se entregan a un marketing halagador y caen en tentaciones paternalistas sin mucha conciencia de cómo los esfuerzos similares de sus predecesores llevaron al público a un estado de profundo cinismo institucional”.
El columnista remarcó que Musk posicionó a Grokipedia como una alternativa y que le gusta definir a xAI en oposición a competidores más grandes y menos politizados. Sin embargo, consideró que las afirmaciones de Musk sobre la “verdad”, la factualidad y la narrativa están “claramente motivadas por el interés propio”, lo que ayuda a evidenciar que su proyecto no es tan diferente al de OpenAI.

“Para cualquiera fuera de la esfera ideológica de Musk, su intento de crear un entorno informativo cerrado y de arriba hacia abajo parece o bien ridículo o bien siniestro”, afirmó, y citó el caso de Google y Gemini como ejemplo de los riesgos de intentar optimizar los sesgos de los modelos. Herrman contrastó la postura de Musk con la de OpenAI, que anunció en octubre el desarrollo de un sistema automatizado para evaluar y mejorar la objetividad de ChatGPT, utilizando “aproximadamente 500 indicaciones que abarcan 100 temas y diferentes inclinaciones políticas, a lo largo de cinco ejes matizados de sesgo”.
Según el columnista, el objetivo de Grok es “expresar un sesgo específico contra las narrativas progresistas predominantes reflejando puntos de vista de derecha —o simplemente alinearse con los valores y prioridades de su creador—, algo que es alcanzable y para lo que los modelos de lenguaje son muy aptos como tecnología”. En cambio, el objetivo de OpenAI es la “objetividad”, que, para un chatbot encargado de hablar de todo con todos, “realmente no lo es”.
Herrman sostuvo que la relación de los chatbots con el mundo exterior es profundamente editorial, como la de un periódico o una red social. “Lo que ChatGPT dice sobre política —o sobre cualquier cosa— es, en última instancia, lo que las personas que lo crearon deciden que debe decir, o permiten que diga; más específicamente, seres humanos en OpenAI deciden cómo deben ser las respuestas neutrales a esas 500 indicaciones e instruyen a su modelo para que siga su ejemplo”.
El columnista consideró que el llamado de OpenAI a la neutralidad objetiva es un intento de evitar esta percepción, pero que “cualquiera que dirija un gran medio de comunicación o una plataforma social sabe que no engañará a la gente por mucho tiempo”. Para Herrman, OpenAI probablemente preferiría no ser evaluada bajo estos estándares polarizados, por lo que, como muchas otras organizaciones, “afirma existir fuera de ellos”.
Además, expresó su escepticismo: “En esa tarea, sospecho que ChatGPT fracasará”. No obstante, reconoció que su futuro no depende de ser visto como un chatbot universalmente imparcial, sino de ser percibido como útil, entretenido o razonable y confiable para suficientes personas. “Los usuarios frecuentes de chatbots saben que los modelos populares pueden derivar hacia la adulación, que es una forma poderosa y general de sesgo”, advirtió.
También señaló que los usuarios pueden ordenar a los chatbots que adopten diferentes identidades, políticas o de otro tipo, y que pronto podrán pedirles incluso que los complazcan sexualmente. El columnista concluyó que, pese a su novedad y versatilidad, los chatbots de IA continúan el proyecto iniciado por las redes sociales de última generación, extendiendo la lógica de las recomendaciones algorítmicas a una voz humana familiar. “No es solo que la neutralidad de salida sea difícil de obtener para sistemas como este. Es que son incompatibles con el propio concepto”, afirmó Herrman.
En ese sentido, Grokipedia —al igual que X y Grok— es también una advertencia. Herrman describió el fenómeno como “un ejemplo dolorosamente público del aislamiento gradual de un hombre del mundo dentro de un sistema a escala de conglomerado de feeds, chatbots y medios sintéticos que lo afirman, adulan y son ideológicamente seguros, una situación que sería graciosa si no fuera por el deseo y el poder de Musk de imponer su visión al mundo”.
El columnista advirtió que lo que Musk puede construir para sí mismo ahora, pronto lo podrán construir los usuarios comunes con herramientas de IA, o se les impondrá por defecto: “Un mundo mediado no solo por publicaciones o redes sociales, sino por productos de IA multipropósito que nos aseguran que buscan la verdad máxima u objetividad, mientras simplemente nos dicen lo que queremos oír”.
