Ocurrió hace unas semanas en General Roca, en Río Negro. Un hombre, demandó a una automotriz y a una de sus concesionarias tras comprar un vehículo 0 km de alta gama que presentó múltiples fallas desde un primer momento. En uno de los recursos de apelación presentado por su abogado con el objetivo de cobrar una indemnización por daños punitivos, la Cámara de Apelaciones en lo Civil, Comercial, Familia y Minería detectó irregularidades en el escrito. Tras una exhaustiva búsqueda en la Biblioteca del Poder Judicial y en los registros del Superior Tribunal de Justicia, los jueces determinaron que ninguna de las citas pudo ser verificada y solicitó a los letrados que especifiquen el origen de las fuentes de las citas textuales atribuidas a tribunales de la provincia: 26 citas del escrito, redactado con inteligencia artificial, eran inexistentes y fueron “alucinaciones” de ChatGPT.
La reunionitis tiene cura: la fórmula 3×2 para revolucionar la semana laboral
Un uso de la tecnología que en lugar de potenciar el trabajo, fabrica una nueva categoría de contenido y trabajo basura. Le dicen “workslop”: el término proviene de las redes sociales, variante del “AI slop”, ese contenido irrelevante generado por IA que inunda las redes sociales. La versión corporativa se llama workslop, contenido banal generado por IA disfrazado de trabajo bien hecho, pero que carece de sustancia, contexto o utilidad real. Lo vemos en piezas de marketing y publicidad, en educación y hasta en los juzgados. Un estudio de BetterUp Labs y Stanford reveló que el 40% de los empleados en empresas que adoptaron GenAI recibió workslop en el último mes.
“Podés arruinar tu reputación en cinco minutos, esto genera destrucción de confianza y reputación profesional. La mitad de quienes reciben trabajo generado por IA de baja calidad perciben al remitente como menos creativo, menos capaz, menos confiable. Y un tercio no quiere volver a trabajar con esa persona”, describe Ernesto Mislej, Chief Data Scientist, fundador de 7Puentes y profesor de la maestría en datos de la UBA. Para el experto, cada documento mal generado es una señal de que no agregás valor real, de que sos un intermediario innecesario entre la pregunta y ChatGPT. Lejos de ser eficiente, te estás volviendo prescindible. ¿Por qué pasa esto? Según Mislej por tres razones: primero, el mandato indiscriminado de “usen IA para todo”, modela una falta de discernimiento y propicia atajos. Segundo, la ilusión del “costo cero” que es usar la IA y no entrenar un pasante, la sensación de ausencia de fricción que oculta el costo que pagará quien reciba ese trabajo. Y tercero, la tentación de tercerizar en la IA esas tareas sin significado evidente o resistidas por nosotros. Una ecuación saludable ante la proliferación de estas herramientas requiere que sean acompañadas por dosis altas de responsabilidad humana. O como explica Mislej pasar de una mentalidad de pasajero o turista cognitivo a piloto activo que controla la herramienta y no le cede el control.
