Entre la oportunidad y el riesgo: notas para un uso consciente de la inteligencia artificial

admin

GPT afirmó que se equivoca menos que los humanos (Imagen ilustrativa Infobae)

Considerando que de un tiempo a esta parte empezaron a publicarse los resultados de estudios que exploran el impacto de la inteligencia artificial en nuestra vida cotidiana y en nuestra salud mental, se me ocurre que es un buen momento de compartir lo que sigue: un relevamiento personal sobre los límites saludables de la IA “conversados” con GPT.

Esto empezó como una indagación simple para trabajarlo con mis alumnos y algunos consultantes: supongamos que vas a contratar a alguien para que trabaje para vos, ¿le harías una entrevista para chequear habilidades, aptitudes, modo de comunicarse y de relacionarse?

Si tu respuesta fue positiva, te interesará seguir leyendo… Como adelanté más arriba, lo que sigue nace de una propuesta para trabajar con mis alumnos, ya que el estudiantado en general es una de las poblaciones que más delega tareas a alguna inteligencia artificial, aunque, por supuesto, también lo hacen muchas otras personas: redactores que ya no redactan, entrevistadores que ya no formulan preguntas y pensadores que solo tienen ideas por “encargo”.

Particularmente, no estoy en ningún extremo con respecto a “apocalípticos e integrados”, sino más en una posición de abrir interrogantes bajo el lema “úsese con sabiduría”, considerando que, de un tiempo a esta parte, están apareciendo los primeros resultados de estudios sobre el impacto de la IA en nuestra vida diaria y nuestra salud mental. Entonces, si vamos a tener un “secretario” a quien pedirle tanto, ¿no deberíamos enterarnos acerca de qué exactamente podemos pedirle? Voy a contarte sobre una conversación con GPT para que puedas ver en detalle de qué se trata…

Así, el primer prompt que ingresé a GPT fue: “¿Considerás que cometés más o menos errores que la inteligencia humana?”. Y la respuesta recibida fue una especie de taxonomía de la equivocación, en la cual GPT comparó distintos tipos de errores y cómo se generan en IArtificial y en IHumana. Así, el análisis arrojó que GPT tiende a equivocarse menos que los humanos, recordando información objetiva, definiciones, nombres o fechas si forman parte de su entrenamiento o están en fuentes actualizadas a las que tiene acceso. Además, mientras una persona puede olvidar o confundir información, GPT recupera patrones de texto rápidamente.

Respecto de los errores de interpretación o contexto, declaró equivocarse más que los humanos, ya que fácilmente malinterpreta consignas ambiguas y pierde matices culturales o emocionales que son fácilmente detectables por seres humanos.

Las otras dos categorías analizadas fueron los errores de juicio o criterio y los errores emocionales: respecto de los primeros, GPT reconoce que las personas contamos con intuición, experiencia y sentido común social, y esto es algo que GPT simula, pero no vive desde su experiencia y por eso a veces las intervenciones que realiza aparentan estar demasiado lejos del sentido común.

Con respecto a los errores emocionales, afirma que los seres humanos podemos confundirnos por cansancio, sesgos o pobre gestión emocional, y, si bien el cansancio no es una opción para GPT, al no tener experiencia subjetiva, no siempre puede calibrar bien una respuesta relacionada a lo emocional.

Ya en su última sugerencia, se ofreció a armar un material específico en caso de que yo quiera usarlo en una clase o en una charla, y de ahí el valor de reconocer los límites: armar ese (este) material, es MI trabajo.

Le pedí profundizar en un aspecto más respecto de los errores que comete que son comúnmente llamados “alucinaciones de IA” y empezó por explicar de qué se trata diciendo que una alucinación de IA es cuando produce información que suena plausible, pero es incorrecta, inventada o no verificable- Aclaró que no se trata de fraude intencionado, sino que así fue entrenado para generar textos: bajo la “probabilidad de la próxima palabra”.

GPT propuso responder a la pregunta “¿Por qué alucino?”, y allí explicó que su entrenamiento se basa en predecir la próxima palabra más probable y no en verificar “la verdad”, lo cual favorece respuestas verosímiles, pero no necesariamente verdaderas.

Además, se basa en generalizaciones e interpolaciones, es decir que a partir de patrones reales puede construir afirmaciones nuevas que se parecen a las vistas en los datos consultados, aunque no existan. También anota algo sobre los ruidos y sesgos en los datos de entrenamiento, lo cual significa que, si aprende de material que contiene errores, los repetirá.

Declaró falta de “grounding”, ya que no tiene acceso a una base de datos verificable en tiempo real todo el tiempo, por lo que confía en memorias aproximadas. También, y muy importante para los estudiantes, señaló que genera formatos de citas plausibles, ya que aprendió a escribir referencias bibliográficas con formato convincente y por eso puede inventar citas que parecen reales pero son inexistentes, por ejemplo, usando el formato APA.

En términos generales, GPT parece tener más claro que muchos usuarios la particularidad tecnológica que supone: a la vez que es capaz de amplificar oportunidades, también amplifica los riesgos, y así, en cada respuesta, insistió en generar protocolos de uso ético.

Las reflexiones que se desprenden de aquí son muchísimas, pero sobre todo resalto una idea: la confianza ciega en la inteligencia de las máquinas no debe ir en detrimento de la nuestra.

Deja un comentario

Next Post

El Defensor del Pueblo insta a organizaciones internacionales a exigir el "cese de hostilidades" en Gaza

El Defensor del Pueblo de España, Ángel Gabilondo, se ha dirigido a la Defensora del Pueblo de Europa, al Instituto Internacional del Ombudsman (IOI), a la Asociación de Defensores del Pueblo del Mediterráneo (AOM), a la Alianza Global de Instituciones Nacionales de Derechos Humanos (GANHRI), así como a la Red […]
El Defensor del Pueblo insta a organizaciones internacionales a exigir el «cese de hostilidades» en Gaza

NOTICIAS RELACIONADAS

error: Content is protected !!