El tiktoker Peldanyos encuentra el nombre para “esa gente que usa ChatGPT para todo”: “Me parece brutal”

ChatGPT se ha convertido en una herramienta que, si bien se ha convertido en una herramienta útil para algunas tareas, para otras, ha demostrado un gran margen de error

Guardar
ChatGPT se equivoca y un
ChatGPT se equivoca y un guía turístico le corrige (Montaje Infobae Canva)

ChatGPT se ha convertido en una herramienta muy utilizada en la cotidianeidad de las personas. Este auge tecnológico, si bien es cierto que, puede ayudar a la optimización de diferentes tareas, está comprobado que aún presenta un gran margen de error y que no puede sustituir a la inteligencia humana. El problema no es utilizarla para determinadas labores: el resumen de un texto o de largos informes, una puntual aclaración sobre temas complejos, sino considerar, de forma inescrutable, que se trata de una especie de dios capaz de dar una respuesta real a todo lo que le preguntamos.

Es importante concienciar que, ChatGPT (y otras inteligencias artificiales), como las conocemos hoy en día, aunque puedan ayudar a resolver muchos problemas, son incomparables con respecto a las extraordinarias posibilidades del cerebro humano, y lo que es más importante, las posibilidades intelectuales de aquellos que dedican gran parte de su vida a informarse, investigar y contrastar la información de un tema específico. Hablamos, por supuesto, de los especialistas.

La inteligencia artificial: el oráculo de un mundo sumido en la inmediatez

Esta conciencia ciega en la tecnología es producto de la aceleración masiva de las formas de consumo de la información. Ahora va todo mucho más rápido. Las redes sociales, la cotidianeidad, la proliferación de noticias y sucesos, la globalización. La IA es una forma más de automatización acelerada. El problema no es su uso. Un uso consciente y responsable puede traer muchos beneficios. El problema viene cuando se deposita una confianza excesiva. La frustración puede ser enorme.

ChatGPT no es el oráculo
ChatGPT no es el oráculo infalible que todos creen. Presenta un importante margen de error (Bloomberg)

Esto le sucedió a un turista en la isla de San Simón (Vigo). Informa sobre ello Peldanyos (@peldanyos), un creador de contenido en su perfil de TikTok. Se encontraba en un barco haciendo una visita guiada junto a un mediador cultural, que guiaba el itinerario para los turistas. Mientras el experto hablaba - profundizando en las raíces y cultura - uno de los turistas contrastaba todo lo que decía mediante ChatGPT. Con una confianza absoluta en el sistema de IA, en un momento determinado, las declaraciones de la máquina no coincidieron con las del experto. El turista, sumido en su sistema de creencias, no dudó en incriminar al mediador que lo que decía no era verdad. El mediador cultural, convencido de que sus palabras eran ciertas, retó al turista a que preguntase a la IA si había algún error en sus declaraciones. Enseguida, ChatGPT, reconoció su error.

Martín Palazzo, profesor de UdeSA

La historia es el ejemplo perfecto de cómo la IA presenta un gran margen de error. Muchas veces, al intentar reconstruir hechos pasados, se enfrenta a sesgos y profundas limitaciones en su perspectiva. De ahí surge la importante reflexión de que a la IA no se la debe ver como una fuente de información veraz, sino como una herramienta que, pese a sus beneficios, requiere contraste. El verdadero valor de las cosas y del conocimiento reside, después de todo, en la capacidad humana de investigar, analizar, conectar con el pasado histórico y cultural, que como parte de nuestra genealogía, aún nos involucra y nos retumba en la intimidad.

El desenlace de la historia, sin embargo, fue gracioso y lleno de humor. “¿Hay que poner un nombre a todo aquel que usa ChatGPT para todo?" le dijo el creador de contenido al guía turístico. A lo que él respondió: “gepetos”. El comentario despertó las risas de todos los allí presentes.