Descubre la precisión de ChatGPT: sus errores comunes y cómo identificarlos

ChatGPT afirma que cerca de 400 millones de personas en todo el mundo participan semanalmente con este sistema de inteligencia artificial generativa. Una cifra destacable es que 175 millones de estas interacciones se realizan desde dispositivos móviles. Un dato curioso es que el 45% de estos usuarios son jóvenes de menos de 24 años. Según el bot, OpenAI tiene en la mira alcanzar los mil millones de usuarios hacia finales de 2025, aún cuando el servicio apenas llevará en operación tres años para entonces.

Con un crecimiento tan rápido (en enero de 2023 sólo existían 30 millones de usuarios), la confiabilidad de ChatGPT en la información que proporciona es cada vez más crucial. Sin embargo, la confianza plena en el algoritmo aún es esquiva: frecuentemente se reciben datos que no son verídicos, y el peligro radica en que estas imprecisiones pueden pasar desapercibidas por los usuarios.

A medida que más personas usan esta tecnología, ya sea para entretenimiento, trabajo o educación, la exigencia de precisión en ChatGPT se incrementa. Como mencionó un reportaje reciente, incluso se está utilizando para realizar funciones de ayuda psicológica.

Quizás también te interese:  Estudiante de 14 años de escuela privada agrede a compañera por burla perceived

Desafíos en la precisión de ChatGPT

En este contexto desafiante, se decidió confrontar a ChatGPT para evaluar qué porcentaje de respuestas incorrectas podría estar ofreciendo actualmente. Esto permite entender a qué errores potenciales se exponen los usuarios al usar esta herramienta para simplificar tareas que requerirían más habilidades y tiempo si fueran realizadas de manera convencional.

La respuesta del bot destaca su principal ventaja: “El porcentaje de respuestas inexactas de ChatGPT varía según el contexto, la pregunta específica y la formulación. Para asuntos claros y objetivos, como matemáticas básicas, definiciones científicas, eventos históricos o reglas gramaticales, la exactitud puede superar el 90-95%”.

Autodescripción de ChatGPT cuando se le consulta sobre la apariencia que tendría al proporcionar datos erróneos.

Incluso cuando no está obligado a hacerlo, el modelo confesó: “En cuestiones complejas, ambiguas o muy técnicas, como consultas avanzadas en campos legales, médicos o técnicos, el margen de error puede aumentar considerablemente, llegando a superar el 20-30% si no se complementa con fuentes externas”.

Signaló además: “Cuando ChatGPT no tiene acceso a Internet o a fuentes actualizadas, podría ofrecer respuestas anticuadas o erróneas sin percatarse, especialmente en temas recientes. Aunque OpenAI trabaja para mitigar estos fallos, no es prudente usar ChatGPT como única guía para decisiones críticas, particularmente en campos como la salud, leyes, finanzas o seguridad”.

Confianza ciega: Un riesgo

El peligro se acentúa cuando los usuarios son acríticos. Un sondeo internacional, publicado reciéntemente por la emisora Deutsche Welle, indica que solo el 31% de los encuestados verifica que las respuestas obtenidas de ChatGPT, o de otros sistemas de inteligencia artificial como Google Gemini y Microsoft Copilot, sean precisas.

Esta encuesta, que involucró a 15 mil personas de 15 países entre diciembre de 2024 y febrero de 2025, mostró que la tendencia a corroborar la información es mayor en Corea del Sur (42%), seguida por China e India (40%). En Alemania, la verificación es del 27%, mientras que en Francia y Suecia la cifra baja al 23%.

Reconociendo limitaciones

ChatGPT no reniega de su naturaleza e insta a los usuarios a ser críticos, aún cuando estos confían plenamente en sus capacidades. En otras palabras, ChatGPT reconoce que puede dar respuestas inexactas y proporciona pautas para identificarlas.

Con cada actualización, ChatGPT busca mejorar la precisión de sus respuestas.

El chatbot advierte que “cuando se ofrece una respuesta asertiva sobre un tema controvertido sin citar fuentes o investigaciones, hay que desconfiar”. Añade que “si la respuesta es un compendio general y obvia detalles clave, podría estar utilizando información poco fiable”.

ChatGPT también señala que “a veces, mezcla datos correctos con pequeñas inexactitudes, generando una percepción autovalidante pese a sus fallos sutiles”. Además, “si la respuesta se contradice o va en contra de lo que se afirmó previamente, probablemente haya un error de razonamiento”.

Detectando errores fácilmente

Quizás también te interese:  Paro nacional de docentes de la CGT amenaza el comienzo de clases en varias provincias y la Ciudad

Tales detalles permiten una verificación inicial de si las respuestas del modelo son precisas o no. Tras proveer información, si una segunda consulta similar genera una respuesta diferente, este es un indicativo claro de posibles errores.

El desafío es aún mayor cuando ChatGPT entrega datos plausibles pero incorrectos. Según el mismo modelo, en versiones más antiguas como GPT-3.5, las “alucinaciones” (respuestas incorrectas que parecen convincentes) eran comunes, mientras que en GPT-4 estas han disminuido significativamente.

Uno de los propósitos de OpenAI es perfeccionar la precisión del modelo para minimizar errores. La reciente liberación de la versión GPT-4.5 refleja este objetivo, aunque acceder a esta reducción de incertidumbre implica un costo. En su defecto, tal parece que sigue vigente la máxima de la Internet libre: no todo lo dado debe ser aceptado sin cuestionamiento.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad