ChatGPT afirma que cerca de 400 millones de personas en todo el mundo participan semanalmente con este sistema de inteligencia artificial generativa. Una cifra destacable es que 175 millones de estas interacciones se realizan desde dispositivos móviles. Un dato curioso es que el 45% de estos usuarios son jóvenes de menos de 24 años. Según el bot, OpenAI tiene en la mira alcanzar los mil millones de usuarios hacia finales de 2025, aún cuando el servicio apenas llevará en operación tres años para entonces.
Con un crecimiento tan rápido (en enero de 2023 sólo existían 30 millones de usuarios), la confiabilidad de ChatGPT en la información que proporciona es cada vez más crucial. Sin embargo, la confianza plena en el algoritmo aún es esquiva: frecuentemente se reciben datos que no son verídicos, y el peligro radica en que estas imprecisiones pueden pasar desapercibidas por los usuarios.
A medida que más personas usan esta tecnología, ya sea para entretenimiento, trabajo o educación, la exigencia de precisión en ChatGPT se incrementa. Como mencionó un reportaje reciente, incluso se está utilizando para realizar funciones de ayuda psicológica.
Desafíos en la precisión de ChatGPT
En este contexto desafiante, se decidió confrontar a ChatGPT para evaluar qué porcentaje de respuestas incorrectas podría estar ofreciendo actualmente. Esto permite entender a qué errores potenciales se exponen los usuarios al usar esta herramienta para simplificar tareas que requerirían más habilidades y tiempo si fueran realizadas de manera convencional.
La respuesta del bot destaca su principal ventaja: “El porcentaje de respuestas inexactas de ChatGPT varía según el contexto, la pregunta específica y la formulación. Para asuntos claros y objetivos, como matemáticas básicas, definiciones científicas, eventos históricos o reglas gramaticales, la exactitud puede superar el 90-95%”.
Incluso cuando no está obligado a hacerlo, el modelo confesó: “En cuestiones complejas, ambiguas o muy técnicas, como consultas avanzadas en campos legales, médicos o técnicos, el margen de error puede aumentar considerablemente, llegando a superar el 20-30% si no se complementa con fuentes externas”.
Signaló además: “Cuando ChatGPT no tiene acceso a Internet o a fuentes actualizadas, podría ofrecer respuestas anticuadas o erróneas sin percatarse, especialmente en temas recientes. Aunque OpenAI trabaja para mitigar estos fallos, no es prudente usar ChatGPT como única guía para decisiones críticas, particularmente en campos como la salud, leyes, finanzas o seguridad”.
Confianza ciega: Un riesgo
El peligro se acentúa cuando los usuarios son acríticos. Un sondeo internacional, publicado reciéntemente por la emisora Deutsche Welle, indica que solo el 31% de los encuestados verifica que las respuestas obtenidas de ChatGPT, o de otros sistemas de inteligencia artificial como Google Gemini y Microsoft Copilot, sean precisas.
Esta encuesta, que involucró a 15 mil personas de 15 países entre diciembre de 2024 y febrero de 2025, mostró que la tendencia a corroborar la información es mayor en Corea del Sur (42%), seguida por China e India (40%). En Alemania, la verificación es del 27%, mientras que en Francia y Suecia la cifra baja al 23%.
Reconociendo limitaciones
ChatGPT no reniega de su naturaleza e insta a los usuarios a ser críticos, aún cuando estos confían plenamente en sus capacidades. En otras palabras, ChatGPT reconoce que puede dar respuestas inexactas y proporciona pautas para identificarlas.
El chatbot advierte que “cuando se ofrece una respuesta asertiva sobre un tema controvertido sin citar fuentes o investigaciones, hay que desconfiar”. Añade que “si la respuesta es un compendio general y obvia detalles clave, podría estar utilizando información poco fiable”.
ChatGPT también señala que “a veces, mezcla datos correctos con pequeñas inexactitudes, generando una percepción autovalidante pese a sus fallos sutiles”. Además, “si la respuesta se contradice o va en contra de lo que se afirmó previamente, probablemente haya un error de razonamiento”.
Detectando errores fácilmente
Tales detalles permiten una verificación inicial de si las respuestas del modelo son precisas o no. Tras proveer información, si una segunda consulta similar genera una respuesta diferente, este es un indicativo claro de posibles errores.
El desafío es aún mayor cuando ChatGPT entrega datos plausibles pero incorrectos. Según el mismo modelo, en versiones más antiguas como GPT-3.5, las “alucinaciones” (respuestas incorrectas que parecen convincentes) eran comunes, mientras que en GPT-4 estas han disminuido significativamente.
Uno de los propósitos de OpenAI es perfeccionar la precisión del modelo para minimizar errores. La reciente liberación de la versión GPT-4.5 refleja este objetivo, aunque acceder a esta reducción de incertidumbre implica un costo. En su defecto, tal parece que sigue vigente la máxima de la Internet libre: no todo lo dado debe ser aceptado sin cuestionamiento.
PS