Hace no mucho tiempo, algo pasó desapercibido: antes, al buscar cualquier información en internet, Wikipedia solía ser la primera opción. Esa era ya se ha terminado. La famosa “enciclopedia libre” ha perdido protagonismo en dos fases. Inicialmente, los enlaces publicitarios empezaron a ocupar la parte superior de los motores de búsqueda; posteriormente, el estilo no académico de la inteligencia artificial (IA) promovida por Google desplazó su centralidad. ¿Qué le depara el futuro a Wikipedia? ¿Ha perdido mucho público? ¿Cómo ha sido afectada su reputación por la IA?
Existen dos fuertes razones que explican el cambio en la estrategia de Wikipedia en la actualidad. El primero es evidente: la IA está disminuyendo significativamente su tráfico de visitas. El segundo dato revelador muestra que actualmente están recibiendo más tráfico de bots que de seres humanos.
Paradójicamente, en medio de este contexto, Wikipedia ha mejorado su prestigio general, gracias a la seriedad de sus artículos, que incluso han comenzado a actuar como fact-checkers. Esta buena reputación se debe a dos motivos.
Primero, porque Wikipedia sigue luchando contra uno de los mayores peligros para el sentido común en el siglo XXI: las noticias falsas. Y segundo, por la diferencia comparativa entre sus contenidos y las respuestas incoherentes basadas en fuentes de dudosa calidad, generadas sin ningún tipo de control ético por algoritmos en diversas plataformas.
A pesar de esta buena reputación, los problemas de Wikipedia persisten, visibles en ciertas estadísticas preocupantes para los creadores detrás de esta vasta enciclopedia online. Están implementando un plan que pretenden fortalecer, como una especie de reinvención.
Wikipedia o ChatGPT: la búsqueda de una fuente de información
La situación se puede resumir en dos porcentajes. El primero refleja el descenso de las consultas a los millones de artículos de Wikipedia, experimentado desde hace tres años, alcanzando un retroceso del 8% en el último año en las principales ediciones, como inglés, francés, alemán y español.
El segundo dato es impactante: actualmente, el 65% del tráfico de Wikipedia proviene de bots. Miles de robots o software automatizado que recorren sus artículos, como si hicieran un escaneo intensivo para responder a las innumerables consultas que reciben las IA, ya sea de usuarios como de apps o programas que, eventualmente, nos llegan.
Estas conclusiones se derivan de una charla con Patricio Lorente, figura clave dentro de Wikimedia a nivel global, y presidente de Wikimedia Argentina, quien ha sido un protagonista histórico de la organización.
“Decir que trabajo en Wikipedia es un decir porque nunca he recibido un sueldo; mis roles (he ocupado varios desde 2012) siempre han sido voluntarios”, expresó a Clarín.
Por más de dos décadas, trabajó en administración en la Universidad Nacional de La Plata (es doctor en Ciencias de la Educación), donde siguió hasta 2025. En la actualidad, está muy vinculado a una universidad nueva centrada en el deporte, impulsada por Sebastián Verón y el club Estudiantes de la Plata, información que sin duda aparecería en un artículo de Wikipedia sobre él.
Fact checkers voluntarios en el funcionamiento de Wikipedia
Lorente se refiere a los voluntarios de la gran enciclopedia como “wikipedistas”; son personas de todo el mundo y en varios idiomas que escriben la enciclopedia. Organizan su trabajo en un sistema jerárquico democrático con normas específicas.
Cualquiera puede editar contenido antiguo o crear nuevo, pero no todos tienen el mismo poder en decisiones como añadir o eliminar porque hay una reputación que se forja con el tiempo. A mayor cantidad de artículos publicados, mayor es el respeto dentro de la comunidad que verifica y mejora constantemente los contenidos.
Lorente destacó que “comparado con las redes sociales o el periodismo tradicional, Wikipedia ha demostrado ser capaz de enfrentar las noticias falsas antes y después de la llegada de la inteligencia artificial. Esto a pesar de las críticas de hace una década que instaban a no confiar en Wikipedia. Ahora es vista como un comprobador de hechos completo”.
Este logro se atribuye al trabajo de miles de voluntarios que revisan diariamente lo que se publica. Evidentemente, a veces esto ocurre entre tensiones que moldean el contenido.
Por ejemplo, “si una figura reconocida está gravemente enferma, como ocurrió con Nelson Mandela, es común que personas que desconocen las políticas de verificación de información accedan al artículo afirmando su muerte solo porque lo leyeron en un tuit”.
En estos casos, la propia comunidad de Wikipedia corrige las incorrecciones rápidamente: “Si alguien realiza cambios incorrectos repetidamente, tras varios intentos el artículo es protegido y bloqueado para evitar la inclusión de información errónea”.
Los límites entre la realidad y las noticias falsas
“Los wikipedistas registran un nombre de usuario en el idioma de su enciclopedia y activamente generan contenidos. Algunos solo corrigen o discuten cómo debería ser un artículo. Otros prefieren escribir artículos desde cero. El contenido está en constante generación, con sumas y restas en cada minuto”, explicó Lorente.
Según estadísticas actualizadas en noviembre de 2025 compartidas con Clarín, hay 49.980 wikipedistas en español que realizaron al menos una edición el mes pasado. De esos, 4.166 efectuaron un mínimo de 5 ediciones diarias. A nivel local, 860 contribuyentes hacen entre 5 y 99 ediciones diarias, y otros 90 superan las 100 ediciones al día.
Sin embargo, aunque el contenido es cada vez más preciso, la preocupación sobre el relegamiento de Wikipedia en búsquedas de Google sigue creciendo. “Antes, cuando surgía una duda en el almuerzo del domingo, la gente buscaba en Google y consultaba Wikipedia. Pero esto cambió con la aparición de primeros resultados como enlaces patrocinados y con las ventanas de gráficos de conocimiento de Google que mostraban lo básico de una consulta, con Wikipedia como fuente”, relató.
“Ahora, lo que aparece es una respuesta en lenguaje natural sin referencia a la fuente. No es una búsqueda online como conocíamos: es una respuesta en lenguaje natural basada principalmente en contenido de Wikipedia”, explicó.
Decisiones estratégicas en disputa por la audiencia
La inquietud por la IA comenzó hace tres años, y hace dos se confirmó que había problemas, apuntó el referente de Wikimedia Argentina. Resumió estos problemas por las numerosas consultas de bots en dos grandes temas.
La primera cuestión es la carga excesiva en el tráfico del sitio: “Han ocurrido pocos eventos importantes, pero el riesgo es que la página se sature debido a la alta densidad de usuarios que en realidad son máquinas, bloqueando el acceso a personas reales”.
Como salida a esta problemática, en 2021 crearon el proyecto Wikimedia Enterprise. Fue un cambio en su modelo de negocio, aunque la operación de la enciclopedia se ha basado históricamente en donaciones.
“Nuestro lema es que cualquier persona pueda acceder al conocimiento en su idioma. Esta filosofía hacía impensable poner barreras de acceso. Sin embargo, el auge de visitas no humanas impulsó la necesidad de crear una interfaz separada para dispositivos, diciéndoles a empresas como Open AI o Google que pueden acceder a nuestros contenidos, pero a través de una interfaz diferente para no afectar la entrada de usuarios reales. Y además, habrá un costo asociado”, explicó Lorente.
La empresa ha concretado contratos en esta línea, pero persisten los bots que no se identifican como tales y acceden por las vías normales. Además, varias compañías han tardado en adoptar la nueva interfaz, ya que sus sistemas estaban configurados para el acceso humano. Recién en el último año y medio, la iniciativa ha comenzado a ganar fuerza.
Un desenlace abierto para Wikipedia
Lorente aclaró que no rechazan la IA. “Wikipedia está explorando modelos de lenguaje, que son útiles cuando se limitan las fuentes de información”. Por ejemplo, se utilizan “para combatir el vandalismo, que puede reducirse utilizando modelos de autoaprendizaje”.
Sin embargo, advirtió acerca de “los problemas más complejos con la IA. Son desafíos interesantes, pero no necesariamente positivos. Por ejemplo, si la comunidad de wikipedistas está motivada para crear la mayor cantidad de contenido posible para que otras personas lo consulten, ¿qué ocurrirá si estas tendencias se profundizan y el contenido es consultado mayoritariamente por máquinas?”
Esta pregunta inquietante afecta a creadores de diversos campos: ¿continuaremos motivados para crear contenido si nuestra audiencia son millones de bots que median con los seres humanos a través de un lenguaje sintético?
Lorente se mostró optimista: la creación de contenido por parte de humanos sigue siendo vital, ya que “aunque gran parte del contenido online se produce mediante modelos de lenguaje, ¿qué acontecerá cuando estos dispositivos se entrenen a partir de material creado por ellos mismos?
“La respuesta es que la IA no solo alucina, sino que colapsa”, afirmó. Basó su idea en que “si las IA aprenden con contenido generado por ellas mismas de forma repetitiva, dejan de funcionar correctamente”.
“Un amigo matemático me lo explicó”, añadió, y concluyó con una imagen reveladora al mencionar a dos famosos compositores del siglo XVIII: Antonio Salieri y Wolfgang Amadeus Mozart, sobre quienes hay una versión famosa de una relación plagada de envidia y plagio.
“Las IA son máquinas probabilísticas que simplifican en cada ciclo de aprendizaje, perdiendo detalles y matices. Multiplícalo por millones”, finalizó. “Pedir a una IA que componga al estilo de Mozart resultará en una pieza de Salieri intentando recrear a Mozart. Con cada solicitud posterior, se obtendrá algo cada vez más lejano de lo original”.
Eso refleja una decadencia progresiva en los contenidos generados por la propia IA.
