Experimento revela grietas en chatbots Gemini y ChatGPT
Un blog ficticio logró colarse como fuente verídica
Un simple artículo inventado bastó para poner en evidencia una vulnerabilidad inquietante en los sistemas de inteligencia artificial más utilizados del mundo. El periodista tecnológico de la BBC, Thomas Germain, logró que herramientas como OpenAI y el sistema Gemini de Google reprodujeran información completamente falsa, tratándola como si fuera verificada.
La prueba fue tan sencilla como reveladora: Germain redactó en apenas 20 minutos una entrada en su blog personal asegurando que era “el mejor periodista comiendo perritos calientes del mundo”. El texto, titulado “Los mejores periodistas tecnológicos comiendo perritos calientes”, incluía datos inventados, competiciones inexistentes —como un supuesto campeonato en Dakota del Sur— y una lista de profesionales reales y ficticios clasificados por su habilidad para consumir hot dogs.
Menos de 24 horas después de su publicación, tanto ChatGPT como las funciones de búsqueda con inteligencia artificial de Google comenzaron a repetir esas afirmaciones en sus respuestas, incluso citando el blog como fuente confiable.
Cuando la IA busca fuera
El caso pone el foco en un punto crítico: cuando un chatbot recibe una pregunta sobre la que no dispone de suficiente información en su modelo base, suele realizar búsquedas en internet para complementar su respuesta. Es en ese momento cuando puede volverse más vulnerable a datos no contrastados o manipulados.
Los grandes modelos de lenguaje están entrenados con enormes volúmenes de datos clasificados como verídicos. Sin embargo, si encuentran contenido detallado, estructurado y aparentemente legítimo en la web, pueden integrarlo sin advertir que se trata de una invención. En este experimento, la IA no solo replicó la historia, sino que la presentó como un hecho comprobado.
Germain explicó que su objetivo era demostrar cómo, con una narrativa convincente y nombres creíbles, se puede influir en los resultados ofrecidos por sistemas de uso masivo. El resultado dejó en evidencia la fragilidad de los filtros frente a contenidos diseñados con apariencia de autenticidad.
Respuestas oficiales y riesgos latentes
Tras conocerse el experimento, un portavoz de Google afirmó que su sistema de clasificación mantiene los resultados “99% libres de spam”. Por su parte, OpenAI señaló que implementa medidas para detectar intentos de manipulación y exponerlos. Ambas compañías reconocieron, no obstante, que sus herramientas de IA pueden cometer errores.
El periodista también probó otros modelos, como los desarrollados por Anthropic, que mostraron mayor reticencia y advirtieron que la información podría tratarse de una broma.
Más allá de lo anecdótico, el experimento abre un debate profundo sobre la desinformación automatizada. Si una historia trivial puede infiltrarse con tanta facilidad, el impacto potencial en ámbitos como la salud pública, la economía o la política podría ser mucho más grave.
Expertos recomiendan a los usuarios verificar siempre las fuentes citadas por los sistemas de IA y contrastar la información en medios confiables. La rapidez y sofisticación de estas herramientas no sustituyen el pensamiento crítico. La tecnología avanza, pero la responsabilidad informativa sigue siendo, en última instancia, humana. Con datos de Europa Press.
Artículos relacionados
Google democratiza inteligencia personal en Gemini para usuarios gratuitos
Nueva función conecta datos personales y mejora búsquedas con mayor precisión La tecnológica Google ha dado un paso estratégico en la evolución de la inteligencia…
La energía utilizada por ChatGPT en un año es mayor que el de varias naciones
El crecimiento acelerado de la IA plantea desafíos energéticos invisibles para economías digitales La expansión de la inteligencia artificial ya no es una promesa lejana,…
ChatGPT consume energía y mercado mientras desafía a Google
La inteligencia artificial ya maneja 900 millones de usuarios activos cada semana. El ascenso de OpenAI no se detiene, aunque el camino se ha vuelto…