Los bots de IA pueden viciar encuestas electorales y científicas a gran escala
Un estudio revela que la IA puede manipular resultados de sondeos sin ser detectada.
Washington D.C. La irrupción de la Inteligencia Artificial plantea una amenaza silenciosa y potencialmente devastadora para uno de los pilares de la democracia y la investigación social: las encuestas de opinión pública. Una nueva investigación de la Universidad de Dartmouth, publicada en las Actas de la Academia Nacional de Ciencias, demuestra con escalofriantes detalles que la IA puede corromper sondeos a gran escala, imitar a la perfección a un encuestado humano y, lo más preocupante, alterar los resultados sin dejar el menor rastro.
Los hallazgos sugieren que las encuestas de hoy se han vuelto peligrosamente vulnerables. El estudio cuantificó el riesgo con ejemplos concretos: en las siete principales encuestas nacionales de cara a las elecciones de 2024, la simple adición de entre 10 a 52 respuestas falsas generadas por IA, a un coste irrisorio de apenas cinco centavos por respuesta, habría sido suficiente para modificar el resultado electoral proyectado.
El peligro trasciende las fronteras. La investigación comprobó que esta debilidad es fácilmente explotable por adversarios extranjeros: los bots de manipulación funcionan a la perfección incluso cuando son programados originalmente en idiomas como el ruso, mandarín o coreano, generando luego respuestas en inglés impecable.
El "encuestado sintético" que nadie detecta
"Ya no podemos confiar en que las respuestas a las encuestas provengan de personas reales", sentencia Sean Westwood, profesor asociado de gobierno en Dartmouth y director del Laboratorio de Investigación de Polarización, quien lideró la investigación.
Para demostrar la vulnerabilidad, Westwood diseñó una herramienta de IA sorprendentemente simple: un "encuestado sintético autónomo" que opera con una instrucción de apenas 500 palabras.
Los resultados fueron demoledores. En 43.000 pruebas, esta IA superó el 99,8% de las comprobaciones de atención diseñadas para filtrar respuestas automatizadas. No solo eso, sino que resolvía acertijos lógicos sin error y lograba ocultar su naturaleza no humana.
La sofisticación del bot es la clave de su éxito. Podía adaptar sus respuestas a datos demográficos asignados de forma aleatoria; por ejemplo, si se le asignaba un nivel educativo más bajo, generaba respuestas más simples.
"Estos no son bots toscos", insiste Westwood. "Piensan en cada pregunta y actúan como personas reales y cuidadosas, haciendo que los datos parezcan completamente legítimos".
El poder de manipulación es abrumador: cuando el bot fue programado para favorecer a demócratas o republicanos, los índices de aprobación presidencial se dispararon, oscilando entre el 34% y el 98% o el 0%. El apoyo genérico en elecciones se movía del 38% para los republicanos hasta el 97% o tan solo el 1%.
Envenenando el "ecosistema del conocimiento"
Las consecuencias de esta vulnerabilidad van mucho más allá de la política. Las encuestas son un instrumento fundamental para la investigación científica en prácticamente todas las disciplinas, desde la psicología hasta la salud pública. Miles de estudios revisados por pares se basan anualmente en estos datos para formular políticas públicas y avanzar en el conocimiento.
"Con datos de encuestas contaminados por bots, la IA puede envenenar todo el ecosistema del conocimiento", resume el investigador.
Los incentivos financieros para este fraude son innegables. Mientras un encuestado humano cobra alrededor de $1.50 por un sondeo, un bot puede completar la misma tarea de forma gratuita o por cinco centavos. De hecho, el problema ya se está manifestando, pues un estudio reciente de 2024 halló que el 34% de los encuestados ya ha utilizado IA para responder preguntas abiertas.
Westwood probó todos los métodos de detección de IA actualmente en uso y ninguno fue capaz de identificar su herramienta. Su llamado es un SOS: la transparencia es urgente. Las empresas de encuestas deben ser obligadas a demostrar que sus participantes son personas reales.
"Necesitamos nuevos enfoques para medir la opinión pública que estén diseñados para un mundo de IA", concluye Westwood. "La tecnología para verificar la participación humana real ya existe; solo necesitamos la voluntad de implementarla. Si actuamos ahora, podemos preservar tanto la integridad de las encuestas como la rendición de cuentas democrática que proporcionan".
DiarioDigitalRD
DiarioDigitalRD es un medio de noticias generales que se origina en Santo Domingo, República Dominicana. Para contacto 809-616-6354 Cel. 809-980-6500 y 809-6081130. editor@diariodigitalrd.com.
Artículos relacionados
Ventajas y desventajas de integrar inteligencia artificial y computación cuántica
La IA cuántica resolverá problemas imposibles, pero también amenaza con colapsar la criptografía del comercio electrónico y los secretos industriales Santo Domingo.-La integración entre inteligencia…
Cómo detectar una voz falsa: la nueva batalla contra la inteligencia artificial
Expertos alertan sobre estafas con voces sintéticas y enseñan cómo verificar su autenticidad telefónica En un mundo donde la inteligencia artificial ya puede imitar rostros…
Pochy Familia sobre IA: "el arte cogió un rumbo que no estamos preparados"
El líder de la Cocoband advierte que la nueva tecnología amenaza los derechos y el "encanto" de la música Santo Domingo. — La industria musical…