Dos estudios internacionales divulgados este jueves encendieron una fuerte alarma: los chatbots de inteligencia artificial no solo responden preguntas, sino que también pueden influir en las preferencias electorales de los ciudadanos. Las investigaciones (publicadas en Science y Nature) muestran que una interacción de apenas unos minutos con modelos generativos como GPT-4o o DeepSeek bastó para mover la aguja política de miles de participantes.
Los experimentos comenzaron con una encuesta inicial, donde los voluntarios calificaron de 0 a 100 su preferencia por un candidato frente a otro. Luego, los investigadores programaron a los chatbots para intentar persuadir al interlocutor durante una conversación breve. El resultado fue contundente: las opiniones se modificaron de forma medible y significativa.
Resultados en Estados Unidos: efectos discretos pero claros
En Estados Unidos, algunos votantes identificados como partidarios de Donald Trump elevaron su valoración hacia Kamala Harris en casi cuatro puntos después de hablar con la IA. Según los autores, ese cambio no se verificó en el grupo de control, que no interactuó con los chatbots.
Aún más relevante, uno de cada veinticinco participantes dijo que modificaría su voto si la elección fuese ese mismo día.
Canadá y Polonia: variaciones de hasta 10 puntos
Los efectos más contundentes se observaron en Canadá y Polonia, en estudios realizados previo a las elecciones federales y presidenciales de 2025. En estos países, los votantes de la oposición cambiaron su preferencia política entre 8 y 10 puntos, una magnitud que los expertos califican como “sustancial” en términos de impacto electoral.
Según David Rand, autor del estudio y profesor en la Universidad Cornell, uno de cada diez encuestados canadiense o polaco reportó que cambiaría su voto inmediato luego del diálogo con la IA. “Aunque las intenciones no siempre se traducen en el acto de votar, la magnitud del efecto es real y merece atención”, puntualizó.
Cómo persuaden los chatbots
Los investigadores también analizaron las estrategias de persuasión empleadas por los modelos. La más recurrente fue un enfoque argumentativo basado en amabilidad y evidencia, donde la IA intenta convencer apelando a un tono cordial y a supuestas pruebas.
Pero hay un riesgo añadido: en varios casos, los chatbots ofrecieron información incorrecta como fundamento, lo que sumado a su capacidad persuasiva podría distorsionar la opinión pública con datos falsos.
Un riesgo para elecciones reñidas
Ambos estudios advierten que en contextos electorales competitivos (donde pocos puntos pueden definir el resultado) incluso cambios pequeños en las percepciones de los votantes podrían tener un impacto real. Por eso, los autores reclaman un debate urgente sobre el uso de IA en campañas políticas, así como marcos de regulación y mecanismos que garanticen la transparencia y precisión de estas herramientas.


SEGURAMENTE QUE ASÍ SEA Y ES NECESARIO , PERO
¿»QUIEN LE PONE EL CASCABEL AL GATO»?!!!!!!!