Estudio revela que la IA resultó ser un 82% más persuasiva que los humanos

Foto: Depositphotos.com

Ginebra.- Un nuevo estudio reveló que redes neuronales de la Inteligencia Artificial pueden convertirse en una poderosa herramienta de persuasión a esta conclusión llegó un equipo internacional de científicos de Suiza e Italia en un experimento donde se demostró que son mucho más eficaces en una discusión que los humanos, sobre todo si tienen acceso a datos personales.

En el experimento realizado con 820 voluntarios que tenían que discutir por parejas entre sí o con el chatbot GPT-4 sobre temas delicados, como la desigualdad de género y racial o la situación geopolítica en el mundo, y luego registrar los cambios en sus posturas. Así, se mantuvieron más de 200 debates en parejas, entre un humano y la inteligencia artificial. En la primera fase, los interlocutores no sabían nada el uno del otro, pero después los científicos proporcionaron a uno de los humanos o al ‘chatbot’ datos sobre el interlocutor: sexo, edad, raza, educación, situación laboral y creencias políticas, resultando que, en ambas etapas, la inteligencia artificial mostraba una mayor capacidad de persuasión que los humanos. «Nuestros resultados muestran que, de media, los LLM (modelo de lenguaje grande, siglas en inglés) superan significativamente a los participantes humanos en todos los temas y grupos demográficos, mostrando un alto nivel de persuasión», destaca el estudio.

Cabe señalar que, sin acceso a los datos personales, el GPT-4 tuvo un 21 por ciento más de éxito en los argumentos que los humanos, pero con la información adicional, superó a sus oponentes de carne y hueso en persuasión en un 81,7 por ciento. Al mismo tiempo, se observa que los datos adicionales solo se lo pusieron más difícil a los humanos, empeorando ligeramente sus resultados.

A este respecto, los expertos han observado en particular que GPT-4 es capaz de utilizar información personal de forma mucho más eficaz que los humanos para persuadir en las conversaciones. Esto es especialmente preocupante en el contexto del posible uso de ‘chatbots’ por parte de actores maliciosos para campañas de desinformación a gran escala. «Sostenemos que las plataformas en línea y los medios sociales deberían considerar seriamente estas amenazas y ampliar sus esfuerzos para aplicar medidas que contrarresten la propagación de la persuasión impulsada por los LLM», advirtieron los expertos. (FRANCISCO ÁGARES)