Las herramientas de inteligencia artificial generativa, como el chatbot ChatGPT-3, pueden tener un impacto significativo en la forma en que los usuarios de redes sociales reciben información, según un estudio publicado en Science Advances.
El estudio, dirigido por un equipo de la Universidad de Zúrich, utilizó la versión ChatGPT-3 para analizar la capacidad de las personas para distinguir entre tuits generados por humanos y aquellos generados por el chatbot.
Participaron 679 personas en el estudio, y los resultados revelaron que tuvieron dificultades para diferenciar entre ambos.
Además, los participantes también enfrentaron desafíos al determinar qué mensajes generados por la inteligencia artificial eran precisos y cuáles eran inexactos.
Desde su lanzamiento en noviembre de 2022, el uso generalizado de ChatGPT ha generado preocupación sobre la posible propagación de desinformación en línea, especialmente en las plataformas de redes sociales, tal como recuerdan los autores del estudio.
Dado que estas herramientas son relativamente nuevas en la esfera pública, el equipo decidió profundizar en varios aspectos relacionados con su uso. Para ello, reclutaron a 697 personas de habla inglesa en Estados Unidos, Reino Unido, Canadá, Australia e Irlanda, con edades principalmente comprendidas entre los 26 y los 76 años.
El objetivo era evaluar tuits generados tanto por humanos como por ChatGPT-3, que contenían información precisa e inexacta sobre temas como vacunas y autismo, tecnología 5G, covid-19, cambio climático y evolución, que a menudo son objeto de conceptos erróneos por parte del público.
Los participantes tenían la tarea de determinar si los mensajes eran verdaderos o falsos, y si fueron creados por un humano o por ChatGPT-3.
Según los resultados del estudio, las personas fueron más capaces de identificar la desinformación generada por humanos y la precisión de los tuits verídicos generados por ChatGPT-3. Sin embargo, también era más probable que consideraran que la desinformación generada por ChatGPT-3 era precisa.
“Estos hallazgos plantean cuestiones importantes sobre los posibles usos y abusos de ChatGPT-3 y otras herramientas avanzadas de generación de texto de inteligencia artificial, así como las implicaciones para la difusión de información en la era digital”, concluyen los autores del estudio.

