Hola!

Bienvenidos a nuestra App!

Wes Music Radio

24 horas

--:--
--:--

Este chatbot aleja a la gente de las teorías conspirativas


Poco después de que la inteligencia artificial generativa se popularizara, los investigadores advirtieron que los chatbots crearían un grave problema:

a medida que la desinformación se volviera más fácil de crear, las teorías conspirativas se propagarían desenfrenadamente.

Herramienta

Ahora, los investigadores se preguntan si los chatbots también podrían ofrecer una solución.

DebunkBot, un chatbot de IA diseñado por investigadores para “persuadir de manera muy eficaz” a los usuarios de que dejen de creer en teorías conspirativas infundadas, logró un progreso significativo y duradero en el cambio de las convicciones de las personas, según un estudio publicado el jueves en la revista Science.

De hecho, hasta la mitad del público estadounidense cree en teorías falsas y pueden tener consecuencias perjudiciales, como desalentar las vacunas o fomentar la discriminación.

Los nuevos hallazgos desafían la creencia generalizada de que los hechos y la lógica no pueden combatir las teorías conspirativas.

El DebunkBot, construido sobre la tecnología que sustenta ChatGPT, puede ofrecer una forma práctica de canalizar los hechos.

“El trabajo cambia mucho la forma en que pensábamos sobre las conspiraciones”, dijo Gordon Pennycook, profesor de psicología en la Universidad de Cornell y coautor del estudio.

Hasta ahora, la sabiduría convencional sostenía que una vez que alguien caía en la madriguera de las conspiraciones, ninguna cantidad de argumentos o explicaciones podía sacar a esa persona de allí.

La teoría era que las personas adoptan teorías conspirativas para saciar una necesidad subyacente de explicar y controlar su entorno, dijo Thomas Costello, otro coautor del estudio y profesor adjunto de psicología en la American University.

Pero Costello y sus colegas se preguntaron si podría haber otra explicación:

¿qué pasa si los intentos de desacreditarlas simplemente no han sido lo suficientemente personalizados?

Dado que las teorías conspirativas varían tanto de una persona a otra (y cada persona puede citar diferentes piezas de evidencia para respaldar sus ideas), tal vez un guión de desacreditación único para todos no sea la mejor estrategia.

Un chatbot que pueda contrarrestar la afirmación conspirativa de cada persona con montones de información podría ser mucho más efectivo, pensaron los investigadores.

Para probar esa hipótesis, reclutaron a más de 2.000 adultos en todo el país, les pidieron que explicaran una conspiración en la que creían y que calificaran cuánto creían en ella en una escala de cero a 100.

Las personas describieron una amplia gama de creencias, incluidas las teorías de que el alunizaje había sido una puesta en escena, que el COVID-19 había sido creado por humanos para reducir la población y que el presidente John F. Kennedy había sido asesinado por la CIA.

Luego, algunos de los participantes tuvieron una breve discusión con el chatbot.

Sabían que estaban chateando con una IA, pero no sabían el propósito de la discusión.

Los participantes tenían la libertad de presentar la evidencia que creían que respaldaba sus posiciones.

Un participante, por ejemplo, creía que los ataques terroristas del 11 de septiembre fueron un “trabajo interno” porque el combustible para aviones no podría haber ardido lo suficientemente caliente como para derretir las vigas de acero del World Trade Center.

El humo se eleva desde las torres gemelas en llamas del World Trade Center después de que aviones secuestrados se estrellaran contra ellas el 11 de septiembre de 2001 en la ciudad de Nueva York. El fotógrafo de Associated Press, Richard Drew, habla sobre la cobertura de AP del 11 de septiembre y los acontecimientos que siguieron. (Foto AP/Richard Drew)El humo se eleva desde las torres gemelas en llamas del World Trade Center después de que aviones secuestrados se estrellaran contra ellas el 11 de septiembre de 2001 en la ciudad de Nueva York. El fotógrafo de Associated Press, Richard Drew, habla sobre la cobertura de AP del 11 de septiembre y los acontecimientos que siguieron. (Foto AP/Richard Drew)

“Es un error común pensar que el acero tuvo que derretirse para que las torres del World Trade Center colapsaran”, escribió.

“El acero empieza a perder fuerza y ​​se vuelve más maleable a temperaturas mucho más bajas que su punto de fusión, que ronda los 2500 grados Fahrenheit”.

Después de tres intercambios, que duraron unos ocho minutos en promedio, los participantes volvieron a calificar la firmeza con la que se sentían respecto de sus creencias.

En promedio, sus calificaciones cayeron alrededor de un 20%; aproximadamente una cuarta parte de los participantes ya no creían en la falsedad.

El efecto también se extendió a sus actitudes hacia otras teorías poco sustentadas, lo que hizo que los participantes fueran ligeramente menos conspiradores en general.

Ethan Porter, un investigador de desinformación de la Universidad George Washington que no está asociado con el estudio, dijo que lo que diferenciaba al chatbot de otras intervenciones de desinformación era la solidez del efecto.

Cuando se encuestó a los participantes dos meses después, el impacto del chatbot en las creencias erróneas se mantuvo sin cambios.

“A menudo, cuando estudiamos los esfuerzos para combatir la desinformación, descubrimos que incluso las intervenciones más efectivas pueden tener una vida útil corta”, dijo Porter.

“Eso no es lo que sucedió con esta intervención”.

Los investigadores todavía están tratando de averiguar exactamente por qué el DebunkBot funciona tan bien.

Un estudio de seguimiento no publicado, en el que los investigadores eliminaron las sutilezas del chatbot (“Aprecio que se haya tomado el tiempo de investigar el asesinato de JFK”) arrojó los mismos resultados, lo que sugiere que es la información, no el chatbot en sí, lo que está cambiando la mente de las personas, dijo David Rand, un científico social computacional del Instituto Tecnológico de Massachusetts y autor del artículo.

“Son los hechos y las pruebas en sí mismos los que realmente están haciendo el trabajo aquí”, dijo.

Ensayo

Los autores están explorando cómo podrían recrear este efecto en el mundo real, donde las personas no necesariamente buscan información que refute sus creencias.

Han considerado la posibilidad de vincular el chatbot a foros en los que se comparten estas creencias, o de comprar anuncios que aparezcan cuando alguien busque una palabra clave relacionada con una teoría conspirativa común.

Para un enfoque más específico, dijo Rand, el chatbot podría ser útil en la consulta de un médico para ayudar a desacreditar los malentendidos sobre las vacunas.

Brendan Nyhan, investigador de percepciones erróneas del Dartmouth College que tampoco participó en el estudio, se preguntó si la reputación de la IA generativa podría cambiar con el tiempo, haciendo que el chatbot fuera menos fiable y, por tanto, menos eficaz:

“Podemos imaginarnos un mundo en el que la información sobre IA se vea como se ve a los medios de comunicación convencionales”.

“Me pregunto si la forma en que la gente reacciona a estas cosas está potencialmente limitada en el tiempo”.

c.2024 The New York Times Company

Chat
Loading the chat ...

Staff

Activar Notificaciones Si No Gracias