La IA contra las teorías conspirativas

Una investigación ha desarrollado un robot con la IA conversacional para combatir mensajes maliciosos y desinformación utilizando datos. La llegada de 85 solicitantes de asilo huyendo de la guerra a la ciudad sevillana de Alcalá de Guadaira , 75.000 habitantes, desató una campaña de odio, insultos e incitación a la violencia entre los coleccionistas reunidos en las redes sociales esta semana.

Chat de la IA especialmente entrenado

Habría que ahorcarla, escribió el usuario, entre decenas de mensajes insultantes, machistas y amenazantes dirigidos a la alcaldesa, la socialista Ana Isabel Jiménez, que pidió a los vecinos su responsabilidad. La xenofobia basada en mentiras y desinformación ha alimentado canales ávidos de tráfico, controversia, datos y el dinero que conlleva. Intentan construir un dique contra la avalancha de residuos digitales, uno del CCI europeo señala que negar es más eficaz que prevenir y el segundo, publicado el jueves en la revista Science, defiende este diálogo con una inteligencia artificial IA máquina. Es capaz de ayudar a mitigar la manipulación y desinformación. Mucho preguntaron si la inmigración incrementa la delincuencia, y la respuesta es que no, todo lo contrario.

Un chat de inteligencia artificial especialmente entrenado para combatir teorías conspirativas y estafas Debunkbot.com, desarrollado por investigadores del Instituto Tecnológico de Massachusetts, MIT y la Universidad de Cornell, ahora funciona y puede responder en español, aunque la interfaz está en inglés. Cuando se le pregunta sobre el vínculo entre migración y delincuencia, primero responde con empatía, aprecia la pregunta y entiende que se trata de un tema actual, para inmediatamente brindar información que pueda ofrecer una perspectiva diferente. A continuación se muestra un resumen de las respuestas.

Diversas investigaciones, en la versión en español, citando al Journal of Ethnicity in Criminal Justice, demuestran que consientemente los inmigrantes hacen menos delitos a comparación a los ciudadanos nativos. Por ejemplo, el Instituto Cato, que lleva a cabo investigaciones no partidistas, ha descubierto que tanto los inmigrantes legales, documentados, como los ilegales, indocumentados,  tienen bajas tasas de encarcelamiento, significativamente más que los estadounidenses nativos. Además, los datos sobre criminalidad del FBI muestran que en áreas con grandes poblaciones de inmigrantes, es más probable que las tasas de criminalidad disminuyan o se estabilicen a que aumenten, añadió.

Conversaciones personalizadas utilizando la IA pueden combatir las teorías de la conspiración

Esto puede parecer contradictorio al principio, pero una posible explicación es que los inmigrantes a menudo estimulan el crecimiento económico, abren nuevos negocios y aumentan la vitalidad de la comunidad, lo que puede conducir a menores tasas de criminalidad. El diálogo es más complejo y largo pero la máquina no decepciona y responde a cualquier sesgo con datos. Según el Foro Económico Mundial, el fraude, las mentiras difundidas independientemente del propósito del engaño, desinformación y la información deliberadamente distorsionada con fines de manipulación y desinformación se encuentran entre las mayores amenazas del mundo.

Bill Gates, el cofundador de Microsoft, estima que los jóvenes son notablemente vulnerables, y un conjunto de expertos de varias universidades e instituciones de investigación firman un informe ético sobre inteligencia artificial, IA, para Google DeepMind, advirtiendo sobre este fenómeno, también tienen ideas similares. Esta herramienta puede convertirse en un arma para ayudar a crear y difundir mentiras. Sin embargo, Thomas Costello, profesor de psicología de la American University, Washington,  e investigador del Instituto Tecnológico de Massachusetts, cree que las conversaciones personalizadas utilizando IA pueden combatir las teorías de la conspiración y que los estafadores son más efectivos que los humanos, gracias al tipo de desinformación que se les atribuye.

Esta táctica por parte de villanos poderosos, grupo para lograr un objetivo malicioso y oculto. Los modelos de IA tienen acceso a mucha información sobre diferentes temas, han sido entrenados y, por lo tanto, pueden contrarrestar hechos con teorías específicas en las que la gente cree, dijo. Cambiar. Contrariamente a la visión pesimista, una conversación relativamente breve con un modelo general de IA puede conducir a una disminución significativa y significativa de la confianza, incluso entre aquellos que tienen una confianza profunda, afirmó.

Cuentas de redes sociales

Como explica el estudio, hasta el 50 % de la población estadounidense cree en algunas de estas falacias, a pesar de la evidencia, debido a procesos psicosociales que satisfacen, apoyan y perpetúan los prejuicios. pertenece a un cierto grupo de ideas similares. Los resultados del ensayo aún abierto muestran que las falsas creencias se redujeron en un 20 % y que los beneficios del diálogo persistieron durante al menos dos meses después de la conversación para todas las posibles mentiras analizadas, además de todos los grupos demográficos. Conforme a David Rand, investigador de ciencias cognitivas del Instituto de Tecnología de Massachusetts y uno de los autores del estudio.

Descubrimos que el chat a menudo hace que las personas sean menos propensas a involucrarse en conspiraciones, y es más probable que las personas ignoren, bloqueen cuentas de redes sociales, dejen de compartir conspiraciones o eviten conversaciones con otras personas que defienden estas teorías. Funciona, enfatizó Rand. Gordon Pennycook, profesor de psicología de la Universidad de Cornell y coautor del estudio, está de acuerdo, aunque admite que aún queda trabajo por hacer. Podemos utilizar estas herramientas de IA para mejorar la situación, pero realmente necesitamos entender la psicología básica detrás de esto.

Fueron 2.190 personas las que participaron en el chat y un revisor independiente confirmó que el 99,2 % de las respuestas automáticas eran genuinas frente al 0, 8 % clasificadas como engañosas. Ninguno de ellos es considerado falso ni tiene inclinaciones progresistas o conservadoras. Bence Bago, profesor de ciencias sociales y del comportamiento en la Universidad de Tilburg, Países Bajos  y Jean-François Bonnefon, director del programa IA y Sociedad de la Facultad de Economía de Toulouse Francia, defienden conjuntamente la propuesta en la que participaron evaluada. Para bien o para mal, la inteligencia artificial cambiará profundamente nuestra cultura.

Usos positivos de la persuasión de la IA

La IA es una amenaza. Aunque esta investigación ha sido ampliamente criticada como una forma de aumentar el sesgo de información, este estudio muestra el potencial para usos positivos de la persuasión de la IA. Esta capacidad de persuadir contrasta con los riesgos que los investigadores que participan en el informe ético de Google encontraron en las soluciones basadas en grandes modelos lingüísticos y destinadas a un uso general.

Según los autores, los asistentes avanzados de IA plantean cuatro amenazas principales al ecosistema de la información. En primer lugar, pueden hacer que los usuarios sean más vulnerables a la desinformación si las personas desarrollan relaciones de confianza con estos sistemas y los ven acríticamente como fuentes de información confiables.

En segundo lugar, pueden proporcionar a los usuarios información sesgada o ideológicamente sesgada en un intento de satisfacer sus expectativas y reforzar ciertas ideologías y sesgos, lo que amenazaría un debate político saludable. Y en tercer lugar, los asistentes de IA podrían socavar la confianza del público en el conocimiento compartido al facilitar la difusión de grandes cantidades de información que parece confiable pero es de baja calidad. Por último, pueden facilitar campañas de desinformación muy específicas al proporcionar a los propagandistas formas nuevas y encubiertas de manipular la opinión pública.

Este grupo de expertos, liderado por la investigadora de Google DeepMind Nahema Marshall, propuso varias soluciones. Desde una perspectiva técnica, debemos limitar la funcionalidad de los asistentes de IA, desarrollar detectores de mentiras fiables como el recientemente creado Debunkbot y promover resultados basados ​​en el pensamiento crítico y los hechos verificados. En el ámbito político, el grupo propuso limitar las propuestas éticas, introducir mecanismos de transparencia y desarrollar fórmulas educativas.

Efectividad relativa

De manera similar al engaño, un grupo de investigadores del Centro Común de Investigación, JRC  de la Comisión Europea propuso otro curso de acción, que sería probar la efectividad relativa de diversas clases de intervenciones para mitigar la desinformación. El estudio, publicado en la revista Scientific Reports, presenta los resultados de un experimento en el que participaron 5.228 participantes de Alemania, Grecia, Irlanda y Polonia.

Los participantes hallaron información errada con respecto al cambio climático y el Covid-19. Un grupo recibió los datos antes de verse expuesto a información errónea y advertido sobre estrategias de fraude comunes. Los participantes restantes recibieron una intervención de seguimiento de divulgación de mentiras después de que la mentira fue compartida.

El estudio concluyó que los resultados confirman la susceptibilidad a la desinformación y muestran que la negación es ligeramente más eficaz que el prejuicio. La divulgación de las fuentes de las intervenciones no afectó significativamente su eficacia general, pero se constató que rechazar las fuentes reveladas, en este caso, la Comisión Europea fue considerada garantía de autenticidad, es menos eficaz para desacreditar la información  inexacta entre los participantes con bajos niveles de confianza en la Unión Europea.

Compartir noticia: