Contenidos
El proyecto europeo HYBRIDS, coordino desde España, combinará el empleo de redes neuronales artificiales con el conocimiento estructurado de especialistas y expertos que estudiarán cómo detener las “fake news”, la polarización de los medios, el acoso a las minorías o el discurso del odio en la Web.
Frenar las noticias falsas con HYBRIDS
Las noticias falsas o “fake news” avanzan rápidamente, mucho más veloz que la información contrastadas y veraz. Se trata de una carrera contrarreloj muy difícil del ganar en la que la inteligencia artificial (IA) puede representar un buen impulso.
Todo esto es lo que va a explorar en los venideros años el programa HYBRIDS. Es un proyecto europeo que tratará de ahondar en técnicas de aprendizaje profundo para intentar detener los bulos y las noticias falsas en Internet. Además de detener el “hiperpartisanismo” de ciertos medios, el acoso a las minorías y la proliferación de los discursos de odio en las redes sociales.
El HYBRIDS consiste en una iniciativa internacional que está siendo financiada con 2,9 millones de euros por el programa de investigación e innovación Marie Sklodowska-Curie Doctoral Networks perteneciente a Horizonte Europa de la Comisión Europea. En el se incluyen once subproyectos distintos de investigación acerca de la desinformación, dos de los cuales están dirigidos hacia las “fake news”.
El objetivo principal del proyecto es hallar modelos y arquitecturas que proporcionen mayor confianza con relación a los sistemas de procesamiento natural del lenguaje fundamentados en la IA. La intención es poder generar nuevos sistemas de interpretación neurosimbólica, lo que los expertos denominan inteligencia híbrida.
Formación de personal altamente calificado en metodologías híbridas
Hasta los momentos, no se han llevado a cabo muchas investigaciones en este campo. Desde HYBRIDS manificestan que estos se debe a la difucultad para hallar personal de alta cualificación en este tipo de disciplinas, tradicionalmente tan alejadas como las ciencias sociales, la ingeniería informática, las ciencias políticas, la comunicación o la lingüistica. Con esta red doctoral además se busca contribuir a la formación de esta clase de perfiles en metodologías híbridas.
Pablo Gamallo es el investigador que está a cargo de la iniciativa HYBRIDS, es un experto en lingüística computacional de la institución que lleva el liderazgo desde España, el Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela (CiTIUS).
También están participando otros 6 países de Europa, a saber, Alemania, Italia, Francia, Portugal, Reino Unido y Países Bajos, incluyendo 6 universidades, 3 centros de investigación, un par de fundaciones y 3 compañías privadas. En España la compañía de “fact checking” Newtral participa en el consorcio.
Controlar lo que ocurre en las cajas negras de la inteligencia artificial desde HYBRIDS
Gamallo explicó que, la detección de la desinformación en sus distintas manifestaciones es un asunto muy delicado y sumamente complejo. Y que por ello, desean encontrar métodos de IA que les permitan introducir conocimiento de dominio experto y más estructurado que el ser humano para poder controlar lo que sucede dentro de esas cajas negras, adentro de estos sistemas de inteligencia artificial que son difícilmente interpretables, agregó.
Y que, ellos creen en la hibridación también de perfiles técnicos y no técnicos. Gamallo además dijo que algunos subproyectos estarán más direccionados hacia la creación de las herramientas, mientras que otros estarán enfocados hacia la construcción de los conocimientos que se requieran para que las herramientas puedan funcionar bien, añadió el investigador.
De acuerdo con lo aclarado por el responsable de HYBRIDS, los subproyectos estarán centrados únicamente en medios de comunicación escritos y en las redes sociales basadas en texto. No está planteado ninguno que trabaje con audios o con vídeos.
¿Cuáles son las limitaciones de la inteligencia híbrida?
Según el investigador, en la actualidad el estado de arte de la inteligencia artificial estaría conformado, sobre todo, por sistemas que aprenden desde muchos datos, aunque con mucha fuerza bruta, redes neuronales de altísima calidad.
No obstante, explicó Gamallo que la idea es utilizar los mejores sistemas del momento introduciendo además conocimiento más estructurado o simbólico. Lo que significa que, puede ser preciso conocer cuáles son los hechos verdaderos en cada dominio. Y saber cuáles son los argumentos y las premisas para poder detectar si algo es verdadero o veraz.
Al juntar estos dos sistemas, el estructurado (o “deep learning”) y el neuronal, llegarán a los métodos neurosimbólicos que resultan bastante emergentes y de los que no hay mucho publicado, agregó el lingüísta computacional.
¿Cómo diferenciar un hecho factual de un opinión?
Por otro lado, la estructuración de los datos tampoco es que sea una tarea muy sencilla o inamovible. Ya que cada temática tiene sus propias particularidades. En primer término, es preciso diferenciar entre lo que es un hecho factual y lo que es opinión, explicó Gamallo.
Se va a los datos que son considerados por especialistas como veraces. Hay que hallar cuáles son las premisas de las que se parten para que un argumento resulte correcto, aclaró el experto. Además se puede investigar en asuntos de discurso más ligadas con la cohesión o la coherencia, agregó.
El lingüista computacional reconoció que, si ya para una persona diferenciar entre hechos factuales y opiniones resulta bastante complejo, aun puede resultarle más difícil a una máquina. Con que solo hecho de que la definición de lo que es verdadero o cierto se haya estremecido en los últimos años con la llegada de la pandemia por covid-19, una situación compleja en la cual la información sesgada proveniente de ciertos organismos oficiales y la publicación de investigaciones científicas que se contradecían tan rápido las unas a las otras pusieron en jaque este concepto.
El papel del idioma y la cultura en la iniciativa HYBRIDS
Como es el caso de HYBRIDS que es una iniciativa internacional, que contemplan más de media docena de países, cada una de ellas funcionará en base a diferentes lenguas, se espera que dos por país. Sin embargo, Pablo Gamallo piensa que no habrá diferencias importantes en este sentido y que serán abordadas cuestiones generales.
Considerando el momento geopolítico actual, además podrán producirse sesgos asociados con la verdad, de acuerdo con las informaciones o datos estructurados que provengan de bloques como China, Rusia o los Estados Unidos, por ejemplo.
Para Gamallo esos asuntos los tiene que decidir el investigador de cada subproyecto, quien deberá considerar también lo que tiene más veracidad y lo que no.
El responsable de HYBRIDS explicó que, si se están refiriendo a “fact checking”, existen 3 cosas que se deben tener en consideración. Un primer proceso, como se dijo anteriormente, es identifica si a partir de muchos textos una cosa es factual u opinativa.
Luego, dijo Gamallo, se necesita tener fuentes fiables, las cuales proporcionen hechos que sean veraces y es donde deben haber especialistas o utilizarse bases de datos o recursos que la Unión Europea establezca como fiables, aunque es cierto que en este punto hay un grado de subjetividad inmenso.
Y el tercer proceso consistiría en comparar los hechos identificados en los documentos que se están procesando con dichas bases de datos o dichos recursos donde se hallan los hechos considerados veraces, explicó Gamallo.
El sarcasmo o la ironía
La clave estaría en los perfiles que trabajen en comunicación o “fact checkers”, que serían los encargados de dictaminar cuáles son los recursos informativos más fiables. No obstante, continuamos en el mundo de la subjetividad, agregó.
Según Gamallo, otro desafío en la identificación de la desinformación en sus distintas manifestaciones y de actitudes contrarias a las prácticas democráticas es el empleo de una cosa tan característica en el lenguaje (y sobre todo en determinadas culturas) como es el caso del sarcasmo o la ironía. Una cosa que se escapa con frecuencia a sistemas automatizados como los que usan las redes sociales para censurar ciertas publicaciones o comentarios.
Con relación a este punto, el proyecto no ha centrado la atención en este aspecto. Gamallo reveló que, es donde más falla la IA en sus métodos actuales. Está bastante claro que los subproyectos van a tener que considerar estos asuntos como algo tangencial, aunque ninguno de ellos aborda esto en exclusiva.
En cuanto a Chat GPT
En el momento en que se puso en marcha la iniciativa HYBRIDS hace algunos meses, ChatGPT (de OpenIA) todavía no estaba a disposición del público general y la inteligencia artificial generativa aún no había eclosionado. El investigador reconoce que, en parte, ChatGPT les ha hecho replantearse sus estudios, debido a que no estaba previsto cuando lo redactaron.
Pablo Gamallo subrayó que, en el caso del equipo que dirige, para HYBRIDS en concreto ChatGPT supone más bien una amenaza que una ayuda. Es posible que este y otros modelos parecidos se usen para difundir “fake news”. Por tal razón, va a haber desinformación difundida por personas y otra por máquinas. Y esta última ya existe, aunque no con tanta inteligencia. La identificación de noticias falsas distribuidas por robots hiperinteligentes va a representar uno de los desafíos, aseguró.
Los modelos de lengua
Gamallo, sin embargo, matizó que otra cosa es la tecnología que está detrás, los grandes modelos de lengua. Aseguró que esos sí pueden significar un apoyo para su trabajo, debido a que los van a usar para construir los sistemas de detección de desinformación.
El investigador destacó como hasta ahora se utilizaba la inteligencia artificial para manipular a los usuarios en las redes sociales en eventos como elecciones. Con el uso de métodos un poco rudimentarios, por medio de bombardeos a ciertos perfiles muy concretos con memes o a través de información susceptible de cambiar la opinión de dicho grupo de usuarios.
Dijo que de esa manera era como funcionaba anteriormente, pero con estos chats con mayor capacidad se podrá hacer cosas mejores desde el punto de vista de la desinformación. Y que ahora estará a la mano de cualquier persona tener un Cambridge Analytica en casa.
Pablo Gamallo concluyó que, HYBRIDS es una iniciativa que recién está arrancando y que concluirá en el año 2026. El objetivo es que las innovaciones que resulten del proyecto sean distribuidas como software y recursos libres. Aunque eso no impediría que surja alguna “spin off” que pueda ser comercializada.