La desinformación y las fake news constituyen hoy en día una de las principales amenazas para la libertad de información y el pensamiento crítico de la sociedad. En épocas de gran incertidumbre, como la derivada de la pandemia del COVID-19, las fake news pueden llegar a tener consecuencias aún más graves, al diseminar informaciones falsas o bulos que pueden poner en peligro la salud de los ciudadanos.
Definir el concepto
Ahora bien, ¿qué son las fake news? ¿Puede ser simplemente una noticia mal fechada o deben contener información sesgada o no verificada? Este es el principal dilema con el que nos encontramos y que dificulta su identificación: no existe aún un consenso al respecto y, además, es un concepto que se ve afectado por muchos sesgos relacionados con las creencias o ideologías personales.
¿Cómo podemos superar estos sesgos? Actualmente ya se están empezando a utilizar modelos de procesamiento del lenguaje natural para detectar fake news de forma más rápida y lo más objetiva posible. El procesamiento del lenguaje natural o NLP por sus siglas en inglés es una rama de la inteligencia artificial que ayuda a las computadoras a entender, interpretar y manipular el lenguaje humano.
Producción de texto casi humano
El procesamiento del lenguaje natural comenzó inicialmente como un método básicamente para contar palabras y determinar cuántas o cómo aparecen. A partir de aquí se empezaron a incorporar técnicas lingüísticas que derivaron en el desarrollo de diccionarios. Es a partir de 2013 cuando se produce una auténtica revolución en este ámbito, ya que se empiezan a procesar grandes volúmenes de datos apoyándose, por ejemplo, en el deep learning, permitiendo que los algoritmos aprendieran de toda esta información sin la necesidad de generar diccionarios. Hoy en día el potencial del procesamiento del lenguaje natural se sustenta tanto en el volumen de datos disponibles como en su potencia de cálculo.
“Las aplicaciones más innovadoras del procesamiento del lenguaje natural están actualmente relacionadas con GPT-3, un algoritmo de machine learning muy potente y bastante complejo, que en base a textos de entrada genera textos de salida, y que ha supuesto una auténtica revolución en el sector. Este algoritmo se está utilizando para traducir textos de un idioma a otro, para autocompletar textos, crear historias en videojuegos, en chatbots e incluso para programar en distintos lenguajes”, explica Néstor Álvaro, experto en NLP y fundador de Spain-AI.
Además de estas aplicaciones, las más comunes siguen siendo el sentiment analysis, la extracción de distintos elementos de un texto o entender cómo éstos se relacionan entre sí.
En el caso de las fake news, hasta ahora los modelos de procesamiento del lenguaje natural se creaban de forma muy manual, lo que implicaba que la validación fuera muy efectiva pero muy lenta. Actualmente, es posible entrenar algoritmos de inteligencia artificial para que puedan aprender cuáles son los patrones o elementos que aparecen en las fake news y, a partir de ahí, sean capaces de detectarlas. ¿Cuál es la principal barrera con la que se encuentran? Los datasets de noticias falsas y fiables con los que se entrenan los algoritmos deberían estar consensuados por un número suficiente de personas para evitar sesgos.
“Existen tres ventajas claras en la aplicación de la IA a la detección de fake news. En primer lugar, permite una mayor velocidad de procesamiento, procesando la información de miles de noticias en cuestión de minutos. En segundo lugar, no sólo da un veredicto de si la noticia en cuestión es o no fake news sino que aporta un conjunto de valores adicional, por ejemplo, la carga ideológica de la noticia, el tono o sentiment, o incluso ofrece la posibilidad de revisar la hemeroteca para encontrar noticias similares. Y, por último, pero lo más importante es que es capaz de evitar sesgos al tratar la información de forma imparcial siempre y cuando el algoritmo haya sido bien entrenado, por lo que no se debería dudar de su objetividad”, añade Néstor Álvaro.
En cuanto a los retos a los que se enfrenta el procesamiento del lenguaje natural para detectar fake news, destaca la necesidad de una estandarización. Hay distintas dimensiones para valorar si una noticia es o no fake news, como pueden ser el sujeto o el tono. Establecer cuáles son esas dimensiones a evaluar sería el primer paso. Por otro lado, quién asume la responsabilidad de establecer la fiabilidad de una noticia y explicar los criterios en los que se basa son otros dos elementos en los que habría que trabajar.
Si bien es cierto que actualmente aún es necesario el elemento humano, una vez se llegara a obtener un dataset con un acuerdo suficiente sobre qué son y qué no fake news, sería posible prescindir de él en este proceso, consiguiendo así una mayor objetividad e independencia. Aunque, lo cierto es que, dada la complejidad requerida para generar ese dataset, siempre se prefiere una mínima supervisión humana para asegurar que el algoritmo de IA se mantenga fiable. Esta intervención humana también permitirá controlar en qué momento se deberán reentrenar los algoritmos, ya que conforme pasa el tiempo las afirmaciones pueden variar, y este es también otro elemento a considerar en la generación de un algoritmo IA fiable capaz de detectar fake news, ya que deberá incorporar nueva información de manera que no se queda obsoleto y continúe aprendiendo.
¿Quieres conocer más sobre el procesamiento del lenguaje natural?