Cada vez hay más noticias falsas: no todo lo que se lee en Internet es cierto. El problema es que cada vez es más difícil reconocer la verdad de lo falso y hay evidencia de que lo último viaja más rápido. En los últimos meses se han analizado sus consecuencias en los medios de comunicación, la publicidad e incluso la política. Los modestos primeros resultados ayudan a comprender que la inundación de la falsedad es un recordatorio de que las máquinas nos pueden ayudar a lidiar con noticias falsas, pero sólo si los seres humanos tomamos la iniciativa.
Créditos: Flickr/Marco Verch.

A fines del año pasado, el director en investigación de Inteligencia Artificial Yann LeCun, de Facebook anunció a los periodistas que la tecnología en aprendizaje profundo ayudaría a reconocer noticias falsas. La compañía entonces modificó el feed para suprimir noticias falsas, aunque no está claro su efecto. Poco después del comentario de LeCun, un grupo de académicos, miembros de la industria de la tecnología y periodistas lanzaron su propio proyecto llamado Fake News Challenge para tratar de obtener algoritmos que reconocieran noticias falsas.

Los primeros resultados de ese esfuerzo fueron publicados en este mes. Los algoritmos de los equipos ganadores podrían ayudarán a frenar la desinformación en línea, pero al ser una herramienta aún hay áreas en las cuales debe trabajar.

En la primera tarea planteada por el Fake News Challenge se les pidió a los equipos que hicieran un algoritmo que pudiera identificar si dos o más artículos abordaban el mismo tema, y ​​si lo era, si estaban de acuerdo o en desacuerdo. Los tres primeros equipos fueron de la división de seguridad cibernética de Cisco Talos Intelligence; TU Darmstadt, en Alemania; y el Colegio Universitario de Londres. Cada uno consiguió más del 80 por ciento de una puntuación perfecta en una métrica que otorgó la mayoría de los puntos por el trabajo más desafiante en identificar si dos historias estaban de acuerdo. Los tres utilizaron el aprendizaje profundo, técnica utilizada por Google, Facebook y otros para analizar y traducir texto.

Eso podría no sonar muy relevante para el problema de desmentir mentiras que se esparcen en línea. Pero los organizadores del concurso dicen que, dadas las limitaciones del algoritmo para entender el lenguaje, lo mejor que puede hacer la máquina ahora es ayudar a las personas a rastrear las noticias falsas más rápido. Los algoritmos podrían agrupar artículos para acelerar su detección, evitar que se propague y refutar la desinformación antes de que transcurran 24 horas y sea difícil de contener.

Fake News Challenge planea anunciar más concursos en los próximos meses. Una opción es pedirle a las personas que elaboren un código que pueda capturar imágenes con texto superpuesto. Ese formato ha sido adoptado por algunas personas que crean sitios falsos de noticias para recolectar dólares producto de anuncios publicitarios.

Con el tiempo Fake News Challenge y otros gradualmente ayudarán a generar algoritmos para el análisis de noticias. La tecnología existente no está cerca de tener la capacidad de entender el lenguaje y tomar decisiones que son necesarias. Dar a las máquinas la capacidad de censurar con eficacia cierto tipo de información también tendrá un dilema ético.

También advierte a cualquiera que será definir qué es una noticia falsa: el como reducirla, identificarla o etiquetarla. Los algoritmos serán útiles, pero el progreso real en la comprensión o el control del fenómeno de las noticias falsas es en última instancia una tarea para los seres humanos no para las máquinas.

Referencia:
Tom Simonite,"Humans Can’t Expect AI to Just Fight Fake News for Them", Wired.