Investigadores suizos y europeos trabajan en algoritmos para detectar la información errónea que circula en las redes sociales. Pero es un esfuerzo que debe avanzar despacio, ya que entrenar a máquinas para esta tarea no es nada simple.
La desinformación llegó a los titulares internacionales en 2016 y alcanzó la cita cuando se habló de que algunas noticias falsas publicadas en Facebook habrían ayudado a Donald Trump a llegar a la Casa Blanca. Tras negar inicialmente la influencia que esta información falsa habría tenido en los votantes, la red social más importante del mundo lanzó un programa piloto para limitar la diseminación de este de noticias erróneas en la red.
Y no es un esfuerzo aislado. Actualmente, desde gigantes como Facebook y Google hasta solitarios nerds tecnológicos, toman cartas en el asunto. Pero quienes comenzaron a estudiar el crecimiento de la desinformación mucho antes del inesperado triunfo del republicano en las elecciones de EEUU evidenciaron que luchar contra las noticias falsas será una batalla ardua y compleja.
“Se trata de una carrera entre máquinas y personas fabricando (información falsa) por diversión, dinero o porque así conviene a su agenda política”, dice Kalina Bontcheva, profesora de la Universidad de Sheffield en el Reino Unido.
El trabajo realizado por científicos informáticos como Bontcheva y por organizaciones noticiosas, como swissinfo.ch, revelan lo difícil que es frenar de forma eficaz en las redes sociales la difusión de mentiras e información distorsionada.
Detectando falsa información
El fundador y Director General de Facebook, Mark Zuckeberg, anunció recientemente un plan para atajar la diseminación de noticias falsas en esta red social. Su propuesta incluye “una detección más rigurosa… capaz de mejorar nuestra habilidad para clasificar la información amañada”. Bontcheva compara este esfuerzo tecnológico con el que se hizo en el pasado por filtrar los emails que son basura (spam). Pero añade que su poder puede ser limitado.
Noticias falsas “hechas en Suiza”
Los portales informativos dedicados a la difusión de noticias falsas también están surgiendo en Suiza, pero aún son pocos y, en opinión de Linards Udris, sus seguidores y alcance también son limitados. Una posible razón es la talla del país.
Para aquellos que quieren hacer dinero (difundiendo noticias falsas), no es posible lograrlo en Suiza dado el tamaño, relativamente pequeño, de su mercado informativo doméstico, dice el investigador de la Universidad de Zúrich.
Otro factor potencial, añade, es la diversidad política que hay en Suiza, ya que el partidismo acentuado es una de las características de muchos de los sitios de noticias falsas, por ello proliferan más en países como EEUU.
Udris advierte, no obstante, que la polarización crece en Suiza y mientras más gente obtenga de las redes sociales las noticias que difunde, los expertos tendrán que estar más atentos a lo que se difunde y las implicaciones que tiene la propagación de información falsa.
“Los sitios web que surgen para difundir noticias falsas con objeto de monetizarlas son fáciles de identificar. Los más difíciles son aquellos que reivindican agendas ocultas, porque su trabajo y proceder es mucho más sutil”, añade.
Bontcheva encabeza un proyecto de investigación que intenta resolver este desafío. Fundado por la Comisión Europea bajo el nombre de ‘Pheme’, reúne a expertos en tecnología, a especialistas universitarios y a swissinfo.ch en la tarea de trabajar conjuntamente para crear tecnologías capaces de ayudar a los periodistas a identificar y verificar este tipo de informaciones inexactas o erróneas.
“Estamos intentando utilizar numerosos rumores del pasado como material de entrenamiento para la máquina que aprende algoritmos. Y estamos probando modelos que buscan detectar las opiniones de los usuarios -sobre una declaración determinada- para determinar qué tan probable es que sean ciertas o falsas”, dice Bontecheva.
No todas las herramientas serán igualmente útiles
Además de los esfuerzos ya anunciados de Facebook y Google para frenar la difusión de noticias falsas a través de sus sitios, expertos en tecnología están intentando, por su parte, luchar contra la desinformación a través de la red. Entre las posibles soluciones que han surgido, a partir de la importancia que adquirieron noticias falsas a finales del 2016, se creó una herramienta llamada “BS Detector”, desarrollada por tecnólogos estadounidenses. Daniel Sieradski, su creador, expresó recientemente a la prensa que creó un complemento (plug-in) capaz de identificar “en menos de una hora” qué fuentes de información son “cuestionables” en los portales informativos.
Un método que parece similar a los detectores de spam, dice el científico de la EPFL, Pierre Vandergheynst, pero advierte que esta herramienta tiene debilidades.
Para que dicho complemento sea eficaz “es necesario disponer de una lista que incluya a todos los portales de noticias que podrían, potencialmente, emitir información falsa”. Y aun así, esta herramienta podría errar en la detección de rumores iniciados por usuarios de redes sociales distintas a las que están en el listado, especialmente si la información es retomada por la prensa convencional, lo que permitiría la propagación de información falsa sin que el “filtro” cumpla con su función.
Las máquinas aprenden lentamente
Y aunque puede sonar simple, no lo es. Entrenar máquinas para arrojar un resultado claro y contundente sobre si un texto debe ser creíble, o no, es una tarea compleja. “Los científicos deben combinar enfoques, dilucidar la información que aparece en las redes sociales y establecer patrones que les ayuden a determinar si el contenido individual de cada mensaje es fiable o cuestionable”, explica el científico de datos Pierre Vandergheynst.
“Es una nuez que nadie ha cascado aún”, metaforiza el profesor de la Escuela Politécnica Federal de Lausana (EPFL), quien está a cargo de estudiar cómo la información evoluciona en plataformas como Wikipedia. “Un ser humano puede leer un texto y decidir si debe confiar en él, o no, pero una máquina no cuenta el razonamiento cognitivo que permite realizar este proceso”.
Bontcheva admite que el desarrollo de esta tecnología está aún en fase preliminar.
“Han sido tres años de experimentación y todavía estamos lejos del nivel de fiabilidad que necesitamos”, refiere.
Pero cree que los investigadores de Pheme han avanzado sensiblemente con respecto al punto del que partieron.
“La tecnología está mejorando y nosotros utilizamos la más avanzada”, dice y añade que los socios del proyecto también han aportado una gran cantidad de información de campo. “Cuando empezamos, no había muchos rumores en las redes sociales (para usarlos como datos de entrenamiento)”.
De hecho, la escasez de información y la falta de acceso a los datos que manejan Facebook y otras redes sociales han sido, a menudo, un problema para los investigadores. Pero los gigantes tecnológicos se enfrentan a sus propios retos, pues tienen cuesta arriba la tarea de desarrollar sistemas capaces de identificar contenidos sospechosos debido al volumen casi infinito de mensajes que se comparten cada día a través de sus plataformas.
Censura
Otro problema por resolver es cómo conservar la confianza de los usuarios en un sistema que decide aquellos artículos que son presumiblemente falsos.
“Las empresas tecnológicas deberán ser totalmente transparentes todo el tiempo con respecto a los criterios que determinan que una información se considere falsa en un sitio de noticias”, dice Linards Udris, experto en medios de comunicación por la Universidad de Zúrich.
Bontcheva coincide con esta visión. Considera que, para evitar ser acusado de censura, Facebook podría ofrecer a los usuarios la posibilidad de ver contenidos cuestionables en una pestaña separada, como se refirió, reproduciendo un esquema semejante al del spam de los correos electrónicos. La información estaría disponible para el usuario si quiere acceder a ella, pero no formaría parte del resto del flujo de emails que recibe. Sin embargo, y por el momento, Facebook está optando por un enfoque distinto: un programa piloto que marcará algunas noticias como “cuestionables”, como advertencia para los usuarios que quieran compartirlas.
El riesgo de caer en procesos de censura también limita a los estados para atajar la información falsa. Udris considera que no hace sentido introducir una nueva legislación porque las leyes de difamación, al menos en Suiza, permiten tratar los casos de afirmaciones falsas o incendiarias que afectan a personas o grupos específicos. Pero los gobiernos podrían dirigir su atención hacia otros derroteros.
“Las empresas tecnológicas gozan de pocos incentivos comerciales (para limitar las noticias falsas)”, dice Udris, subdirector del Instituto de Investigación para la Esfera Pública y la Sociedad (fög). Cuando estas noticias se vuelven virales, les generan ingresos a sus portales en línea. Los gobiernos podrían pues ofrecer exenciones fiscales a las empresas que tomen las medidas necesarias para evitar que las informaciones falsas se propaguen.
El factor humano
Pero también es necesario involucrar a otros actores. Facebook busca alternativas para integrar a sus usuarios a este proceso, así como a organizaciones especializadas en la confirmación de datos, cuya experiencia sería útil para identificar la información falsa que circula en la red. Los periodistas, por su parte, también juegan un rol importante en la cruzada para desarticular la información falsa.
“Un gran problema se presenta cuando sitios de información legítima retoman una nota falsa y la difunden, ya que a partir de ese momento adquiere un sello de autenticidad. Éste ciclo debe romperse”, dice Pierre Vandergheynst.
Con medios de comunicación enfrentando recortes en sus recursos para mantenerse al flote, a Udris le gustaría ver “un debate más amplio y profundo sobre cómo puede incentivarse el buen periodismo en la sociedad”. Y la información pública es fundamental, añade.
“(La información pública) es un pilar importante, el sitio en donde la gente debe encontrar información diversa, verificada y de alta calidad”, dice.
En su turno, los usuarios de la web también tienen responsabilidad. Deben convertirse en consumidores de información más cuidadosos y exigentes. Udris destaca estudios que muestran que, según encuestas serias, menos de la mitad de la gente que difunde noticias obtenidas de las redes sociales pone atención en la fuente que las originó.
“Se necesita un pensamiento crítico”, dice y sugiere que hace falta una mayor educación sobre las redes sociales para los jóvenes pues, según un estudio reciente realizado por el Instituto Reuters, este grupo es el más proclive a consumir noticias provenientes sobre todo de las redes sociales.
Sin embargo, y pese a los esfuerzos que realicen diversos actores sociales, la difusión de información falsa no podrá ser detenida del todo, advierte Udris y deja claro que no deben esperarse milagros en el corto plazo.
“Los rumores son parte de la naturaleza humana”, destaca.
Una percepción que comparte Pierre Vandergheynst.
“Al final de la historia, no es la web la que inventó las teorías conspiratorias” dice el investigador de la EPFL.
“Solo han permitido que la propagación sea más rápida porque, en vez de escucharlas en al bar o el café de la esquina, las conocemos a través de Facebook”.
(Traducción: Andrea Ornelas)
Source Article from http://www.swissinfo.ch/spa/verificaci%C3%B3n_ser%C3%A1-larga-la-batalla-para-frenar-las-noticias-falsas/42779884
Comments