Los investigadores de riesgo cibernético de Stanford Engineering están analizando la propagación de noticias falsas, como si fuera una cepa de ébola, utilizando las herramientas para modelar la propagación de enfermedades infecciosas.
Elisabeth Paté-Cornell, profesora de Ciencias de la Gestión e Ingeniería en la Universidad de Stanford, ha informado que la intención es encontrar la forma más efectiva de cortar las cadenas de transmisión, corregir la información si es posible y educar a los objetivos más vulnerables.
Hace mucho que Elisabeth se especializa en análisis de riesgos y ciberseguridad, al tiempo que supervisa la investigación en colaboración con Travis I. Trammell, un candidato a doctorado en Stanford.
Los investigadores han adaptado un modelo para comprender las enfermedades que pueden infectar a una persona más de una vez.
Simultáneamente, el modelo también tiene la capacidad de analizar cuántas personas son “susceptibles” a la propagación de enfermedades, o en este caso, cuántas personas podrían creer en noticias falsas.
Además, examina cuántos han sido expuestos a la propagación de enfermedades o noticias falsas, cuántos están realmente “infectados” o creen la historia y cuántas personas son probablemente replicadoras de las noticias falsas.
“Al igual que un virus, los investigadores dicen que, con el tiempo, estar expuesto a múltiples tipos de noticias falsas puede desgastar la resistencia de una persona y hacerla cada vez más susceptible”.
Es decir, cuantas más veces una persona esté expuesta a una noticia falsa, especialmente si proviene de una fuente influyente, es más probable que se convenza o se infecte (epidemiológicamente hablando cuando se trata de propagación de enfermedades).
Propagación más rápida
Desde el equipo de Stanford Engineering se ha hecho énfasis en la llamada “ley de poder” de las redes sociales (RRSS), un patrón bien documentado en las RRSS, que sostiene que los mensajes se replican más rápido si están dirigidos a un número relativamente pequeño de personas influyentes con muchos seguidores.
En simultáneo, los investigadores también están analizando la efectividad relativa de los trolls versus los bots. En este punto, Trammell ha dicho que los bots, que son programas automatizados que se hacen pasar por personas, tienden a ser particularmente buenos para difundir cantidades masivas de mensajes altamente emocionales con poco contenido informativo.
“Piense aquí en un mensaje con la imagen de Hillary Clinton tras las rejas y las palabras ‘¡Encerrarla!’. Ese tipo de mensaje se extenderá rápidamente dentro de las cámaras de eco, pobladas por aquellos que ya están de acuerdo con el sentimiento básico”.
Entonces, los bots tienen un poder considerable para inflamar a las personas que ya tienen ideas afines, aunque pueden ser más fáciles de detectar y bloquear que los trolls.
Estos últimos, por el contrario, suelen ser personas reales que difunden historias y memes provocativos. Se ha agregado que los trolls pueden ser mejores para persuadir a las personas que están menos convencidas y que quieren más información.
En cuanto al tipo de personas que es más susceptible a la propagación de noticias falsas, Paté-Cornell y Trammell han afirmado que existe evidencia considerable de que los ancianos, los jóvenes y los menos educados son particularmente susceptibles a las también llamadas fakes news.
Pero, en el sentido más amplio, son los partidarios de los extremos políticos (liberales o conservadores) a quienes les gusta más creer una historia falsa debido (en parte) al sesgo de confirmación.
Además, se debe a la tendencia en todas las personas a creer historias que refuerzan sus convicciones; cuanto más fuertes son esas convicciones, más poderosa es la persona que siente la influencia del sesgo de confirmación.
A juicio de Paté-Cornell y Trammell, al igual que el crimen ordinario, la desinformación nunca desaparecerá. Sin embargo, al aprender las maneras de propagación de noticias falsas a través de las redes sociales, los investigadores dicen que es posible contraatacar.
“Las plataformas de redes sociales podrían ser mucho más rápidas para detectar contenido sospechoso. Luego podrían adjuntar advertencias, una forma de inoculación, o podrían poner en cuarentena más”.
Protegerse de noticias falsas
El desafío de protegerse de la propagación de noticias falsas, según Paté-Cornell y Trammell, es que la protección tiene costos. Aquí se habla no solo de costos financieros, sino de una menor comodidad y limitaciones en la libertad de expresión.
Para ellos, los peligros de las noticias falsas deben analizarse como un riesgo de gestión estratégica similar a cómo se han analizado tradicionalmente los riesgos planteados por los ataques cibernéticos destinados a deshabilitar la infraestructura crítica.
“Se trata de cómo podemos gestionar mejor nuestros recursos para minimizar el riesgo. ¿Cuánto estás dispuesto a gastar y qué nivel de riesgo estamos dispuestos a aceptar?”.
En todo caso, en el equipo de Stanford Engineering se ha concluido que las noticias falsas ya representan un problema de seguridad nacional. No obstante, Paté-Cornell y Trammell han predicho que la Inteligencia Artificial (IA) aumentará las noticias falsas en los próximos años.
A pesar de esto, creen que la IA igualmente hará que sea mucho más fácil apuntar a personas con noticias falsas o videos falsos profundos, videos que parecen reales pero que se han fabricado en su totalidad, o en parte, que se adaptan finamente a lo que un espectador susceptible probablemente acepte y tal vez se difunda.
“La IA también podría facilitar la creación de ejércitos de bots más influyentes que parecen compartir los antecedentes sociales, la ciudad natal, los intereses personales o las creencias religiosas de un objetivo”.
Estos tipos de hiperfocalización harían los mensajes mucho más persuasivos, según lo previsto. Sin embargo, se ha agregado que la IA también muestra un gran potencial para contrarrestar este flagelo mediante la identificación de contenido falso en todas sus formas, “pero solo el tiempo dirá quién prevalece en esta carrera armamentista de la nueva era”.