Una de las principales estrategias para detectar ‘fake news’ consiste en analizar la fuente, pero ¿qué pasa cuando esa fuente también parece real? NewsGuard ha identificado 614 granjas de contenidos desinformativos generadas por inteligencia artificial en 15 idiomas, español incluido, cuyo aspecto resulta cada vez más difícil de distinguir de los medios auténticos. Y lo peor es que cada vez es más fácil crearlos y se pueden gestionar casi sin supervisión humana.
Por: Marta del Amo
Las noticias falsas están por todas partes, ¿alguna vez te has preguntado quién hay detrás de ellas? ¿Quién las fabrica y las difunde? Lo poco que normalmente averiguamos sobre sus responsables suele ser información tipo “una banda de hackers rusa” (o de algún otro país que no nos pille muy cerca). Y es cierto que, por ejemplo, los principales responsables de la campaña de bulos proTrump que impactaron en el resultado de las elecciones de EEUU de 2016 fueron ciberdelincuentes procedentes de Rusia, pero no fueron los únicos.
Varios adolescentes de Macedonia que no tenían ningún interés en quién ganaría la votación ni probablemente en la política en general, también contribuyeron al problema, según descubrió una investigación de BuzzFeed llevada a cabo ese mismo año, en la que detectó al menos 140 portales de noticias sobre Estados Unidos ubicados en la pequeña ciudad macedonia de Veles. “Los jóvenes macedonios que dirigen estos sitios dicen que no les importa Donald Trump. Solo responden a incentivos económicos”, contaba la publicación.
La historia así contada suena bastante absurda. Para entenderla hay que tener en cuenta que las plataformas digitales gratuitas principalmente se nutren del dinero de los anunciantes, y que estos anunciantes pagan por aparecer en determinados sitios web para atraer visitas. Así que no hace falta ser muy avispado para ver que cualquier página que genere mucho tráfico puede convertirse en una fuente de ingresos, por muy pobre, falso y dañino que sea el contenido que aloja. Se conocen como granjas de contenidos, y son un negocio redondo siempre que te dé igual a quién te lleves por delante.
“Sí, la información de los blogs es mala, falsa y engañosa, pero el razonamiento es que ‘si consigue que la gente haga clic en ella y se enganche, entonces hay que usarla’”, reconoció uno de los chavales al medio en condición de anonimato. La cuestión es que eso lo hicieron en 2016, cuando todavía faltaban bastantes años para que conociéramos el término inteligencia artificial (IA) generativa y fuéramos conscientes de lo fácil que resulta usarla para crear textos, imágenes e incluso páginas web al completo.
MACROGRANJAS DE ‘FAKE NEWS’
“Hasta la fecha, el equipo de NewsGuard ha identificado 614 sitios web de noticias e información no fiables generados por inteligencia artificial en 15 idiomas: alemán, árabe, chino, checo, coreano, español, francés, indonesio, inglés, italiano, neerlandés, portugués, tagalo, tailandés y turco”, señala la organización en su Monitor de desinformación de diciembre 2023. Y añade: “Hemos descubierto un fenómeno cada vez más frecuente de malos actores que crean sitios web enteros generados por IA, que operan sin apenas supervisión humana”.
Estas granjas de contenido fueron las responsables de que un antiguo empleado de Meta acabara consultando información financiera totalmente falsa publicada por un pequeño medio local de Estados Unidos. Esta delirante historia recién publicada por Wired cuenta cómo este antiguo miembro de las Fuerzas Aéreas de Estados Unidos y exinvestigador de Zuckerberg llamado Tony Eastin descubrió que la que otrora web real del pequeño periódico Clayton County Register ahora se dedicaba a publicar infinidad de artículos muy llamativos, pero casi sin sentido y que no tenían nada que ver con el día a día de la localidad, con el único objetivo de conseguir clics y, con ellos, dinero.
La diferencia entre los chavales de Macedonia y quienes estén detrás del ahora falso medio estadounidense es el músculo, es decir, la capacidad de producir contenido falso que parezca real. Frente al trabajo principalmente manual que hacían los macedonios para perpetrar su estafa, con el tiempo que conlleva, Eastin descubrió que, al doparse con inteligencia artificial generativa, uno de los falsos autores que ahora escribían en el Clayton County Register había publicado 50 piezas solo en un día. Y eso no es nada comparado con los 1.200 artículos que se lanzaron de golpe en otro de los sitios fraudulentos identificados por NewsWard.
Frente al día o dos que yo tardo en escribir esta pieza, la capacidad de automatizar la generación de texto e imagen aumenta exponencialmente la cantidad de contenidos falsos que pululan por la red. De ahí que las webs fraudulentas que funcionan así hayan sido bautizadas como granjas. Y lo peor es que, a medida que la avanza la inteligencia artificial, los resultados que produce resultan más fiables y precisos, lo que limita aún más nuestra capacidad de detectarlos.
Eastin destapó el engaño porque la noticia que estaba leyendo básicamente no tenía ni pies ni cabeza y porque le extrañó que un pequeño medio local se dedicara a publicar información bursátil sobre una compañía farmacéutica. Pero ¿y si no se hubiera dado cuenta? Al final y al cabo, creía que estaba consultando un medio serio, por pequeño que fuera. Esa es otra de las vueltas de tuerca del problema de las granjas de fakes news generadas por IA, el hecho de que los propios portales en los que se alojan parezcan medios serios o incluso los suplanten.
MENTIRAS AUTOMATIZADAS
Gracias a la inteligencia artificial que genera imágenes, textos y código informático, es posible clonar cualquier web en cuestión de minutos. Esta capacidad se vuelve especialmente amenazante si tenemos en cuenta que uno de los pasos a seguir para intentar detectar noticias falsas consiste en investigar la fuente. En concreto, es el segundo paso del Método SIFT (siglas en inglés de: Para, Investiga la fuente, Busca otra cobertura y Rastrea los datos), desarrollado por el experto de la Universidad de Washington Mike Caulfield en 2019.
Es muy fácil decir que no debes fiarte de un contenido si no conoces la fuente que te lo está ofreciendo, pero ¿y si la fuente parece auténtica como le pasó a Eastin con la web del Clayton County Register? Su caso es muy particular porque los ciberdelincuentes se hicieron con el control de dicho portal después de que el medio dejara de usarlo tras fusionarse con otro en 2020, pero no es lo normal. Es más habitual que las ciberestafas se lleven a cabo mediante páginas que imitan a la perfección a aquellas por las que intentan hacerse pasar o que simplemente parecen fidedignas.
“Los propietarios de portales de noticias falsas tienen un gran interés en conseguir tantos clics como puedan, y una de las formas de conseguirlo es hacer que sus páginas se parezcan lo más posible a sitios de noticias legítimos. Aunque creas que estás en www.nytimes.com, podrías estar en www.nytimes.com.co”, explican desde el Centro de Tecnologías de la Información y Sociedad (CITS) de la Universidad de California en Santa Bárbara. Así que lo que solía ser una práctica muy común en casos de phishing, claramente se está extendiendo el ámbito de las fake news.
“El sitio se presenta de forma que un lector medio podría suponer que su contenido ha sido elaborado por redactores o periodistas humanos, porque tiene un diseño, un nombre genérico o benigno, u otro contenido típico de los sitios web de noticias e información”, advierte NewsWard. Y, por si fuera poco, en el caso de las granjas de contenido, el problema no solo es que cada vez sea más fácil crearlas, sino que, gracias a la IA, ya casi no necesitan supervisión humana para funcionar. Bendita automatización, ¿eh?
Las mismas bondades que prodiga la industria sobre el ahorro de tiempo y dinero que la inteligencia artificial ofrece cuando una organización los aplica correctamente tienen su reverso oscuro cuando se utilizan para hacer el mal. No debería resultar complicado configurar un programa para que recapitule los distintos temas populares que surgen en cada minuto de la actualidad y los adapte a una narrativa definida o los altere para volverlos más sensacionalistas para generar más tráfico. Una vez elaborado el contenido, solo hay que generar una imagen que le pegue y publicarlo. Y, efectivamente, todo eso se puede hacer de forma automática.
Al igual que pasa con la ciberdelincuencia en general, mantenerse a salvo de este tipo de fenómenos es casi imposible. Por eso, desde el CITS lanzan este consejo: “No importa en qué fuente de noticias confíes, te sugerimos que antes de compartir una noticia, la busques en Google. Mira dónde aparece. Las historias legítimas aparecerán en varios sitios, y los fiables tendrán cierto historial. Las webs de noticias falsas van y vienen, y la información sobre ellos estará sospechosamente ausente. Si llegas a un sitio de noticias que parece tener algo que nadie más tiene, busca información en la sección ‘Acerca de’ o información de contacto. Esta puede ser una forma útil de determinar si el sitio es legítimo o no”.
Poco más se puede hacer, la verdad, así que lo más importante es que empieces a tener claro que Internet se está llenando cada vez más de contenidos falsos que lo mismo vienen de un grupo de chavales de Macedonia que solo quieren sacarse unas pelas que de un grupo ultraorganizado de ciberdelincuentes rusos, iraníes, israelíes o incluso españoles que intentan sembrar el caos. ¿Por qué no? Con la inteligencia artificial cualquiera puede convertirse en granjero de noticias falsas al servicio de Putin, de Trump o de su propio bolsillo. ¡Cuidado!