Recientemente, mujer británica fue detenida por un tuit identificado por una empresa de vigilancia con inteligencia artificial respaldada por el Estado llamada Logically.
Bonnie Spofforth, de 55 años y madre de tres hijos, fue identificada como la primera en publicar información falsa. Fue llevada a prisión por la publicación en las redes sociales que contenía información inexacta sobre la identidad del sospechoso de los asesinatos de Southport.
Un polígono industrial en Yorkshire es un lugar poco probable para una operación de vigilancia estatal. Pero estos almacenes de aspecto vacío son el hogar de una empresa de inteligencia artificial (IA) utilizada por el Gobierno para monitorear las publicaciones de la gente en las redes sociales.
Logically ha recibido más de 1,2 millones de libras de dinero de los contribuyentes para analizar lo que el Gobierno llama «desinformación» (información falsa difundida deliberadamente en línea) y «desinformación», que es información falsa que se ha difundido inadvertidamente.
Lo hace «ingiriendo» material de más de cientos de miles de fuentes de medios y «todas las publicaciones públicas en las principales plataformas de redes sociales», utilizando IA para identificar aquellas que son potencialmente problemáticas.
La empresa fue fundada hace seis años por Lyric Jain, un graduado en ingeniería de Cambridge de 27 años que puso a prueba la tecnología por primera vez durante las elecciones en su India natal.
Lo implementa junto con lo que Logically afirma que es «uno de los equipos de verificación de datos más grandes del mundo», repartidos entre el Reino Unido, Europa y la India.
Es un modelo que ha ayudado a la empresa a conseguir una serie de contratos.
Tiene un acuerdo de 1,2 millones de libras con el Departamento de Cultura, Medios de Comunicación y Deporte (DCMS), así como otro por valor de hasta 1,4 millones de libras con el Departamento de Salud y Asistencia Social para monitorear las amenazas a personas de alto perfil dentro del servicio de vacunas.
Otros clientes de primera línea incluyen agencias federales de EEUU, la comisión electoral india y TikTok.
La punta del iceberg
Logically forma parte de la International Fact Checking Network (IFCN), un proyecto del Instituto Poynter, una filial de la CIA. ¿Quién financia a Poynter?, click aquí. En resumen: los sospechosos habituales que blanquean el dinero de los contribuyentes a través de las ONG.
La Red Internacional de Verificación de Hechos (IFCN, por sus siglas en inglés), se lanzó en 2015 con su financiamiento inicial proveniente de National Endowment for Democracy (respaldado por el Departamento de Estado de EEUU), Omidyar Network, Google, Facebook, la Fundación Bill y Melinda Gates y las Fundaciones Open Society de George Soros.
Los principales fondos de IFCN provienen de la Fundación John S. y James L. Knight, la Fundación Ford, la Fundación Tides y el Centro Tides respaldados por Soros, Carnegie Corp. de New York, entre muchos otros.
La IFCN actúa como el «órgano superior» para las docenas de organizaciones de verificación de hechos bajo su paraguas, que se unen bajo un código de principios compartido y una misión «para reunir a la creciente comunidad de verificadores de hechos en todo el mundo y defensores de información fáctica en la lucha global contra la desinformación”.
Entre las organizaciones más conocidas que están afiliadas a la IFCN se encuentran el verificador de datos de Associated Press, FactCheck.org, el verificador de datos de Dispatch, el verificador de datos de The Washington Post y PolitiFact.
«Asociación» con Facebook
También tiene una «asociación» con Facebook, que parece otorgar a los verificadores de datos de Logically una enorme influencia sobre el contenido que ven otras personas.
Un comunicado de prensa conjunto emitido en julio de 2021 sugiere que Facebook limitará el alcance de ciertas publicaciones si Logically dice que son falsas.
“Cuando Logically califica un contenido como falso, Facebook reducirá significativamente su distribución para que menos personas lo vean, aplicará una etiqueta de advertencia para que la gente sepa que el contenido ha sido calificado como falso y notificará a las personas que intenten compartirlo”, afirma el comunicado de prensa.
Logically dice que no pasa las pruebas que recopila para el gobierno del Reino Unido a Facebook, pero la asociación de Logically con la empresa de redes sociales ha suscitado inquietudes entre los activistas de la libertad de expresión.
La empresa de inteligencia artificial fue contratada por primera vez por el DCMS en enero de 2021, muchos meses después de la pandemia, cuando se le encargó brindar «apoyo analítico».
Con el tiempo, sus responsabilidades parecen haber aumentado, de modo que estaba apoyando «esfuerzos intergubernamentales para construir un panorama integral de la desinformación y la información errónea potencialmente dañinas».
Los documentos obtenidos por The Telegraph muestran que producía periódicamente «Informes sobre las condiciones de servicio de la plataforma de desinformación y la información errónea de Covid-19» para la Unidad de lucha contra la desinformación, una operación secreta del DCMS.
Ese título sugiere que el objetivo era atacar publicaciones que infringieran los términos de servicio de plataformas como Twitter y Facebook.
Sin embargo, los detalles de los informes revelados bajo las leyes de datos revelaron que también incluían registros de publicaciones legítimas de figuras respetadas, incluido el Dr. Alex De Figueirido, estadístico líder del Proyecto de Confianza en las Vacunas.
Nadhim Zahawi, el ex ministro, dijo a The Telegraph que cree que la inclusión del tuit fue un error. Sin embargo, Logically dijo que a veces incluye publicaciones que parecen legítimas en sus informes si pueden ser «utilizadas como arma».
«El contexto importa», dijo un portavoz.
«Es posible que se incluya contenido que no sea específicamente desinformación o desinformación en un informe si hay evidencia o el potencial de que una narrativa sea utilizada como arma».
El portavoz agregó que los detalles obtenidos bajo las leyes de datos «a menudo eliminan la razón por la cual el contenido ha sido marcado y, por lo tanto, pueden ser muy engañosos».
Sin embargo, un documento público producido por Logically parece arrojar al menos algo de luz sobre el pensamiento de la empresa.
El informe de 21 páginas “Desinformación sobre la COVID-19 en el Reino Unido” se refería repetidamente al “sentimiento anticonfinamiento” y “antivacunas contra la COVID-19”.
También destacaba los hashtags “#sackvallance” y “#sackwhitty” como evidencia de “un fuerte desdén por el asesoramiento de los expertos”, en lugar de un desdén por las recomendaciones de Sir Patrick Vallance, ex asesor científico jefe del Gobierno, o Sir Chris Whitty, director médico de Inglaterra, en particular.
El objetivo es “prevenir daños en el mundo real”
Un portavoz de Logically dijo que cree “firmemente” en la libertad de expresión y que “cualquier sugerencia de que la limitemos es inexacta y errónea”.
El portavoz añadió: “No monitoreamos específicamente a las personas y su comportamiento, ni hacemos recomendaciones que limiten su derecho a la libertad de expresión.
“Cuando brindamos servicios a nuestros clientes, monitoreamos el contenido, incluidas las narrativas y las tendencias en los entornos de información pública en línea, para ayudar a abordar la proliferación de daños en línea, información errónea y desinformación, y prevenir daños en el mundo real”.
Fuente: The Telegraph