• Grégoire Guillemin

Cambridge Analytica : comment les données de Facebook ont été utilisées durant la campagne de Trump


«  L’histoire de Cambridge Analytica montre comment nos identités et nos comportements sont devenus de simples marchandises sur le juteux marché des données. Les entreprises qui contrôlent le flux de l’information sont parmi les plus puissantes du monde ; les algorithmes qu’elles ont conçus en secret influencent les esprits, aux Etats-Unis comme ailleurs, d’une manière encore inimaginable il y a peu. »
Christopher Wylie

Christophe Wylie, data scientist, a été directeur de recherche à SCL Group (Strategic Communication Laboratories) de 2011 à 2014, maison-mère de Cambridge Analytica, une société spécialisée dans la guerre psychologique et la sous-traitance militaire. Il devient lanceur d’alerte en juin 2018 en démontrant l’utilisation de millions de données d’utilisateurs de Facebook dans le cadre de l’élection présidentielle américaine de 2016 par l’équipe de campagne de Donald Trump pour influencer le corps électoral ainsi que des proximités avec des intérêts étrangers. En mars 2020, il publie « Mindfuck : Le complot Cambridge Analytica pour s’emparer de nos cerveaux », récit politique qui retrace son parcours dans l’entreprise.


L’utilisation des données en politique 


La campagne de Barack Obama en 2008


L’utilisation d’une base de données dans une campagne présidentielle débute grâce à l’équipe de campagne de Barack Obama lors de l’élection présidentielle américaine de 2008. Même si des initiatives ont émergé dès les années 1990 par des figures politiques locales, la campagne démocrate est véritablement la première à utiliser des données au niveau national pour cibler les électeurs par l’organisation de grandes opérations numériques. Lors de cette campagne, Christopher Wylie alors proche du Parti libéral du Canada est envoyé comme observateur aux Etats-Unis pour apprendre les stratégies numériques utilisées et comprendre s’il est possible de les importer. Il découvre alors le microciblage, pratique dans laquelle des algorithmes d’apprentissage automatique rassemblent de nombreuses données sur les électeurs afin de diviser l’électorat en des segments très étroits et ainsi prédire quels électeurs constituent les cibles les plus susceptibles d’être persuadées de se rendre aux urnes ou de voter pour tel parti avant une élection. « Si vous savez quelle marque de voiture ou de camion quelqu’un conduit, s’il chasse, à quelles oeuvres caritatives il fait des dons, à quels magazines il est abonné, vous pouvez commencer à vous faire une représentation de cette personne. La plupart des Démocrates et des Républicains ont un look. Ce look est capturé dans cet instantané de leurs données. Et, en vous fondant sur cette information, vous pouvez cibler les électeurs potentiels ».  


L’évolution des méthodes de profilage psychologique


La mission de SCL pour le compte d’opérations militaires britanniques est de construire des armes perspecticides, c’est à dire qui utilise la manipulation et la destruction de la perception en provoquant des émotions et des processus de pensée négatifs associés à des comportements impulsifs, obsessionnels, et erratiques. La cible passe alors d’une résistance douce ou passive (caractérisée par une moindre productivité, une tendance à prendre moins de risques, la propagation de rumeurs, etc …) à des comportements plus perturbateurs (comme discuter les ordres, les refuser, se mutiner, etc …). Cette stratégie a été utilisée en Amérique du Sud pour briser les réseaux de narcotrafiquants. Cependant, avec l’avènement des réseaux sociaux, les militaires et les agences de sécurité ont obtenu un accès direct à l’esprit et à la vie des gardes, des employés, des petites amies et des messagers d’organisations criminelles ou terroristes partout dans le monde. Les données des réseaux sociaux ont permis d’accéder à une profusion d’informations personnelles détaillées qui nécessitaient par le passé des mois d’observations pour être obtenues. La quantité massive de données facilita grandement le profilage psychologique et stimula la recherche d’une technique de profilage susceptible d’être automatisée avec des algorithmes d’apprentissage automatique. En 2011, la DARPA (la Defense Advanced Research Projects Agency est une agence du département de la Défense des États-Unis chargée de la recherche et du développement des nouvelles technologies destinées à un usage militaire) commença à financer des recherches sur le profilage psychologique des utilisateurs des réseaux sociaux, sur la manière dont se propageaient les messages hostiles au gouvernement, et même sur la tromperie en ligne. Des ingénieurs de Facebook, Yahoo! et IBM participèrent tous à ces projets de recherche financés par la DARPA pour évaluer la manière dont l’information circule et est consommée. Les gouvernements russe et chinois lancèrent de leur côté leurs propres programmes de recherche sur les réseaux sociaux.


La Naissance de Cambridge Analytica


La fondation Cambridge Analytica


Cambridge Analytica, filiale de la maison-mère SCL Group, est fondé au début de l’année 2014 et s’établit dans le Delaware. Sa création est rendue possible par un bailleur de fond important, Bob Mercer, milliardaire et investisseur pro-Républicains, qui injecta entre 15 et 20 millions de dollars dans ce projet. Ce dernier possédait 90% des parts sociales de Cambridge Analytica et SCL Group, les 10% restantes. La Vice-présidence de cette entreprise était exercée par Steve Bannon en personne qui allait rapidement donner une impulsion à ce projet. Christopher Wylie précise que le montage juridique à l’origine même de la création de Cambridge Analytica permettait à cette dernière de contourner les règles électorales en vigueur aux Etats-Unis de manière à pouvoir opérer sur le sol américain en tant qu’entreprise américaine tout en continuant à bénéficier de la protection que lui accordait SCL en tant que division d’une entreprise britannique. Cambridge Analytica se voyait accorder les droits de propriété intellectuelle de tout le travail de la SCL. La fondation de cette structure répondait à un besoin. Les Démocrates avaient déjà un grand coup d’avance par rapport aux Républicains quant à la manière d’utiliser efficacement les données. Depuis des années déjà, ils disposaient d’un système central de gestion des données avec Ngpvan, et n’importe quelle campagne démocrate dans le pays pouvait y avoir recours. Les Républicains n’avaient rien de comparable, et Cambridge Analytica devait permettre de rattraper ce retard.


La conception politique de Steve Bannon


Alors salarié de la SCL, Christopher Wylie va rencontrer en 2013 pour la première fois Steve Bannon qui est alors directeur de la publication du site d’information conservateur en ligne Breitbart news, du nom d’Andrew Breitbat, journaliste d’extrême droite qui concevait l’action politique dans une approche gramscienne, l’accession au pouvoir découlant d’abord d’une hégémonie culturelle, et privilégiant donc le combat culturel, idée derrière laquelle se rangea Steve Bannon. Ce dernier constate alors l’avancée technologique incontestable des Démocrates sur les Républicains depuis une vingtaine d’années dans le domaine numérique. S’il veut engager un combat culturel susceptible d’aboutir à l’élection de Donald Trump, il doit rattraper ce retard et définir une stratégie précise. Son arme, ce sera les données des utilisateurs de Facebook, les algorithmes et la création de nombreux récits sur les plateformes. A l’aide de groupe de discussion, les chercheurs de Cambridge Analytica travaillèrent à comprendre et à conceptualiser les perceptions et les attentes des citoyens américains : les limites de mandat, l’Etat profond, « assécher le marais de Washington », les armes à feu, ou encore l’idée d’un mur pour empêcher les migrants de gagner les Etats-Unis sont des idées qui furent toutes explorées en 2014, plusieurs années avant la campagne de Trump. Dans sa volonté d’engager une guerre culturelle, Steve Bannon recherchait donc des individus spécialisés en armes informationnelles pour l’aider à construire son arsenal. « Pour rendre une population plus résistante à l’extrémisme, par exemple, vous devez d’abord identifier les individus les plus susceptibles d’être ciblés par des messages idéologiques, déterminer les caractéristiques qui les rendent vulnérables au récit/contagion, puis leur inoculer un contre-récit afin de modifier leur comportement. En théorie, bien sûr, la même stratégie peut être utilisée pour faire le contraire – pour développer l’extrémisme -, mais ça ne m’était tout simplement jamais venu à l’esprit » explique Christopher Wylie.


Un usage politique des données personnelles



« Notre système est cassé, nos lois ne fonctionnent pas, nos régulateurs sont faibles, nos gouvernements ne comprennent pas ce qu’il se passe, et notre technologie est en train d’usurper la place de notre démocratie ».
Christopher Wylie

La récupération des données personnelles des utilisateurs de Facebook 


L’un des premiers objectifs de Cambridge Analytica est de récupérer de nombreuses données, de pouvoir les conceptualiser à l’aide d’un algorithme afin de reproduire une société in silico (de manière virtuelle grâce à des calculs complexes), à l’image du jeu de simulation Sims. Ils travaillent alors avec les docteurs David Stillwell et Michel Kosinski du Centre de psychométrie, spécialisés dans le profilage psychologique fondé sur les réseaux sociaux, qui disposent d’immenses quantités de données qu’ils avaient récoltées en toute légalité sur Facebook. David Stillwell développa une application MyPersonalityqui permettait à ses utilisateurs d’obtenir leur « profil psychologique », l’application récupérait alors le profil et le stockait en vue de futurs travaux de recherche. Selon Christopher Wylie, les procédures d’autorisation et de contrôles de Facebook étaient incroyablement laxistes : « A chaque fois qu’une personne utilisait leur application, Stillwell et Kosinski recevaient non seulement les données Facebook de cette personne, mais également celles de tous ses « amis ». Facebook n’exigeait pas des applications qu’elles demandent explicitement leur consentement aux utilisateurs pour que les données de leurs « amis » soient collectées, car pour Facebook, être un utilisateur de la plateforme équivaut à consentir à ce qu’on se serve de vos données personnelles – et ce, même si les « amis » en question ne savent absolument pas que cette application est en train de récolter leurs données. Avec un accès à suffisamment de données de Facebook, il devenait enfin possible de penser sérieusement simuler la société in silico. Cambridge Analytica calibra un formulaire et lança une application sur MTurk. Une fois l’application connectée à Facebook, les données s’accumulèrent très rapidement. Il était alors possible de regrouper les milliers d’informations disponibles d’une seule et même personne : « Non seulement nous avions toutes ses données Facebook, mais nous les fusionnions avec toutes les données administratives et commerciales que nous avions achetées, ainsi qu’avec des imputations faites à partir de données de recensement. Nous avions des informations sur ses emprunts immobiliers, nous savions combien d’argent elle gagnait, si elle possédait une arme à feu. Nous avions accès à ses programmes de fidélité chez les compagnies aériennes, donc nous savions à quelle fréquence elle prenait l’avion. Nous pouvions voir si elle était mariée. Nous avions une certaine idée de sa santé. Et nous avions même une photo satellite de sa maison, obtenue très facilement grâce à Google Earth. Nous avions recréé toute sa vie dans notre ordinateur. Et elle n’en savait absolument rien ». En aout 2014, deux mois après le lancement de l’application, Cambridge Analytica avait collecté les comptes Facebook complets de plus de 87 millions d’utilisateurs, surtout américains. Il faut noter que Facebook a régulièrement encouragé le travail de recherche psychologique sur ces utilisateurs et a fourni à des scientifiques un accès privilégié aux données privées de ses membres. En 2012, Facebook a déposé un brevet aux Etats-Unis pour « déterminer les caractéristiques de la personnalité d’un utilisateur à partir de ses communications et de ses caractéristiques sur un système de réseau social ». L’intérêt de Facebook dans le profilage psychologique découlait de sa volonté d’augmenter les ventes et la publicité en ligne et de monétiser toujours plus ses utilisateurs.

L’utilisation politique de Cambridge Analytica


«  Les implications étaient étourdissantes : vous pourriez, en théorie, simuler une société future pour y créer des problèmes, tels que des tensions ethniques ou des inégalités sociales trop fortes, et observer comment la situation évolue. Puis vous pourriez revenir et arrière et changer les données de départ, pour essayer de comprendre comment atténuer ces problèmes. En d’autres termes, vous pourriez commencer à modéliser des solutions à des problèmes du monde réel, mais dans un ordinateur ».
Christopher Wylie

Grace aux données Facebook, Cambridge Analytica mis en place un algorithme permettant d’identifier les traits de personnalité d’un individu en particulier autour de ce que la psychologie nomme la « Triade noire », un groupe de traits de personnalité : le narcissisme (un autocentrement extrême), le machiavélisme (une défense brutale de ses propres intérêts), la psychopathie (un profond détachement émotionnel). Les personnes qui en font preuve sont généralement plus enclins à adopter des comportements antisociaux, voire à perpétuer des actes criminels. En les ciblant, Cambridge Analytica introduisit des récits via des groupes Facebook, des publicités, ou des articles dont l’entreprise savait, grâce à ses tests en interne, qu’ils avaient de grandes probabilités d’attiser la colère de ce segment très étroit d’individus possédant ces caractéristiques. Cambridge Analytica commença à développer dès l’été 2014, sur Facebook et d’autres plateformes, de fausses pages qui ressemblaient à des vrais forums, des vrais groupes et des vraies sources d’information. L’entreprise travaillait au niveau local, créant des pages comme « Les patriotes du comté de Smith », ou encore « J’aime mon pays ». Est-ce que cela concernait beaucoup de personnes ? Christopher Wylie précise : « Un grand nombre d’articles sur Cambridge Analytica ont pu donner l’impression que tout le monde était ciblé. En fait, finalement, bien peu de personnes étaient visées. L’entreprise n’avait pas besoin d’une grande cible, pour la bonne raison que la plupart des élections sont des jeux à somme nulle. Cambridge Analytica jouait sur les Etats-pivots, ces états qui votent différemment selon les élections et qui constituent l’enjeu déterminant d’une élection présidentielle dans la mesure où ils apportent les grands électeurs nécessaires. Cambridge Analytica estimait que si seulement 25% des électeurs irréguliers qui avaient commencé à cliquer sur les nouveaux contenus suggérés par l’entreprise finissaient par se rendre à l’isoloir, cela pouvait augmenter la participation en faveur des Républicains d’environ 1% dans plusieurs Etats-clés, ce qui correspond souvent à la marge de manoeuvre nécessaire pour remporter une élection serrée. Cambridge Analytica s’appuya sur les travaux du psychologue Alexandr Kogan qui travaillait en Russie également sur le profilage psychométrique des utilisateurs de réseaux sociaux. Ces recherches en Russie visaient à identifier les individus déséquilibrés. L’entreprise constata que ces cibles étaient plus impulsives et plus susceptibles d’adopter des raisonnements conspirationnistes, et, avec le bon coup de pouce, il était possible de les pousser à adopter des pensées et des comportements extrêmes. Grâce à la manière dont fonctionnait l’algorithme de recommandation de Facebook, ces pages apparaissaient dans le fil d’actualité de personnes ayant déjà liké des contenus similaires. Quand les utilisateurs rejoignaient les faux groupes créés par Cambridge Analytica, ils y découvraient des vidéos et des articles qui jetaient de l’huile sur le feu. Les conversations s’échauffaient sur la page du groupe et tout le monde se plaignait. Pendant ce temps là, l’entreprise testait et raffinait ses messages pour obtenir un engagement maximum. Cambridge Analytica voulait provoquer les individus, les pousser à s’engager. Mais cette stratégie fut rendue possible à cause de l’algorithme de Facebook à l’époque. 


L’algorithme de Facebook 


Ce que nous voyons dans nos fils d’actualité et dans les résultats de nos moteurs de recherche est déjà modéré par des algorithmes dont l’unique motivation est de sélectionner ce qui va nous « engager », pas nous informer. Quand quelqu’un décide de suivre la page d’une marque grand public ou d’une sitcom en prime-time, son fil d’actualité change finalement assez peu. Mais si vous likez un groupe hors de la norme, vous êtes identifié comme suffisamment différent de l’utilisateur moyen pour que le moteur de recommandation choisisse d’accorder la priorité à certains sujets dans votre fil d’actualité, et ce, à des fins de « personnalisation ». Cela signifie que l’algorithme du site commencera à canaliser des pages et des histoires similaires sur le fil d’actualité de l’utilisateur, le tout pour augmenter son « engagement ». Pour Facebook, entreprise privée, augmenter l’engagement est la seule mesure qui compte. Plus d’engagement, c’est plus de temps devant l’écran, et donc plus de temps devant des publicités. Du fait de l’algorithme de Facebook, Cambridge Analytica disposait d’utilisateurs qui s’identifiaient en tant que membres d’un groupe extrémiste, formaient un public captif, et pouvaient être manipulés avec des données. Quand les sources d’information les plus fiables se retrouvent désormais derrière des paywalls (mur payant), l’information devient peu à peu un produit de luxe sur un marché dans lequel les Fake news, elles, sont toujours gratuites. « L’engagement » renforcé par les algorithmes est au coeur d’une « politique de l’indignation », d’une culture de la dénonciation publique. Les utilisateurs ciblés sont ainsi submergés par les contenus destinés à les faire continuer à cliquer. La conséquence selon Christopher Wylie est inquiétante : « L’idéologie sous-jacente aux réseaux sociaux n’est pas d’augmenter notre capacité d’agir, mais plutôt de rétrécir, de filtrer et de réduire nos choix au bénéfice des créateurs et des annonceurs. Les réseaux sociaux mènent les populations tels des troupeaux dans des espaces surveillés au sein desquels les architectes peuvent les suivre et les classer, puis utiliser ces informations pour influencer leur comportement. « Les gens passent des heures sur les réseaux sociaux, pour suivre des gens comme eux, lire des articles spécialement « choisis » pour eux par des algorithmes dont le seul principe moral consiste à maximiser le taux de clics – des articles qui ne font rien d’autre que renforcer un point de vue univoque, et qui font progressivement dériver les utilisateurs vers des extrêmes pour qu’ils continuent à cliquer. Ce qui est à l’œuvre, ici, c’est une ségrégation cognitive, qui confine les individus dans leurs propres ghettos informationnels. Nous assistons à la ségrégation de nos réalités. Si Facebook est une « communauté », alors il s’agit bien en réalité d’une communauté fermée ». En aout 2017, des discours de haine et des appels au meurtre visant les Rohingyas, une minorité du Myanmar, apparurent sur Facebook, et les récits appelant à un Myanmar « libéré des musulmans » et à la purification ethnique de la région devinrent viraux. La plus grande partie de cette propagande était créée et diffusée par des militaires qui menaient une opération d’information. « Facebook fut régulièrement averti de la situation au Myanmar par des organisations locales et internationales. Mais l’entreprise décida d’exclure de la plateforme un groupe de résistance rohingya tout en laissant le champ libre aux groupes militaires et pro-gouvernementaux, qui purent ainsi librement continuer à répandre leur propagande haineuse ». En mars 2018, l’ONU conclut que Facebook avait joué un « rôle déterminant » dans la purification ethnique des Rohingyas. La violence avait été rendue possible par la fluidité de l’architecture de Facebook, qui avait permis de propulser les discours de haine au sein d’une population à une vitesse jusque-là inimaginable. 


L’ouvrage de Christopher Wylie retrace en somme la première expérience d’utilisation massive de données à des fins politiques. Si internet et les réseaux sociaux sont apparus comme des outils émancipateurs, ils montrent aussi leurs limites démocratiques. Les technologies et l’intelligence artificielle développées dans une logique capitaliste et progressiste peuvent clairement influencer et contrecarrer le fonctionnement de nos sociétés démocratiques. Un enjeu qui n’a toujours pas été véritablement traité d’un point de vue politique et juridique à notre époque.






Un sujet à aborder, un article à publier ?

Contactez-nous

2020 ©Panorama Média, Mentions légales