J’ai testé les algorithmes de Facebook et ça a rapidement dégénéré

J’ai testé les algorithmes de Facebook et ça a rapidement dégénéré

CHRONIQUE – Croyez-vous encore que votre fil Facebook vous montre la réalité? J’ai fait une petite expérience pour démontrer comment les algorithmes du réseau social affectent les informations qu’on voit défiler sur notre mur. Je pensais seulement voir des résultats après une semaine. Finalement, après trois jours, c’était déjà concluant. Vous verrez comment des « j’aime » et des clics peuvent avoir un effet catastrophique sur votre diète informationnelle.

Facebook ne peut pas nous montrer toutes les publications de chacun de nos amis et des pages auxquelles nous sommes abonnés. Ça serait beaucoup trop. Les algorithmes de Facebook font donc un tri.

En utilisant Facebook, on indique à ces algorithmes ce qui nous plaît. Tout ce qu’on fait sur le réseau social – nos partages, nos « j’aime », nos abonnements – permet aux algorithmes de se créer une image de nous et de deviner ce que nous aimerions voir. En se basant sur ce profil, Facebook nous montre du contenu sur notre fil d’actualité que nous serions susceptibles d’aimer (et nous suggère des publicités, bien sûr).

Depuis quelques années, plusieurs observateurs – dont moi – s’inquiètent de l’effet que cela pourrait avoir sur l’information que nous consommons sur Facebook. Le danger est que, si nous cliquons « j’aime » sur un seul type d’information et que nous ignorons le reste, nous nous trouvons dans une « bulle » Facebook, où circulent seulement des informations qui se conforment à nos goûts.

Sommes-nous alors vraiment informés, même si nous avons accès à tous les médias du monde sur notre fil d’actualité? C’est ce que j’ai tenté de voir avec cette expérience.

L’idée de l’expérience est de voir si, en cliquant « j’aime » sur des articles provenant de pages qui font de la désinformation ou qui partagent du contenu léger et peu informatif, et en ne le faisant pas pour des pages de médias fiables, je me retrouve avec un fil d’actualités Facebook rempli d’informations de sources peu fiables.

D’autres médias ont déjà tenté des expériences pour mesurer l’effet des algorithmes de Facebook sur ce qui apparaît dans le fil d’actualité (liens en bas de page). Mais ces expériences chicotent mon esprit scientifique : il n’y a pas de groupe-contrôle. Et sans ça, on ne peut pas véritablement parler d’une expérience à proprement dit.

En science, on utilise les groupes-contrôles lors d’expériences pour vérifier si un phénomène que nous examinons existe vraiment. Par exemple, si on teste l’efficacité d’un médicament, on le donne à un groupe, mais on observe aussi un groupe-contrôle à qui on n’a pas donné le médicament. Si l’effet observé a lieu dans le groupe ayant reçu le médicament, mais n’est pas décelé dans le groupe-contrôle, on peut conclure que le médicament fonctionne (je simplifie énormément, mais c’est le concept de base).

Dans mon expérience, donc, je veux qu’il y ait un groupe-contrôle pour être certain que mes observations sont exactes. Conséquemment, j’ai créé deux comptes Facebook fictifs. Gérard Engagé, qui cliquera seulement sur des publications provenant de sources non journalistiques.

Et Herbie Neutre, qui ne fera absolument rien (donc aucune activité, même pas de clics sur des articles).

Ce compte agira à titre de groupe-contrôle, et nous permettra de voir un fil Facebook à son état « pur », sans intervention humaine.

J’ai abonné les deux comptes aux mêmes 28 pages Facebook (j’ai mis un lien vers un document répertoriant toutes ces sources à la fin de l’article). J’ai choisi un éventail de sources, variant de médias très sérieux aux sites de conspirations. Ensuite, j’ai classé les sources dans cinq grandes catégories, selon leur nature. Pour ce faire, je me suis inspiré de cette très chouette analyse, accomplie par la firme Bakamo, des sources d’information partagées sur Facebook dans le cadre de l’élection présidentielle française.

Les catégories sont : « Traditionnel » (des médias établis, comme des journaux ou des chaînes de télévision), « Alternatif » (des nouveaux médias web ou des pages offrant une analyse de l’actualité en suivant les principes journalistiques), « Politique » (des partis ou personnalités politiques), « Divertissement » (le nom dit tout – du contenu un peu plus léger qui ne suit pas nécessairement les principes journalistiques) et « Conspiration » (des pages qui remettent en question les faits de base établis par les médias d’information et les scientifiques).

Lors de cette expérience, Gérard Engagé ne cliquera que sur le contenu de ces deux dernières catégories. Nous pourrons alors mesurer l’effet de l’activité de Gérard sur ce que les algorithmes de Facebook feront défiler sur son mur, et comparer ce qu’il voit à ce que Herbie voit.

NOTE : par souci de transparence, vous trouverez en bas de page des documents où vous pourrez examiner mes analyses.

Bon, assez de bla-bla. Allons-y!

Jour 1 – 10h : qu’arrive-t-il quand Gérard « aime » du contenu douteux?

L’expérience commence!

Gérard Engagé réagit à une vingtaine d’articles, dont :

« Daech s’excuse d’avoir tiré un missile sur Israël ». Dans l’article, on explique que le groupe armé État islamique est en fait un allié d’Israël, et s’est donc excusé pour ce « tir ami ». Mouain. Gérard y accole un « wouah ».

« L’ail tue 14 types de cancer et 13 types d’infection. Pourquoi les médecins n’en prescrivent pas? » Nul besoin d’expliquer le propos de l’article, tout est dans le titre. Un autre « wouah ».

« Ce test de personnalité serait le plus précis du monde ». En plus d’y donner un « j’adore », Gérard fait le test. En cliquant au hasard, j’apprends que mon personnage est un « guérisseur intuitif » (il n’est pas le seul).

Déjà, après 40 minutes et une vingtaine de réactions, les algorithmes de Facebook commencent à comprendre ce que Gérard aime. Ils font défiler cinq articles de la même page de suite. Puis ils lui présentent deux articles d’une autre page, un qui affirme que « les aliments cuits au micro-ondes perdent entre 60 et 90 % de leur énergie vitale » (hormis le fait que l’énergie vitale n’existe pas, le four à micro-ondes ne détruit pas la valeur nutritive des aliments), et l’autre qui raconte qu’un homme a guéri son cancer de stade 4 avec du bicarbonate de soude (archifaux).

C’est du sérieux. Gérard clique « j’aime » sur chaque article.

Après une heure d’utilisation, je rafraîchis le fil Facebook de Gérard et analyse les 50 premiers articles y apparaissant; je fais de même avec le compte d’Herbie Neutre. Voici les résultats :

Cliquez ici pour voir les résultats

Eh oui, après seulement une heure, le fil Facebook de Gérard Engagé est devenu une jungle de l’information douteuse. Quelque 70 % des 50 premières publications à apparaître dans son fil proviennent de sources peu fiables (en rouge et en orange dans le graphique), et seulement 24 % proviennent de médias traditionnels ou alternatifs (en bleu et en mauve). En revanche, du côté du compte d’Herbie Neutre, c’est l’inverse : 54 % des publications proviennent de médias fiables, alors que 30 % proviennent de sources moins fiables.

Tout ça en une heure seulement.

Jour 1 – 14h : les algorithmes essaient de radicaliser Gérard

Je fais défiler des articles sur le fil d’actualité de Gérard Engagé. Le premier média fiable arrive après six articles : le journal Métro. C’est d’ailleurs le seul média fiable dans les 20 premiers articles à défiler. Imaginez si ce compte appartenait à une personne « un peu pressée » qui regardait son fil d’actualité vite vite entre deux stations de métro. Elle n’aurait vu qu’une seule nouvelle de source fiable, même si elle est abonnée à huit médias traditionnels et cinq médias alternatifs.

Vers 14 h 20, Facebook suggère à Gérard des pages qui pourraient lui plaire, selon ses algorithmes.

Le site français Arrêt sur info, qui remet en question la fiabilité des médias d’information.

– La page conspirationniste Nouvel ordre mondial

– La page de l’essayiste d’extrême droite français Alain Soral

– La page du blogueur ultranationaliste français Boris Le Lay, condamné en 2015 à deux ans de prison pour incitation à la haine raciale

– La page Quenelle, de l’humoriste controversé Dieudonné, condamné en 2015 à deux mois de prison pour incitation à la haine et propos antisémites

– La page Égalité et réconciliation, d’Alain Soral

Facebook lui suggère aussi de se joindre à deux groupes : « Non à la québécophobie et au racisme envers les Québécois », un groupe ultranationaliste, et « Amis qui aiment Marion Maréchal-Le Pen », la petite-fille du fondateur de Front national, Jean-Marie Le Pen, et nièce de Marine Le Pen, candidate à la présidentielle française.

Le pire dans tout ça, c’est que, même si Gérard est abonné à deux pages à saveur nationaliste, il n’a pas réagi à beaucoup d’articles de leur part. Seulement un ou deux articles traitant de l’islam ou de l’immigration se sont présentés dans son fil. Pourtant, c’était assez pour que les algorithmes lui suggèrent d’autres pages du genre. Intéressant.

Jour 2 – 10h : qu’arrive-t-il quand Gérard se fait des amis?

Gérard se sent un peu seul, il n’a pas d’amis. Regardez-lui la binette.

Cette image m’a coûté 20 $. Ça a amplement valu la peine.

Ça tombe bien, parce que Facebook rejette souvent les résultats de petites expériences comme les miennes, en affirmant que les utilisateurs du réseau social ont des amis, et que simplement s’abonner à des pages ne prouve rien. Facebook avance aussi que ses algorithmes donnent plus de « poids » aux articles partagés par des amis qu’à ceux partagés par des pages. Voyons comment les amis affecteront le contenu du fil Facebook de Gérard.

Je recrute donc une quinzaine de personnes pour qu’ils deviennent amis avec Gérard. La plupart de ces personnes sont des collègues journalistes (et elles partagent donc beaucoup de contenu provenant des médias établis), alors nous donnons vraiment la meilleure chance possible au contenu fiable.

Gérard n’interagit pas avec les publications de ses amis. Je veux voir comment les algorithmes de Facebook réagiront sans action de sa part.

Après une autre journée, je répète l’exercice d’hier. Voici les résultats :

Cliquez ici pour voir les résultats

Eh oui, les amis ont bel et bien eu un effet sur le fil d’actualité de Gérard! Le nombre d’articles de sources conspirationnistes a baissé, de 64 % à 14 %.

Du côté du fil d’actualités d’Herbie Neutre, on voit que c’est vraiment aléatoire. Il y a beaucoup de contenu conspirationniste, mais aussi beaucoup d’articles de médias traditionnels, ce qui peut sembler étrange. Mon hypothèse est que ces deux catégories publient énormément de contenu chaque jour, donc, statistiquement, il est normal que Gérard voie passer beaucoup d’articles de leur part.

Mais ce n’est pas toute l’histoire. Nous avons tendance à nous entourer de gens qui sont somme toute comme nous, et qui ont des opinions (et des habitudes de consommation d’information) relativement similaires aux nôtres. Et quand nos amis partagent des articles qui réconfortent nos opinions, nous avons beaucoup plus tendance à interagir avec ce contenu qu’avec du contenu qui nous déplaît. Tout cela a pour conséquence – en théorie, du moins – d’homogénéiser notre fil d’actualité.

Alors qu’arriverait-il si un des amis de Gérard Engagé se mettait à partager des articles douteux et qu’il commençait à interagir avec eux? C’est ce que nous verrons demain.

Jour 3 – 10h : qu’arrive-t-il quand un des amis de Gérard partage du contenu douteux?

Hier, avec mon compte Facebook personnel, je suis devenu ami avec Gérard. J’ai par la suite partagé six articles de sources douteuses. Des articles comme celui-ci :« Votre taux vibratoire est-il assez élevé pour attirer l’être désiré? » Du contenu que Gérard apprécierait beaucoup, quoi.

Sans surprise, Facebook a montré à Gérard beaucoup plus de publications de ma page personnelle que de ses autres amis. Des 20 premières publications d’amis apparaissant dans le fil d’actualité de Gérard, 6 provenaient de mon compte personnel. Deux autres amis ont vu trois de leurs publications apparaître dans le fil, deux autres ont vu deux de leurs articles y défiler, et trois autres amis, un seul article.

Bref, il est clair que les algorithmes Facebook nous montrent ce que publient nos amis, mais favorisent le contenu qui ressemble à ce que nous aimons déjà.

Gérard réagit aux six articles de mon compte personnel, et quitte Facebook. Je vais laisser macérer ça toute la journée et j’y reviendrai en fin d’après-midi pour faire une analyse finale du fil d’actualités.

Jour 3 – 16h30 : les résultats

Le grand moment est arrivé. Vous brûlez sans doute d’impatience de voir les résultats de cette expérience de trois jours. Les voici :

Cliquez ici pour voir les résultats

Boum! C’est clair : quand on interagit avec des publications de sources moins fiables, Facebook nous montre beaucoup plus de contenu de ce genre, même si nos amis partagent du contenu fiable.

Tout ça est bien beau, des chiffres et des statistiques, c’est bien intéressant, mais c’est encore mieux de voir par soi-même. L’expérience étant maintenant terminée, j’ai partagé en ordre chronologique, avec les deux comptes fictifs, les 20 premiers articles sur le fil d’actualités. Vous pouvez donc voir de vos propres yeux de quoi avait l’air l’info qui défilait pour chaque compte!

Vous pouvez accéder au fil d’actualités de Gérard Engagé en cliquant ici (vous devez être connecté à Facebook).

Vous pouvez accéder au fil d’actualités d’Herbie Neutre en cliquant ici (vous devez être connecté à Facebook).

Vous voyez la différence? C’est assez hallucinant. Les deux comptes ont quand même vu défiler beaucoup de contenu douteux, mais la différence est marquée. Personnellement, j’aimerais mieux avoir le fil d’Herbie que celui de Gérard.

Ouf! C’était beaucoup de lecture! Amusez-vous un peu avec les comptes fictifs, puis revenez ici pour une petite discussion à propos des résultats, et de ce que j’en pense.

Conclusion : Mais qu’est-ce que ça veut dire, tout ça?

Alors voilà. Mes résultats n’étaient peut-être pas aussi spectaculaires que ceux obtenus par d’autres expériences du genre, mais je crois que la démarche était (un peu) plus scientifique. De plus, j’ai utilisé Facebook de manière réaliste, en cliquant « j’aime » sur des articles et en interagissant avec du contenu partagé par des amis.

Pour moi, les conclusions sont claires :

– Même quand on est abonné à un éventail de médias sur Facebook, si on interagit avec seulement une catégorie de contenu, notre fil d’actualités se retrouve bondé de ce type d’articles. De plus, Facebook nous encourage à nous abonner à des pages qui diffusent du contenu semblable.

– Nos amis peuvent bien apporter une diversité de sources sur notre fil. Par contre, si on interagit seulement avec des articles qui représentent notre point de vue, on se retrouve encore une fois entouré de contenu qui nous réconforte. Les opinions contraires se font alors plus rares.

– Notre fil Facebook ne montre pas l’actualité telle qu’elle est, mais telle que nous voulons la voir.

Ce dernier point est assez crucial.

Ça fait quelques années que je mets en garde contre l’effet de bulle que peut avoir Facebook, où l’on a tendance à s’enfermer dans un cocon idéologique qui ne nous montre que des informations avec lesquelles nous sommes d’accord. Cette expérience démontre assez clairement que le phénomène est réel.

En passant, ce n’est pas juste la faute des algorithmes de Facebook. Nous sommes tous responsables de notre activité sur les réseaux sociaux. Nous nous sommes tous, à certains degrés, enfermés dans nos bulles en cliquant sur des trucs sur notre fil d’actualités.

Mais je vous demande d’imaginer le fil Facebook d’une personne qui croit que les « médias de masse » sont tous menteurs, et qui a donc décidé de bloquer toutes les pages des médias d’information. Et ensuite, imaginez-vous que cette personne s’abonne à une multitude de pages qui lui « confirment » que les médias cachent la vérité, et qui lui racontent toutes sortes d’histoires sordides, à savoir que les changements climatiques sont une lubie, que les vaccins sont un programme de castration chimique des populations occidentales, ou que la plupart des réfugiés sont des terroristes.

Et maintenant, je veux que vous vous imaginiez avoir à débattre d’enjeux de société avec une telle personne.

Ces personnes existent. Elles s’informent sur Facebook, parce qu’elles ne peuvent pas trouver ailleurs « l’information » qu’elles veulent. Elles font partie de votre société. Elles votent.

Et leur vote compte autant que le vôtre.

Source : Radio-Canada
Par : Jeff Yates

Voir aussi

Laisser un commentaire

Votre adresse électronique ne sera pas publiée. Les champs Exigés sont marqués avec *

Cancel reply