Des « bulles de filtres » apparaissent-elles sur Internet qui renforcent les attitudes politiques et, dans le pire des cas, conduisent même à la radicalisation des utilisateurs ? C’est parfois une hypothèse courante – mais il n’y a pratiquement aucune preuve scientifique pour le mot à la mode « bulle de filtre ». Une étude récente s’est penchée sur le phénomène.
C’est une vérité perçue que les gens trouvent principalement sur Internet des contenus qui correspondent déjà à leur opinion. On soupçonne parfois que les algorithmes des moteurs de recherche cultivent ce que l’on appelle des « bulles de filtres » en suggérant aux utilisateurs un contenu correspondant à leur orientation politique existante. Ils contribueraient ainsi à la polarisation politique. Cependant, la preuve de cette thèse est parfois difficile à fournir, après tout, la plupart des moteurs de recherche ne regardent pas leurs cartes et gardent leurs algorithmes de recherche pour eux. Par conséquent, on ne peut enregistrer qu’indirectement les résultats que les moteurs de recherche suggèrent à certains utilisateurs et comment les résultats diffèrent entre les différents utilisateurs.
Un étude actuelle des États-Unis essaie de comprendre comment les résultats de recherche en ligne affectent ce que les gens lisent. Les données de l’étude ont été collectées en deux vagues, 2018 et 2020. Les données ont été collectées à l’aide d’une extension de navigateur propriétaire que les participants ont installée à l’avance. Ce plugin a enregistré trois processus : les URL (c’est-à-dire les adresses des pages Web) qui ont été affichées à l’utilisateur à la suite d’une recherche Google, les interactions avec les URL sur ces pages et, en plus, les interactions globales des URL en ligne indépendamment de cela au-delà des résultats de recherche Google dans les périodes d’enquête. Au total, l’ensemble de données comprenait plus de 328 000 pages de résultats de recherche Google et près de 46 millions d’URL provenant du Web.
Au cours des deux vagues de l’étude en 2018 et 2020, il a été constaté que les participants s’engagaient dans l’ensemble avec plus d’informations partisanes que ce que la recherche Google leur suggérait. Les chercheurs ont trouvé plus de contenu conforme à l’identité (c’est-à-dire conforme à l’orientation politique existante) parmi les participants et également plus de sources d’information classées comme non fiables que la recherche Google ne l’avait suggéré. Ainsi, les résultats suggèrent que l’engagement avec un contenu qui correspond à notre image politique existante n’est pas la faute de Google. En bref : la bulle du filtre, c’est nous-mêmes.
Dans cette étude, les données ont été collectées exclusivement avec le scénario d’une recherche via Google, les autres prestataires n’ont pas été pris en compte. De plus, seuls les citoyens américains ont été examinés. Néanmoins, l’étude s’inscrit dans un certain tableau d’ensemble, car les résultats correspondent largement à l’état de la recherche en communication sur le sujet. Il y a toujours des voix qui parlent de bulles de filtres et de chambres d’écho à propos de la personnalisation contrôlée par algorithme d’Internet, dans laquelle les utilisateurs ne sont inévitablement nourris que de leurs propres opinions (on parle de « biais algorithmique ») – la preuve empirique de ces thèses est si loin plutôt faible.
“Coffee addict. Lifelong alcohol fanatic. Typical travel expert. Prone to bouts of apathy. Internet pioneer.”