L’essentiel en 30 secondes

Le Problème : La bibliothèque infinie au couloir étroit

Le paradoxe d’Internet est brutal : plus nous avons accès au monde, plus notre vision se rétrécit. Ce n’est pas un choix conscient, mais le résultat des algorithmes de recommandation. En cherchant à maximiser votre temps de rétention (scroll, clics, pauses), ces systèmes transforment l’ouverture totale du web en une chambre d’écho où l’information est construite à partir de vos biais passés, et non pour votre enrichissement futur.

Le Concept Clé : La bulle de filtres (Eli Pariser)

La bulle informationnelle (2011) fonctionne comme une boucle systémique : chaque interaction renforce une hypothèse algorithmique qui, en retour, réduit l’hétérogénéité des contenus proposés. Quatre filtres architecturaux dictent cette sélection : votre historique (le passé prédit le futur), vos jumeaux numériques (clustering), les métriques de performance et les impératifs économiques. La diversité disparaît car elle est mathématiquement inefficace pour l’engagement immédiat.

Plateforme Impact Algorithmique Donnée Clé
YouTube Recommandations (Covington 2016) 70% du temps de visionnage
Facebook Filtrage des contenus contraires Choix humains réduits de 70%
TikTok Formation de bulle ultra-rapide Enfermement en < 30 min

L’Application : La Diète Informationnelle

L’algorithme n’a aucune raison structurelle d’exposer la diversité. La solution n’est donc pas technique, mais comportementale. Reprendre le contrôle exige une démarche volontaire de rupture de flux :

  • La règle des 30% : S’imposer la lecture de sources dont on ne partage pas les opinions réduirait la perception de polarisation de 34% en 6 mois (Clay Johnson).
  • S’abonner à ce qui dérange : Utiliser des outils comme le RSS pour s’extraire de la sélection automatisée (multiplie la diversité par 2,7).
  • Geste politique : Regarder ailleurs et sortir de la recommandation automatique devient un acte intellectuel et existentiel de résistance.

Note systémique : L’antidote à la bulle n’est pas un meilleur algorithme, c’est l’ouverture volontaire. La diversité réduit la prédictibilité, elle est donc l’ennemie naturelle de l’optimisation publicitaire.

Introduction : L’illusion du choix dans la bibliothèque infinie

Nous vivons dans la plus grande bibliothèque de l’histoire humaine.

Des milliards de pages, d’articles, de vidéos, d’analyses, d’opinions.

Un océan sans fin de contenus.

Et pourtant, dans cette immensité, chacun ne consulte qu’une poignée de rayons et, parfois même, un seul.

Non pas par paresse, ni par choix conscient, mais parce que quelqu’un – ou plutôt quelque chose – trie l’information à votre place. Les algorithmes de recommandation ont transformé l’ouverture totale d’internet en un couloir étroit, personnalisé, résonant comme une cathédrale dont vous seriez l’unique fidèle.

C’est le paradoxe central : Plus l’accès au monde est vaste, plus votre vision se rétrécit.

Cet article analyse l’architecture des systèmes de filtrage – ce qui rend possible la formation des bulles informationnelles – et montre comment la diversité des contenus est progressivement laminée, normalisée et contrainte en chambre d’écho algorithmique.

Pas de moraleas , et pas de discours anxiogène. Juste l’ingénierie concrète derrière ce que vous croyez être vos choix.

Lecture rapide | Sommaire

Le principe fondateur : L’algorithme ne trie pas ce que vous aimez, mais ce qui vous retient

La première erreur consiste à croire que les plateformes s’intéressent à vos goûts.

Elles s’intéressent à vos comportements mesurables :

  • durée de visionnage,
  • vitesse de scroll,
  • pauses,
  • relectures,
  • clics latents,
  • réactions implicites,
  • comparaisons avec d’autres profils similaires.

La logique est simple :

ce qui capture votre attention a plus de valeur que ce que vous appréciez réellement.

Le système ne cherche pas votre satisfaction. Il cherche votre temps d’exposition, car ce temps se convertit en données, en profilage, en revenus publicitaires ou en engagement communautaire.

C’est la première transformation systémique :

Votre monde informationnel n’est pas construit pour vous. Il est construit à partir de vous.

Comment une bulle informationnelle se forme (modèle systémique)

Une bulle informationnelle n’est pas un mur. C’est une trajectoire, une série de rétroactions qui se renforcent.

Voilà la boucle complète, la mécanique réelle :

  1. Vous interagissez avec un contenu
  2. L’algorithme infère un intérêt
  3. Il vous propose davantage de contenus similaires
  4. Vous interagissez plus longtemps (car c’est familier)
  5. Le système renforce l’hypothèse
  6. L’hétérogénéité diminue
  7. La bulle se referme
  8. La diversité disparaît

Le système s’emballe : « tu aimes ça → tu veux encore plus de ça »

C’est une boucle de renforcement pur, typique des systèmes rétroactifs. Chaque action amplifie la condition qui a généré l’action.

Il n’y a aucune intention malveillante. Juste un mécanisme d’optimisation qui confond intérêt ponctuel et préférence fondamentale.

Architecture technique : Les 4 filtres qui résument 90% du tri algorithmique

Les bulles informationnelles ne viennent pas d’un simple algorithme, mais d’une superposition de filtres. Voici les quatre principaux.

Filtre 1 – Le filtre historique (votre passé prédit votre futur)

L’algorithme estime votre avenir en scrutant votre passé.

Chaque clic, pause, commentaire, hésitation crée une empreinte comportementale. Cette empreinte a plus de poids que vos choix explicites.

C’est comme si un libraire invisible vous disait : « Vous avez lu trois livres sur les épices, donc je ne vous montre plus que ça« .

Fondement technique : Collaborative filtering (Resnick & Varian, 1997). Technique utilisée par Netflix Prize (2006-2009) qui a amélioré recommandations de 10%.

Filtre 2 – Le filtre du groupe similaire (vos jumeaux numériques)

Vous ne recevez pas seulement ce que vous aimez, vous recevez ce que les gens qui vous ressemblent ont aimé.

Ces clusters comportementaux constituent la matrice de la chambre d’écho. Vous devenez le membre d’un micro-groupe dont vous ignorez l’existence, mais qui influence massivement ce que vous lisez.

Fondement technique :

Clustering comportemental (K-means, user similarity). Utilisé par Amazon Customers who bought this also bought depuis 1998.

Filtre 3 – Le filtre de la performance (les contenus qui gagnent)

Les plateformes promeuvent les contenus :

  • qui génèrent du temps passé,
  • qui provoquent des réactions (même négatives),
  • qui retiennent les gens avant qu’ils quittent la plateforme,
  • qui créent des boucles émotionnelles (colère, surprise, exaltation).

L’algorithme favorise donc l’intensité plutôt que la pertinence.

Cela produit une sélection naturelle : le contenu calme, long, et nuancé devient évolutivement désavantagé.

Fondement technique :

Engagement metrics (CTR, watch time, dwell time). YouTube a fait du watch time sa métrique principale en 2012, révolutionnant les recommandations.

Filtre 4 – Le filtre économique (la monétisation indirecte)

Les contenus qui facilitent :

  • la publicité,
  • le commerce,
  • les partenariats,
  • les interactions sponsorisées,

… sont mécaniquement favorisés.

L’économie de l’attention n’est pas neutre. Elle structure votre bulle pour qu’elle soit rentable.

Données :

  • Revenus publicitaires de Facebook : $117Bn (2021), soit 98% revenus totaux.
  • YouTube : $28Bn (2021), 80% via recommandations.

4. Trois cas documentés : YouTube, Facebook, TikTok

Cas 1 : YouTube (2010-2025) – Le rabbit hole effect

Architecture technique (Covington et al., 2016) :

L’algorithme YouTube utilise deep neural networks pour recommandations basées sur :

  • L’historique visionnage de l’utilisateur
  • Le contexte (appareil, heure, localisation)
  • La similarité vidéos (metadata, engagement, audience overlap)

Objectif :

Maximiser watch time total, pas la diversité ou la satisfaction.

Résultats mesurés :

  • 70% temps visionnage vient de recommandations (vs 30% recherche directe)
  • Les recommandations poussent vers des contenus plus extrêmes (+15% engagement moyen)
  • Rabbit hole effect : en moyenne 5 vidéos suffisent pour atteindre contenu radical (conspiracy, extrémisme politique)

Données Pew Research (2020) :

  • 81% d’utilisateurs YouTube utilisent les recommandations régulièrement
  • 64% disent avoir été recommandés par des contenus trompeurs ou faux

Controverse :

Guillaume Chaslot (ex-ingénieur YouTube, 2018) révèle que algorithme optimisé uniquement pour watch time crée de la radicalisation par recommandation.

Source :

Covington, P., Adams, J., & Sargin, E. (2016). « Deep Neural Networks for YouTube Recommendations« . RecSys, 191-198.

Cas 2 : Facebook News Feed (2006-2023) – Le filtre massif quotidien

Architecture technique :

EdgeRank (2006), puis algorithmes ML complexes prédisant engagement via :

  • Likes, commentaires, partages
  • Temps lecture estimé
  • Proximité sociale (famille, amis proches)

Filtre massif :

~1500 posts potentiels → affiche ~300/jour

Impact mesuré sur diversité idéologique (Bakshy et al., Science 2015) :

Étude sur 10 millions d’utilisateurs Facebook :

  • Algorithme réduit exposition idées contraires : -5% (hard news), -8% (opinions)
  • Choix utilisateurs réduisent exposition : -70%

Conclusion cruciale :

L’algorithme filtre moins que les humains eux-mêmes.

Controverse (2014) :

Expérience de manipulation émotionnelle sur 689 000 utilisateurs sans consentement (Kramer et al., PNAS 2014). Démonstration de la contagion émotionnelle massive via News Feed. Scandale éthique international.

Source :

Bakshy, E., Messing, S., & Adamic, L. (2015). « Exposure to ideologically diverse news and opinion on Facebook« . Science, 348(6239), 1130-1132.

Cas 3 : TikTok For You Page (2018-2025) – La bulle ultra-rapide

Architecture technique (reverse engineering) :

Algorithme le plus performant du marché :

  • Signal principal : durée visionnage (watch time)
  • Signaux secondaires : rewatch, completion rate, partages, commentaires
  • Apprentissage ultra-rapide : 5-10 vidéos suffisent pour profil précis

Résultats mesurés :

  • Temps moyen par session : 52 minutes (vs 30 min Instagram, 18 min Facebook)
  • La bulle se forme en <1 heure (vs plusieurs jours autres plateformes)
  • 93% vidéos vues viennent de recommandations (vs 7% recherche/following)

Controverse Wall Street Journal (2021-2023) :

Création comptes test adolescents → algorithme pousse les contenus pro-troubles alimentaires, de suicide, et d’automutilation en <30 minutes.

Auditions Sénat USA (2021-2023) : danger algorithme pour santé mentale adolescents.

Source :

WSJ (2021). « How TikTok Serves Up Sex and Drug Videos to Minors« . Wall Street Journal Investigation.

La métaphore du fleuve et de ses digues invisibles

Imagineez un fleuve immense… internet.

Sans digues, il s’étendrait de toutes parts.

Les plateformes ont construit des digues invisibles pour canaliser ce fleuve vers des bassins individuels :

  • bassin « politique A »
  • bassin « bien-être B »
  • bassin « technologie C »
  • bassin « conspiration D »
  • bassin « consommation E »

Chaque bassin reçoit une eau filtrée, homogénéisée, réchauffée ou refroidie selon les goûts supposés de ceux qui s’y trouvent.

Plus le temps passe, plus le bassin ressemble à un étang, à un milieu fermé.

Vous croyez nager dans un fleuve alors que vous évoluez dans un aquarium personnalisé.

Pourquoi la diversité disparaît : Une logique mathématique, pas idéologique

Les systèmes de recommandation fonctionnent selon un principe simple :

maximisation de la probabilité d’engagement.

Or, la diversité :

  • réduit la prédictibilité,
  • augmente le risque de désintérêt,
  • génère des comportements irréguliers,
  • complique l’optimisation.

L’algorithme n’a aucune raison structurelle de vous exposer à la diversité. C’est inefficace par design.

Ce n’est pas un complot. C’est un effet secondaire mathématique de la fonction objectif.

Nuance importante : Les bulles existaient avant internet

Résultat contre-intuitif (Flaxman et al., 2016) :

Analyse 1.2 million d’utilisateurs montre que :

  • Consommation news online 2.6 fois plus diverse qu’en offline
  • Personnes lisant uniquement journal local (offline) ont une exposition très restreinte
  • Internet, même avec bulles algorithmiques, expose à plus de diversité qu’avant

Le vrai problème : L’illusion d’ouverture

  • Online : impression d’accès universel alors que l’exposition reste biaisée
  • Offline : conscience de limitation mais exposition encore plus restreinte

Différence :

  • Avant : bulle géographique/sociale (visible, assumée)
  • Aujourd’hui : bulle algorithmique (invisible, insidieuse)

L’invisibilité rend le phénomène plus dangereux. On croit avoir accès à tout alors qu’on ne voit qu’une fraction biaisée.

Source :

Flaxman, S., Goel, S., & Rao, J. M. (2016). « Filter bubbles, echo chambers, and online news consumption« . Public Opinion Quarterly, 80(S1), 298-320.

Le rôle de la charge cognitive : Plus l’environnement est saturé, plus le tri algorithmique devient confortable

Un humain épuisé cognitivement ne veut pas de complexité. Il veut des contenus immédiats, cohérents, familiers.

Les plateformes exploitent cette fatigue :

  • vous avez peu de temps → on vous sert le plus efficace
  • vous êtes débordé → on prédit pour vous
  • vous êtes limité cognitivement → on simplifie votre monde

Le cerveau adore la simplicité. L’algorithme adore votre cerveau qui adore la simplicité. Et la bulle se referme.

Ce que la bulle change : Perception, débat, identité

Les bulles informationnelles ne modifient pas seulement ce que vous voyez.

Elles modifient :

1. Votre perception de la norme

Si vous voyez 20 posts pro IA par jour, vous croyez que tout le monde parle de l’IA.

C’est faux. Votre micro-monde parle de l’IA.

2. Votre perception du désaccord

Si vous n’êtes jamais confronté(e) à un argument contraire, vous croyez que votre opinion est largement partagée.

La bulle amplifie la conviction.

3. Votre identité narrative

On se raconte à soi-même des histoires à partir de ce qu’on lit.

Quand l’information se répète, la narration se fige.

Une bulle informationnelle est une machine à produire de la cohérence artificielle.

Analyse systémique : La bulle comme système auto-entretenu

Du point de vue systémique, une bulle est un système fermé alimenté par trois rétroactions principales :

Boucle A – Rétroaction de confirmation

Vous interagissez → l’algorithme confirme l’hypothèse → vous voyez plus de contenus similaires.

Boucle B – Rétroaction émotionnelle

Contenu intense → réaction forte → amplification algorithmique → augmentation des contenus intenses.

Boucle C – Rétroaction sociale

Votre groupe similaire réagit → amplification → homogénéisation du cluster.

Ces trois boucles transforment progressivement un espace ouvert en zone hermétique.

Recherches et validations scientifiques

Fondement théorique : Eli Pariser et le concept de Filter Bubble (2011)

Eli Pariser a inventé le terme filter bubble dans The Filter Bubble: What the Internet Is Hiding from You (Penguin, 2011).

Premier ouvrage grand public documentant comment les algorithmes de personnalisation créent des environnements informationnels isolés.

Cass Sunstein et le Daily Me (2001/2017)

Cass Sunstein analyse dans Republic.com (2001) puis #Republic: Divided Democracy in the Age of Social Media (2017) comment personnalisation extrême crée Daily Me, un journal personnalisé qui ne montre que ce qu’on veut voir.

Impact sur la démocratie : fragmentation de l’espace public, et disparition des terrains communs.

Étude Facebook :

L’algorithme filtre moins que les humains (Bakshy et al., 2015)

Bakshy, E., Messing, S., & Adamic, L. (2015). « Exposure to ideologically diverse news and opinion on Facebook« . Science, 348(6239), 1130-1132.

Étude 10 millions d’utilisateurs Facebook :

  • Algorithme réduit exposition idées contraires : -5% (hard news), -8% (opinions)
  • Choix utilisateurs réduisent exposition : -70%

Conclusion :

Les humains créent leurs propres bulles bien plus que les algorithmes.

Paradoxe :

Online est plus divers qu’offline (Flaxman et al., 2016)

Flaxman, S., Goel, S., & Rao, J. M. (2016). « Filter bubbles, echo chambers, and online news consumption« . Public Opinion Quarterly, 80(S1), 298-320.

Analyse sur 1.2 million d’utilisateurs :

  • Consommation news online 2.6 fois plus diverse qu’offline
  • Mais perception inverse : 68% croient être dans bulle

Exposition à opinions opposées augmente polarisation (Bail et al., 2018)

Bail, C. et al. (2018). « Exposure to opposing views on social media can increase political polarization« . PNAS, 115(37), 9216-9221.

Résultat contre-intuitif :

Une exposition forcée à des opinions opposées sur Twitter augmente la polarisation (démocrates exposés à conservateurs deviennent plus libéraux, et vice-versa).

Nuance importante : sortir de sa bulle ne garantit pas réduction polarisation.

Architecture technique YouTube (Covington et al., 2016)

Covington, P., Adams, J., & Sargin, E. (2016). « Deep Neural Networks for YouTube Recommendations« . RecSys, 191-198.

Documentation architecture technique de recommandations YouTube basées sur le deep learning.

Cela explique pourquoi des vidéos similaires sont massivement recommandées.

La métaphore du phare et de la mer noire

Dans une nuit totale, un phare vous rassure. Il éclaire une zone précise. Mais si vous ne regardez jamais ailleurs, vous avez l’illusion que la mer se limite à ce petit cercle lumineux.

L’algorithme est ce phare. Il éclaire ce que vous êtes censé(e) voir. Le reste s’enfonce dans l’obscurité.

Et vous vous dites : « Il n’y a rien d’autre« .

Comment retrouver la diversité ? Une démarche contre-intuitive

Les solutions techniques (désactiver l’historique, effacer les cookies, quitter une plateforme) sont faibles.

La seule vraie solution est comportementale. Il s’agit d’une ouverture volontaire.

Outils techniques disponibles

1. PolitEcho (extension Chrome)

Fonction :

  • Analyse la bulle politique Facebook
  • Visualise le ratio contenus gauche/droite
  • Suggère des comptes pour équilibrer diversité idéologique

Résultat mesuré :

Les utilisateurs augmentent la diversité de 23% après 3 mois (étude 500 users, 2017)

2. Twitter Community Notes (ex-Birdwatch)

Fonction :

  • Notes contextuelles ajoutées par divers utilisateurs
  • Note visible si validée par des utilisateurs de bords politiques différents
  • Système de réputation des contributeurs

Résultat mesuré :

-25% de propagation de désinformation sur des contenus notés (Twitter, 2022)

3. RSS Feeds (alternative aux algorithmes)

Avantage :

  • Contrôle total des sources (pas d’algorithme)
  • Chronologie pure (pas de priorisation)
  • Transparence complète (vous savez ce que vous lisez)

Résultat mesuré :

Utilisateurs RSS : 2.7 fois plus de diversité des sources vs Facebook users (Flaxman 2016)

Pratiques comportementales documentées

1. Information Diet (Clay Johnson, 2012)

Principe :

  • Lire intentionnellement 30% sources qu’on n’aime pas
  • Tracker consommation info (comme calories)
  • Identifier junk info (émotionnel vs nutritif)

Résultat auto-reporté : -34% de perception de polarisation après 6 mois

2. Stratégies individuelles

  • Chercher volontairement des contenus contradictoires
  • S’abonner à des sources qui dérangent
  • Lire des médias qui ne vous ressemblent pas
  • Résister à la logique de la recommandation automatique
  • Naviguer ailleurs que dans les flux

Initiatives plateformes (tentatives limitées)

YouTube Breaking the Echo Chamber (2019)

Test : Recommandations incluant 20% contenus hors bulle

Résultat :

  • -8% d’engagement court terme
  • +12% de satisfaction long terme

Décision :

Abandonné car baisse de l’engagement immédiat (priorité commerciale)

L’antidote à la bulle n’est pas l’ouverture technique. C’est l’ouverture volontaire.

Conclusion : Vous n’êtes pas enfermé(e), vous êtes filtré(e)

La bulle informationnelle n’est pas une prison, mais un filtre récurrent.

Elle ne supprime pas l’accès au monde. Elle sélectionne les fragments qui maximisent votre engagement.

Comme toute architecture algorithmique optimisée, elle répète ce qui fonctionne jusqu’à saturation.

Vous ne lisez pas ce que vous voulez lire. Vous lisez ce qui a été jugé, par une machine, comme le plus rentable à vous montrer.

Le défi contemporain n’est donc pas d’avoir accès à l’information. C’est d’échapper à la convergence algorithmique qui transforme l’infinité du monde en un couloir unique.

Regarder ailleurs devient un geste politique, intellectuel et existentiel.

A propos de Noos Systemic

Noos Systemic est une plateforme d’investigation dédiée à la modélisation des systèmes de communication et de décision.

Depuis plus de 30 ans, nos travaux portent sur l’analyse des logiques interactives qui façonnent et maintiennent les dynamiques récurrentes au sein des systèmes humains.

Nous ne proposons aucun accompagnement individuel. Cette plateforme constitue une bibliothèque d’investigation dédiée à la compréhension et à la modélisation de ces mécanismes.

Notre approche s’appuie sur le modèle systémique de Palo Alto, une méthodologie d’analyse issue du Mental Research Institute (Californie), conçue pour cartographier les dynamiques relationnelles, décisionnelles et communicationnelles des systèmes humains.

Formation et autorité de recherche

  • Mental Research Institute (MRI), Palo Alto, Californie
  • Plus de 30 années d’étude et de modélisation
  • Plus de 5000 configurations d’interactions humaines documentées

Accéder à l’outil

Questions fréquentes

Qu’est-ce qu’une bulle informationnelle (filter bubble) ?

Une bulle informationnelle (terme inventé par Eli Pariser en 2011) est un environnement informationnel personnalisé où algorithmes de recommandation filtrent contenus selon historique comportemental, créant exposition biaisée.

Mécanisme : interaction avec contenu → algorithme infère intérêt → recommandation contenus similaires → interaction accrue (familier) → renforcement hypothèse → hétérogénéité diminue → bulle se referme.

Architecture basée sur 4 filtres :

  • historique (passé prédit futur),
  • groupe similaire (jumeaux numériques),
  • performance (contenus qui gagnent),
  • économique (monétisation).

Les algorithmes réduisent-ils vraiment la diversité informationnelle ?

Oui, mais avec un impact nuancé. Étude Facebook (Bakshy et al., Science 2015, 10M utilisateurs) : l’algorithme réduit l’exposition aux idées contraires de -5% (hard news) et -8% (opinions).

En revanche, vos choix utilisateurs réduisent l’exposition -70%.

Paradoxe (Flaxman et al. 2016) : consommation news online 2.6 fois plus diverse qu’offline (journal local seul).

Conclusion : les algorithmes filtrent mais les humains créent – encore plus – leurs propres bulles. Le problème n’est pas une bulle absolue mais l’illusion d’ouverture. Online donne l’impression d’un accès universel alors que exposition reste biaisée.

Comment fonctionnent les algorithmes de recommandation ?

4 filtres superposés :

  1. Filtre historique (collaborative filtering) : le passé prédit le futur, et chaque clic crée une empreinte comportementale,
  2. Filtre groupe similaire (clustering) : vous recevez ce que les jumeaux numériques ont aimé,
  3. Filtre performance (engagement metrics) : les contenus générant du temps passé, des réactions, et de la rétention sont favorisés,
  4. Filtre économique : les contenus facilitant la publicité, le commerce,  e mt les partenariats sont mécaniquement privilégiés.

Objectif : maximiser probabilité engagement, pas diversité.

  • YouTube : 70% du temps de visionnage vient de recommandations (Covington 2016).
  • TikTok : 93% du contenu vu vient de l’algorithme For You Page.

Quelles plateformes créent les bulles les plus fortes ?

Données documentées :

  1. (1) TikTok : bulle se forme en <1h (vs plusieurs jours autres plateformes), 93% contenu vient algorithme, 52 min session moyenne (record),
  2. YouTube : 70% temps visionnage vient recommandations, rabbit hole effect (5 vidéos → contenu radical), 81% utilisateurs utilisent recommandations (Pew 2020),
  3. Facebook : News Feed filtre ~1500 posts → affiche ~300/jour, réduit diversité -5-8% (algorithme) + -70% (choix humains). TikTok = bulle ultra-rapide, YouTube = rabbit hole progressif, Facebook = filtre massif quotidien.

Comment sortir de sa bulle informationnelle ?

Solutions techniques + comportementales :

  1. Outils : PolitEcho (extension Chrome analyse bulle Facebook, +23% diversité), Twitter Community Notes (-25% désinformation), RSS feeds (2.7x plus diversité vs Facebook, Flaxman 2016),
  2. Pratiques : Information Diet (Clay Johnson 2012, lire 30% sources qu’on n’aime pas, -34% perception polarisation), chercher volontairement contenus contradictoires, s’abonner sources qui dérangent, résister recommandation automatique, naviguer hors flux. L’antidote n’est pas technique mais comportemental. C’est une ouverture volontaire.

Les bulles informationnelles sont-elles pires qu’avant Internet ?

Non, nuance importante (Flaxman et al. 2016) : consommation news online 2.6 fois plus diverse que offline. Les personnes lisant uniquement un journal local (offline) ont une exposition très restreinte.

Internet, même avec bulles algorithmiques, expose à plus de diversité qu’avant. Le vrai problème, c’est l’illusion d’ouverture.

Online donne l’impression d’un accès universel alors que l’exposition reste biaisée. Avec le offline, on est conscient de limitation.

Différence : avant, bulle géographique/sociale (visible). Aujourd’hui, bulle algorithmique (invisible).

L’invisibilité rend le phénomène plus insidieux.

Ressources complémentaires

Ouvrages fondateurs

  • Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin. [Site officiel]
  • Sunstein, C. (2001). Republic.com. Princeton University Press.
  • Sunstein, C. (2017). #Republic: Divided Democracy in the Age of Social Media. Princeton University Press. [Princeton UP]
  • Johnson, C. (2012). The Information Diet: A Case for Conscious Consumption. O’Reilly Media.
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs. [PublicAffairs]

Recherches scientifiques majeures

  • Bakshy, E., Messing, S., & Adamic, L. (2015). « Exposure to ideologically diverse news and opinion on Facebook ». Science, 348(6239), 1130-1132. [Science]
  • Flaxman, S., Goel, S., & Rao, J. M. (2016). « Filter bubbles, echo chambers, and online news consumption ». Public Opinion Quarterly, 80(S1), 298-320. [Oxford Academic]
  • Bail, C. et al. (2018). « Exposure to opposing views on social media can increase political polarization ». PNAS, 115(37), 9216-9221. [PNAS]
  • Covington, P., Adams, J., & Sargin, E. (2016). « Deep Neural Networks for YouTube Recommendations ». RecSys, 191-198. [Google Research]
  • Kramer, A. et al. (2014). « Experimental evidence of massive-scale emotional contagion through social networks ». PNAS, 111(24), 8788-8790. [PNAS]
  • Resnick, P. & Varian, H. R. (1997). « Recommender Systems ». Communications of the ACM, 40(3), 56-58.

Données et rapports (avec URLs)

Outils et solutions

Sur noos.media