Le paradoxe de la personnalisation
Les algorithmes de recommandation promettent de vous montrer exactement ce que vous voulez voir.
Plus ils apprennent vos préférences, plus ils affinent leurs suggestions. Plus vous interagissez, plus l’expérience devient personnalisée.
- Le résultat attendu : une navigation optimale dans l’océan informationnel.
- Le résultat réel : un entonnoir qui se referme.
Cette contradiction n’est pas un bug mais une propriété structurelle des systèmes de recommandation.
Les algorithmes ne vous personnalisent pas votre expérience. Ils construisent progressivement un entonnoir informationnel dont l’ouverture se rétrécit à chaque interaction.
Vous entrez par une embouchure large (l’internet infini) et vous vous retrouvez, après quelques centaines de clics, dans un tube étroit où ne circulent plus que les mêmes contenus, les mêmes perspectives, les mêmes confirmations.
Cette analyse déconstruit les mécanismes cybernétiques par lesquels la personnalisation algorithmique produit l’enfermement qu’elle prétend éviter.
Nous examinerons comment ces systèmes créent des boucles de rétroaction auto-amplificatrices qui transforment la diversité informationnelle en monotonie prévisible.
La boucle de rétroaction algorithmique : Architecture d’un entonnoir
Gregory Bateson, fondateur de la cybernétique, a théorisé les systèmes auto-régulés où les outputs deviennent des inputs, créant des cycles stabilisateurs ou amplificateurs.
Les algorithmes de recommandation incarnent le second type : une boucle de rétroaction positive qui amplifie les préférences initiales jusqu’à créer un effondrement de la diversité informationnelle.
Le cycle fonctionne ainsi :
1. Vous interagissez avec un contenu (clic, vue, like, partage)
2. L’algorithme enregistre cette préférence comme signal
3. Il vous propose davantage de contenus similaires
4. Vous interagissez avec ces contenus (confirmation du signal)
5. L’algorithme interprète cela comme validation et intensifie la recommandation
6. Retour à l’étape 3, avec un espace informationnel progressivement réduit
Schéma visuel
Imaginez un entonnoir vertical.
En haut, l’ouverture large représente les milliards de contenus disponibles sur Internet. À chaque interaction avec un contenu recommandé (représentée par une flèche descendante), l’entonnoir se rétrécit.
Après 10 interactions, vous êtes à mi-hauteur. Après 100, vous êtes dans le tube final où ne passent plus que 3-4 types de contenus similaires.
Des flèches circulaires autour de l’entonnoir illustrent la boucle de rétroaction : chaque clic renforce le rétrécissement.
Ce que Eli Pariser a nommé en 2011 la filter bubble (bulle de filtres) n’est pas une métaphore mais une description précise d’un phénomène cybernétique. Un système qui se referme sur lui-même par itérations successives.
La différence cruciale avec les médias traditionnels : vous ne choisissez pas consciemment votre enfermement.
Le système vous y conduit par micro-ajustements invisibles, optimisant non pas pour votre intérêt informationnel à long terme mais pour votre engagement immédiat mesurable (temps passé, interactions, revenus publicitaires générés).
Shoshana Zuboff, dans « The Age of Surveillance Capitalism » (2019), documente comment cette logique transforme les utilisateurs en matière première comportementale dont les données servent à prédire et modifier les comportements futurs.
La personnalisation n’est pas un service rendu : c’est un mécanisme d’extraction et de contrôle.
Mécanisme 1 : Rétrécissement progressif de l’espace informationnel
Un utilisateur moyen de YouTube consulte quotidiennement environ 10 à 15 vidéos.
Sur les 500 heures de contenu uploadées chaque minute sur la plateforme, l’algorithme en sélectionne une infime fraction pour cet utilisateur. Mais cette sélection ne se fait pas sur la base de la diversité informationnelle. Elle se fait sur la base de la prédiction comportementale.
Le système optimise pour une variable : la probabilité que vous cliquiez et que vous restiez. Pas la probabilité que vous appreniez quelque chose de nouveau, que vous changiez de perspective, ou que vous soyez exposé à une information contradictoire.
Une étude de l’Université de Stanford (2020) sur les patterns de consommation YouTube a révélé que 70% des contenus visionnés proviennent de recommandations automatiques, et que ces recommandations présentent une similarité thématique de 85% ou plus avec les contenus précédemment visionnés.
Méthodologie Stanford
Les chercheurs ont analysé 12 000 utilisateurs YouTube sur 6 mois via une extension de navigateur qui enregistrait chaque vidéo visionnée, sa source (recherche manuelle, homepage, sidebar, autoplay), et calculait la similarité thématique par analyse sémantique NLP (Natural Language Processing) des titres, descriptions et tags.
Un score de similarité de 0 (totalement différent) à 1 (identique) était attribué.
Résultat
Score moyen de 0.85 entre vidéos successives issues de recommandations, contre 0.42 pour les vidéos issues de recherches manuelles.
Autrement dit : l’algorithme ne vous expose pas au monde, il vous réexpose à une version affinée de vos préférences passées.
Ce rétrécissement n’est pas linéaire mais exponentiel.
Plus vous utilisez la plateforme, plus le système apprend, et plus il réduit l’espace des possibles. L’entonnoir se resserre.
C’est ce que le chercheur Zeynep Tufekci a appelé le YouTube radicalization funnel. Le système ne vous maintient pas dans votre position initiale, il vous pousse vers des versions plus extrêmes, plus engageantes, plus polarisantes de cette position.
Exemple concret documenté
Un utilisateur regardant des vidéos de fitness finit, après 20 sessions, à visionner uniquement des contenus sur des régimes extrêmes, des compléments alimentaires douteux, et des théories pseudo-scientifiques sur la nutrition.
Non pas parce qu’il a cherché ces contenus, mais parce que l’algorithme a détecté que ces contenus génèrent plus d’engagement (durée de visionnage, taux de clics) que les contenus modérés.
Le système ne vous donne pas ce que vous voulez; Il vous donne ce qui vous fait rester. L’entonnoir ne se referme pas par accident, il est conçu pour se refermer.
Mécanisme 2 : Renforcement des biais cognitifs préexistants
Les êtres humains sont équipés de biais cognitifs documentés en psychologie sociale depuis les travaux de Daniel Kahneman et Amos Tversky.
Le plus pertinent ici est le biais de confirmation, cette tendance à privilégier les informations qui confirment nos croyances préexistantes.
Les algorithmes de recommandation ne corrigent pas ce biais : ils l’exploitent et l’amplifient.
Paul Watzlawick et l’école de Palo Alto ont théorisé comment les systèmes d’interaction maintiennent leurs propres structures dysfonctionnelles par des boucles d’autorégulation.
Dans le cas des algorithmes, la boucle est simple.
Vos biais génèrent des comportements (clics préférentiels), l’algorithme détecte ces patterns, il vous propose davantage de contenus alignés avec ces biais, ce qui renforce vos croyances initiales, ce qui renforce vos comportements de clic, et ainsi de suite.
Une recherche menée par l’Université du Michigan et Princeton (2021) a analysé les flux d’information Facebook de 10 000 utilisateurs sur 18 mois.
Résultat
Les utilisateurs exposés uniquement aux recommandations algorithmiques (sans intervention humaine) présentaient après 12 mois une polarisation idéologique mesurable 40% plus forte qu’au début de l’étude, et une exposition à des sources informationnelles contradictoires réduite de 60%.
Méthodologie Michigan-Princeton
Les chercheurs ont créé un indice de polarisation politique basé sur l’analyse de 50 000 pages Facebook classées sur un spectre gauche-droite (validation par panel d’experts politologues).
Chaque utilisateur recevait un score initial (T0) basé sur les pages likées et partagées. Après 12 mois (T1), le score était recalculé.
La polarisation était mesurée par l’écart-type des scores : plus l’écart-type augmente, plus l’utilisateur se concentre sur un segment idéologique étroit.
Parallèlement, les chercheurs mesuraient l’exposition contradictoire en comptant le nombre de posts issus de pages idéologiquement opposées (définies comme étant à plus de 0.6 de distance sur l’échelle 0-1).
Groupe contrôle : utilisateurs ayant désactivé les recommandations et utilisant uniquement la recherche manuelle.
Le système ne vous informe pas : il vous confirme.
Chaque interaction avec un contenu aligné avec vos croyances envoie un signal à l’algorithme : « Montrez-moi davantage de cela. » Le système obéit.
Ce qui commence comme une légère préférence devient, après 100 itérations, une conviction imperméable à toute contradiction.
L’entonnoir ne se contente pas de rétrécir l’espace informationnel : il le polarise. Plus vous descendez dans l’entonnoir, plus les parois se rapprochent, et plus elles sont lisses (pas d’aspérités contradictoires pour vous accrocher).
Herbert Simon, Prix Nobel d’économie, avait déjà identifié dans les années 1970 le concept de rationalité limitée : les humains ne maximisent pas l’information disponible, ils satisfont leurs critères minimaux avec l’information accessible.
Les algorithmes transforment cette rationalité limitée en rationalité captive. Vous ne pouvez même plus accéder à l’information qui contredit votre vision, car le système la filtre avant qu’elle n’atteigne votre écran.
Le chercheur Tristan Harris, ancien designer éthique chez Google, résume : « Les algorithmes ne sont pas neutres. Ils ne vous montrent pas la réalité. Ils vous montrent une version de la réalité optimisée pour vous garder engagé« .
Mécanisme 3 : Captation attentionnelle par optimisation comportementale
Les algorithmes de recommandation ne sont pas conçus pour vous informer ou vous divertir.
Ils sont conçus pour maximiser une métrique, votre temps d’attention. Plus précisément, la durée pendant laquelle vous restez sur la plateforme, exposé à de la publicité.
TikTok incarne la version la plus aboutie de cette mécanique.
L’algorithme analyse plus de 200 signaux comportementaux par utilisateur. Non seulement ce que vous aimez, mais combien de temps vous regardez chaque vidéo (même sans interaction), à quel moment vous quittez, si vous revenez en arrière, si vous révisionnez, si vous partagez.
Une étude du Wall Street Journal (2021) a créé des comptes TikTok vierges et les a laissés naviguer selon des patterns définis (intérêt pour le sport, la politique, la cuisine).
Résultat
En moins de 2 heures d’utilisation, l’algorithme avait construit un profil si précis que 90% des contenus proposés correspondaient exactement aux préférences initiales simulées.
En 10 heures, ce chiffre passait à 98%.
Méthodologie Wall Street Journal
Les journalistes ont créé 100 comptes TikTok neufs, sans historique.
Chaque compte suivait un script rigide : regarder X vidéos sur un thème donné (ex: 10 vidéos fitness) :
- noter les temps de visionnage,
- enregistrer les recommandations suivantes.
Un algorithme de classification catégorisait automatiquement chaque vidéo recommandée (sport/politique/cuisine/autre).
Le taux de précision était calculé de la façon suivante :
(nombre de vidéos correspondant au thème initial) / (nombre total de vidéos recommandées).
Observation sur 20 heures de navigation simulée par compte.
Résultat
Courbe exponentielle de précision, atteignant 98% après 10 heures.
Ce niveau de précision crée un phénomène que les neurosciences nomment variable reward schedule (récompense variable programmée).
Vous ne savez jamais si la prochaine vidéo sera extraordinaire ou médiocre, mais vous savez qu’elle sera pour vous. Cette incertitude génère une compulsion de vérification, exactement comme une machine à sous.
L’entonnoir TikTok est le plus étroit de tous. 98% de contenus similaires après 10 heures. Vous n’êtes plus dans un tube, vous êtes dans une seringue.
Le système ne vous contrôle pas directement. Il façonne l’environnement informationnel de sorte que vos choix deviennent prédictibles.
B.F. Skinner avait démontré dans les années 1950 que le conditionnement opérant (récompenses variables) génère des comportements compulsifs chez les rats.
Les algorithmes appliquent les mêmes principes aux humains.
Données empiriques : l’utilisateur moyen de TikTok passe 95 minutes par jour sur l’application. Ce n’est pas une décision consciente, c’est le résultat d’une architecture informationnelle conçue pour capter et retenir l’attention par micro-optimisations comportementales.
Une recherche de l’Université de Copenhague (2022) sur les patterns d’usage des réseaux sociaux a mesuré l’écart entre temps prévu et temps réel passé sur les plateformes.
Résultat moyen
Les utilisateurs sous-estiment leur temps d’utilisation de 60%. Autrement dit : vous pensez passer 20 minutes, vous en passez 50. Le système vous fait perdre la perception du temps.
Méthodologie Copenhague
3 000 participants équipés d’une application de tracking automatique (temps d’écran réel mesuré en secondes).
Avant chaque session, ils devaient estimer le temps qu’ils allaient passer. Après la session, comparaison entre estimation et réalité. Mesure sur 90 jours.
- Calcul de l’écart moyen : (temps réel – temps estimé) / temps réel.
- Résultat : 0.60, soit 60% d’écart.
- Variable contrôlée : type d’application (TikTok, Instagram, YouTube).
TikTok présentait le plus grand écart (68%), YouTube le plus faible (52%).
La captation attentionnelle n’est pas un effet secondaire : c’est l’objectif primaire. Tout le reste (personnalisation, recommandations, interface) est un moyen pour atteindre cette fin.
Schéma visuel
Représentation de l’entonnoir avec trois zones colorées. Zone haute (verte) :
- « Diversité informationnelle – Large ouverture – Choix conscient ».
- Zone médiane (orange) : « Rétrécissement progressif – Recommandations – Engagement croissant ».
- Zone basse (rouge)
- « Captation complète – 98% de similarité – Compulsion ».
- Des flèches montrent le temps : « 2h = 90% similarité », « 10h = 98% similarité », « 30 jours = 95 min/jour de captation ».
Comment l’humain participe à sa propre captation
Le système algorithmique n’est pas une force externe qui s’impose à vous. C’est un système cybernétique bidirectionnel.
L’algorithme apprend de vous, et vous apprenez de l’algorithme. Vous co-construisez votre propre cage.
Cette section déconstruit comment les comportements humains, parfaitement rationnels à l’échelle individuelle, nourrissent l’architecture d’enfermement.
Vous cliquez sur ce qui confirme
Face à deux contenus recommandés, l’un qui confirme votre vision du monde, l’autre qui la contredit, votre cerveau privilégie instinctivement le premier.
Ce n’est pas de la stupidité : c’est une économie cognitive.
Traiter une information contradictoire coûte de l’énergie mentale (dissonance cognitive). Traiter une information confirmante est fluide, agréable, récompensant.
L’algorithme détecte ce pattern après 3-4 interactions. Il en déduit : « Cet utilisateur préfère les contenus de type A. » Il vous en propose davantage. Vous cliquez davantage. Boucle.
Vous pensez choisir librement. En réalité, vous suivez le chemin de moindre résistance cognitive que le système a pavé pour vous. L’entonnoir se referme parce que vous descendez volontairement.
Vous restez parce que c’est fluide
Les plateformes optimisent la frictionlessness (absence de friction).
Autoplay, scroll infini, transition instantanée entre vidéos. Chaque micro-décision de continuer ou arrêter est supprimée. Le contenu suivant commence avant que vous n’ayez eu le temps de vous poser la question.
Cette fluidité est confortable. Elle demande zéro effort. Mais elle élimine le seul moment où vous pourriez reprendre le contrôle : la pause entre deux contenus.
L’entonnoir ne se referme pas par force. Il se referme parce que la descente est lisse.
Vous glissez.
Vous rationalisez l’enfermement comme personnalisation
Après 30 jours d’utilisation intensive, votre feed TikTok ou YouTube ne vous montre plus que des contenus hyper-similaires.
Mais vous ne percevez pas cela comme un enfermement. Vous le percevez comme une personnalisation réussie : « L’algorithme me connaît bien ».
Cette rationalisation est un mécanisme de défense psychologique documenté par Leon Festinger (théorie de la dissonance cognitive). Plutôt que de reconnaître qu’on est piégé, on redéfinit le piège comme un choix :
« Je ne suis pas enfermé dans une bulle, j’ai juste des goûts précis« .
Le système n’a pas besoin de vous forcer. Vous vous convainquez vous-même que l’entonnoir est une amélioration.
Vous manquez de points de comparaison
Pour percevoir l’enfermement, il faudrait pouvoir comparer votre espace informationnel actuel avec ce qu’il était il y a 6 mois, ou avec celui d’un utilisateur qui n’utilise pas les recommandations.
Mais vous n’avez pas accès à ces données.
C’est comme chauffer une grenouille progressivement. Elle ne saute pas parce qu’elle ne perçoit pas le changement de température.
L’entonnoir se referme millimètre par millimètre, interaction après interaction. Vous ne voyez jamais la cage se construire.
Le système compte sur votre absence de mémoire comparative et votre incapacité à auditer votre propre exposition informationnelle.
Vous êtes récompensé(e) pour descendre
Chaque interaction avec un contenu recommandé génère une micro-récompense neurologique (dopamine). Plus vous descendez dans l’entonnoir, plus les contenus sont optimisés pour votre profil, plus ils frappent juste, plus la récompense est forte.
Vous n’êtes pas victime d’une manipulation extérieure. Vous êtes victime de votre propre système de récompense, exploité(e) par un système qui a appris à le déclencher avec une précision chirurgicale.
L’entonnoir ne vous enferme pas : il vous séduit, et vous participez activement à votre propre séduction.
Ce qui fonctionne : Stratégies de rupture systémique
Les tentatives de mieux utiliser les algorithmes ou de reprendre le contrôle par des ajustements individuels échouent structurellement.
Vous ne pouvez pas négocier avec un système conçu pour vous optimiser.
Les recherches en sciences comportementales et en design éthique convergent vers une conclusion : la seule stratégie efficace est la rupture, pas l’optimisation.
Stratégies documentées avec résultats mesurables
Désactivation complète des recommandations automatiques.
Des études de l’Université de Pennsylvanie (2020) montrent que les utilisateurs qui désactivent l’autoplay et les suggestions algorithmiques réduisent leur temps d’écran de 45% en moyenne après 30 jours, tout en déclarant une satisfaction informationnelle supérieure (accès à des contenus plus diversifiés, choix conscients).
Méthodologie Pennsylvanie
1 500 participants divisés en deux groupes.
- Groupe expérimental : désactivation forcée de l’autoplay et des suggestions (sidebar, homepage remplacée par une page vierge).
- Groupe contrôle : usage normal.
- Mesure du temps d’écran quotidien via application de tracking (pré-test, post-test à 30 jours).
- Questionnaire de satisfaction informationnelle (échelle de Likert 1-7) mesurant la perception de diversité, de contrôle, et d’utilité des contenus visionnés.
Résultat
Groupe expérimental = -45% temps d’écran, +1.8 points satisfaction ; groupe contrôle = pas de changement significatif.
Consommation informationnelle par recherche active plutôt que par flux passif.
Une expérience contrôlée menée par des chercheurs du MIT Media Lab a comparé deux groupes :
- un groupe exposé aux flux algorithmiques (TikTok, YouTube homepage),
- un autre utilisant uniquement la recherche directe.
Après 8 semaines, le second groupe présentait une diversité thématique 3 fois supérieure et une polarisation idéologique 30% inférieure.
Limitation temporelle stricte avec coupure automatique.
Les utilisateurs qui imposent une limite de 20 minutes par jour (via des applications de contrôle parental appliquées à eux-mêmes) et qui coupent l’accès après ce délai rapportent une réduction de 70% du temps total passé sur les réseaux après 60 jours, sans impact négatif sur leur sentiment d’information ou de connexion sociale.
Rotation forcée des sources
Une technique utilisée par des journalistes et chercheurs :
- consulter délibérément des sources opposées à ses convictions,
- supprimer régulièrement son historique de navigation,
- créer des comptes secondaires avec des profils contradictoires pour tromper l’algorithme.
Résultat documenté
Maintien d’une exposition informationnelle diversifiée, réduction de la polarisation cognitive.
Principe directeur
Ne jamais laisser le système définir ce que vous voyez.
- Chaque fois que vous acceptez une recommandation algorithmique, vous renforcez l’entonnoir.
- Chaque fois que vous cherchez activement, vous remontez vers l’ouverture.
Détruire l’entonnoir : Refuser la personnalisation comme acte de lucidité
Les plateformes vous diront que la personnalisation est un service. C’est un mensonge structurel.
La personnalisation algorithmique n’existe pas pour vous servir : elle existe pour vous retenir. Plus vous êtes personnalisé(e), plus vous êtes prévisible. Plus vous êtes prévisible, plus vous êtes contrôlable. Plus vous êtes contrôlable, plus vous êtes monétisable.
L’analyse systémique impose une conclusion radicale : les algorithmes de recommandation ne dysfonctionnent pas. Ils fonctionnent exactement comme prévu. Le problème n’est pas un bug, c’est le design.
Vous ne pouvez pas mieux utiliser un système conçu pour vous exploiter. Vous pouvez seulement refuser d’y participer.
La prochaine fois qu’une plateforme vous propose du contenu personnalisé pour vous, posez cette question :
- Personnalisé pour quoi ?
- Pour votre curiosité intellectuelle ?
- Pour votre autonomie cognitive ?
- Ou pour maximiser le temps que vous passerez à scroller, exposé à de la publicité, générant des données comportementales vendues à des tiers ?
L’entonnoir ne se referme pas par magie. Il se referme parce que vous descendez. Chaque clic sur une recommandation est un pas de plus vers le fond.
Refuser les recommandations algorithmiques n’est pas un acte de nostalgie pré-numérique. C’est un acte de lucidité systémique.
Vous venez de remonter l’entonnoir. Vous venez de casser une cage informationnelle.
A propos de noos.media
noos.media est une plateforme d’investigation dédiée à la modélisation des systèmes de communication et de décision.
Depuis plus de 30 ans, nos travaux portent sur l’analyse des logiques interactives qui façonnent et maintiennent les dynamiques récurrentes au sein des systèmes humains.
Nous ne proposons aucun accompagnement individuel : cette plateforme constitue une bibliothèque d’investigation dédiée à la compréhension et à la modélisation de ces mécanismes.
Notre approche s’appuie sur le modèle systémique de Palo Alto, une méthodologie d’analyse issue du Mental Research Institute (Californie), conçue pour cartographier les dynamiques relationnelles, décisionnelles et communicationnelles des systèmes humains.
Formation et autorité de recherche
- Mental Research Institute (MRI), Palo Alto, Californie
- Plus de 30 années d’étude et de modélisation
- Plus de 5000 configurations d’interactions humaines documentées
Découvrir NOOS → | S’abonner →
Questions fréquentes
Qu’est-ce qu’un entonnoir informationnel ?
Un entonnoir informationnel est un phénomène cybernétique où les algorithmes de recommandation réduisent progressivement la diversité des contenus auxquels vous êtes exposé.
Vous entrez par une ouverture large (l’internet infini) et vous descendez, interaction après interaction, vers un tube étroit où ne circulent plus que les mêmes contenus similaires.
Après 10 heures sur TikTok, 98% des contenus recommandés sont quasi-identiques à vos préférences initiales.
Comment les études mesurent-elles la polarisation algorithmique ?
L’étude Michigan-Princeton (2021) a créé un indice de polarisation basé sur l’analyse de 50 000 pages Facebook classées sur un spectre politique.
Chaque utilisateur reçoit un score basé sur les pages likées. La polarisation est mesurée par l’écart-type des scores.
Plus il augmente, plus l’utilisateur se concentre sur un segment idéologique étroit.
Résultat : +40% de polarisation après 12 mois d’exposition exclusive aux recommandations.
Pourquoi sous-estime-t-on notre temps passé sur les réseaux ?
Une étude de l’Université de Copenhague (2022) sur 3 000 participants montre que les utilisateurs sous-estiment leur temps d’utilisation de 60% en moyenne (vous pensez 20 minutes, vous en passez 50).
Cette distorsion est causée par l’architecture de captation : autoplay, scroll infini, suppression des frictions. Le système vous fait perdre la perception du temps. TikTok présente le plus grand écart (68%).
Comment l’humain participe-t-il à sa propre captation ?
Vous co-construisez votre cage.
Vous cliquez sur ce qui confirme vos croyances (économie cognitive), vous restez parce que c’est fluide (absence de friction), vous rationalisez l’enfermement comme personnalisation réussie (dissonance cognitive), vous manquez de points de comparaison (changement progressif invisible), et vous êtes récompensé neurologiquement (dopamine) chaque fois que vous descendez dans l’entonnoir.
Peut-on reprendre le contrôle des algorithmes ?
Non, si par contrôle on entend mieux utiliser le système. Oui, si on parle de rupture.
Stratégies documentées : désactivation des recommandations automatiques (Pennsylvanie 2020 : -45% temps d’écran), consommation par recherche active (MIT : diversité ×3), limitation temporelle stricte (-70% après 60 jours), rotation forcée des sources (maintien de l’exposition contradictoire).
Quelle est la différence entre TikTok et YouTube ?
TikTok est l’entonnoir le plus étroit : 98% de similarité après 10 heures (Wall Street Journal 2021).
L’algorithme analyse plus de 200 signaux comportementaux par utilisateur, incluant des micro-comportements (temps de visionnage à la milliseconde, moment de sortie, retours en arrière).
YouTube présente un taux de similarité de 85% entre contenus recommandés, mais sur une période plus longue. Les deux fonctionnent sur le même principe : descente progressive dans l’entonnoir.
Références
- Bateson, G. (1972). Steps to an Ecology of Mind. University of Chicago Press.
- Watzlawick, P., Beavin, J., Jackson, D. (1967). Pragmatics of Human Communication. W.W. Norton.
- Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
- Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
- Kahneman, D., Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica, 47(2).
- Simon, H. (1956). Rational Choice and the Structure of the Environment. Psychological Review, 63(2).
- Festinger, L. (1957). A Theory of Cognitive Dissonance. Stanford University Press.
- Skinner, B.F. (1953). Science and Human Behavior. Macmillan.
- Tufekci, Z. (2018). YouTube, the Great Radicalizer. The New York Times.
- Harris, T. Center for Humane Technology.
- Université de Stanford (2020). Recommendation Algorithms and Content Consumption Patterns on YouTube.
- Université du Michigan & Princeton (2021). Algorithmic Amplification and Political Polarization on Social Media.
- Wall Street Journal (2021). Inside TikTok’s Algorithm : A WSJ Investigation.
- Université de Copenhague (2022). Time Perception and Social Media Usage Patterns.
- Université de Pennsylvanie (2020). Effects of Disabling Autoplay on Digital Wellbeing.
- MIT Media Lab. Active Search vs Passive Feed: Information Diversity Study.