L’essentiel en 30 secondes

Le Problème : Le paradoxe de la censure

La modération numérique produit souvent l’inverse de l’effet recherché. En censurant un contenu, on génère un signal public fort qui augmente mécaniquement sa visibilité, sa désirabilité et sa capacité de mutation au sein du réseau.

Le Concept Clé : L’Effet Streisand

Il s’agit d’une boucle d’amplification systémique (rétroaction positive) : Censure → Visibilité accrue → Diffusion virale → Contournement → Justification de la censure. La modération devient alors le carburant de la dérive au lieu d’être un stabilisateur.

Cas d’étude Action de Modération Résultat Mesuré
Hunter Biden (2020) Censure Twitter +82% de partages
Alex Jones (2018) Bannissement total Revenus +32% (70M$)
WhatsApp Inde Limitation transferts Fake news -70%

L’Application : La modération douce

Pour réguler sans amplifier, la stratégie systémique consiste à agir sur le contexte et la friction plutôt que sur le message :

  • Shadowban : Réduire la visibilité algorithmique sans signal public.
  • Friction structurelle : Ralentir la vitesse de diffusion (limite de forwards).
  • Fact-checking communautaire : Warning labels non-dramatisants.

Statistique clé : L’émergence de « l’algospeak » montre que 32% des utilisateurs contournent activement la modération frontale.

Introduction : Le pare-feu qui devient mégaphone

La modération de contenu est souvent présentée comme un frein, un dispositif de retenue, une digue érigée face au flux jugé toxique, dangereux, inacceptable.

Mais dans les systèmes numériques contemporains, censurer ne supprime pas.

Cela déplace, amplifie, et transforme à la manière d’un barrage mal conçu qui, au lieu de calmer le fleuve, crée un tourbillon en aval.

Alors, la régulation algorithmique agit rarement là où elle prétend agir. Elle modifie les trajectoires, renforce les courants souterrains, et excite les contre-flux.

Ce paradoxe porte un nom connu l’effet Streisand. Mais réduire le phénomène à une anecdote médiatique serait une erreur.

Nous sommes face à une architecture systémique récurrente :

Plus on régule un contenu dans un environnement informationnel complexe, plus on augmente sa visibilité, sa désirabilité et sa capacité de mutation.

Dit autrement, la modération est devenue un amplificateur.

Lecture rapide | Sommaire

1. L’illusion du robinet : Pourquoi retirer n’est pas éteindre

La régulation numérique repose sur une métaphore implicite, celle du robinet :

  • Le contenu coule,
  • On le ferme,
  • Le flux s’arrête.

Cette métaphore fonctionne pour l’eau, pas pour l’information.

Dans un système numérique :

  • le contenu est copiable à l’infini,
  • la suppression est observable,
  • l’interdiction est interprétable,
  • et chaque acte de modération devient un signal public.

Supprimer un contenu, ce n’est pas seulement agir sur ce contenu. C’est produire une information supplémentaire :

  • « Quelque chose ici mérite d’être supprimé« .

Dans un environnement saturé d’attention, ce signal vaut parfois plus que le contenu lui-même.

L’effet Streisand : La pointe émergée d’une mécanique plus profonde

Le cas originel (2003) : Des chiffres qui parlent

En 2003, la photographe Kenneth Adelman documente l’érosion côtière de Californie en prenant 12 000 photos aériennes. L’une d’elles capture fortuitement la maison de Barbra Streisand à Malibu.

Avant la plainte :
– 6 téléchargements de la photo (dont 2 par les avocats de Streisand)

Après la plainte en justice pour 50 millions de dollars :
– 420 000 visiteurs sur le site en un mois
– Diffusion mondiale dans les médias de 5 continents
– La photo devient l’une des images les plus partagées d’internet en 2003

Résultat : Streisand perd le procès et paie 155 567 $ de frais juridiques à Adelman.

L’amplification est de l’ordre de x 70 000.

Ce qui est réellement amplifié

L’effet Streisand est souvent résumé ainsi : « Tenter de cacher une information la rend plus visible« .

Mais cette formulation est incomplète. Ce qui est amplifié, ce n’est pas seulement l’information, c’est la structure de croyance qui l’entoure.

Quand un contenu est censuré :

  • il devient désirable (« on veut m’empêcher de savoir« ),
  • il devient suspicion (« s’ils censurent, c’est qu’ils ont peur« ),
  • il devient preuve (« la censure confirme que j’ai raison« ).

La modération agit alors comme un sceau d’authenticité inversé.

Dans un monde saturé de messages, la rareté n’est plus l’information, mais l’interdiction.

Recherche académique (Jansen & Martin, 2015)

L’étude fondatrice sur l’effet Streisand identifie 5 tactiques que les censeurs utilisent pour réduire l’indignation :

  1. Cacher l’existence de la censure
  2. Dévaluer les cibles de censure
  3. Réinterpréter les actions (mentir, minimiser, blâmer)
  4. Utiliser les canaux officiels pour donner une apparence de justice
  5. Intimider les opposants

Le paradoxe : l’effet Streisand se produit précisément quand ces méthodes échouent à réduire l’indignation.

Source : Jansen, S. C., & Martin, B. (2015). « The Streisand Effect and Censorship Backfire » – International Journal of Communication, 9, 656-671.

La boucle d’amplification systémique

Observons la dynamique :

  1. Un contenu apparaît (controversé, marginal, dérangeant)
  2. Une autorité décide de le modérer
  3. La modération est perçue comme une attaque
  4. Le contenu est partagé comme censuré
  5. Des communautés se mobilisent
  6. De nouvelles versions apparaissent
  7. La plateforme renforce la modération
  8. La narration de la censure s’intensifie

Nous sommes dans une boucle de rétroaction positive :

Censure → visibilité → diffusion → contournement → justification de la censure → nouvelle censure

Chaque itération renforce le phénomène initial. La régulation ne stabilise plus, elle accélère la dérive.

Cas documentés d’amplification par modération

Cas 1 : Hunter Biden laptop story (2020)

Contexte : Le New York Post publie des emails du laptop de Hunter Biden, fils de Joe Biden.

Modération : Twitter et Facebook bloquent le lien. Le compte du New York Post est verrouillé.

Résultat mesuré (MIT, 2020) :

  • Avant censure : 5 500 partages toutes les 15 minutes
  • Après censure : 10 000 partages toutes les 15 minutes
  • Amplification : +82%

La censure a presque doublé l’attention portée à l’histoire.

Twitter retire le ban le lendemain, mais le mal est fait. La story devient un symbole de censure des Big Tech.

Source : MIT researchers cited in Wikipedia (2020) – « Streisand effect – Hunter Biden laptop controversy« 

Cas 2 : Christchurch (2019)

Contexte : Attentat terroriste livestreamé sur Facebook / 51 morts.

Modération massive :

  • 1,5 million de vidéos supprimées en 24h
  • 1,2 million bloquées à l’upload
  • 300 000 vidéos publiées avant suppression

Résultat 6 mois après (NBC News, septembre 2019) :

  • Plus d’une douzaine de versions toujours sur Facebook
  • Vidéos toujours visibles 1 an après (Tech Transparency Project, mars 2020)
  • La vidéo devient une relique pour l’extrême droite

Paradoxe : La tentative de suppression totale a transformé un stream marginal (200 vues live) en symbole recherché sur des plateformes décentralisées.

La censure a créé une relique.

Sources :

  • Facebook (mars 2019). Official statement on Christchurch removal efforts.
  • NBC News (septembre 2019). « Six months after Christchurch shootings, videos still on Facebook. »
  • Tech Transparency Project (mars 2020). « A Year Later, Christchurch Attack Videos Still on Facebook. »

Cas 3 : Le bannissement d’Alex Jones (2018)

Contexte : Alex Jones est banni simultanément de Facebook, YouTube, Apple, Spotify en août 2018.

Trafic avant ban (New York Times, août 2018) :

  • 1,4 million de vues quotidiennes (site + vidéos)

Trafic après ban (3 semaines après) :

  • 715 000 vues quotidiennes
  • Baisse de 49%

mais…

Revenus Infowars (témoignage sous serment, procès Texas 2022) :

  • 2018 (année du ban) : 53 millions $
  • 2022 (4 ans après) : 70 millions $
  • Augmentation de +32%

Explication :

Le bannissement – ou déplatformage – a :

  • Créé un modèle économique direct (pas de dépendance aux plateformes)
  • Renforcé le sentiment de martyr censuré
  • Migré l’audience vers des plateformes décentralisées (Gab, Banned.Video)

Conclusion : La censure a réduit la portée mais augmenté les revenus et la loyauté.

Sources :

  • Knight Columbia Institute (2020) – « Deplatforming Our Way to the Alt-Tech Ecosystem« 
  • NPR (septembre 2022) – « Alex Jones’ defamation trials show the limits of deplatforming« 
  • Bloomberg (août 2022) – « Being Thrown Off Social Media Made Alex Jones Even Richer« 

La métaphore du sable mouvant informationnel

La modération algorithmique ressemble à quelqu’un qui lutte contre des sables mouvants. Plus il s’agite, plus il s’enfonce.

Dans les environnements numériques :

  • le silence est parfois plus neutralisant que la suppression,
  • l’ignorance peut être plus efficace que l’interdiction,
  • l’absence de réaction désamorce mieux que la confrontation.

Mais ces options sont politiquement coûteuses. Elles donnent l’impression de ne rien faire. Or, dans les systèmes anxieux, ne pas agir est perçu comme une faute.

Pourquoi les plateformes sont piégées

Les plateformes ne sont pas stupides. Elles voient souvent les effets pervers de la modération mais elles sont prises dans une double contrainte systémique :

  • Si elles modèrent → accusations de censure, amplification des contenus
  • Si elles ne modèrent pas → accusations de complicité, pression politique

Dans les deux cas, elles perdent.

La modération devient alors une gestion de réputation, pas une régulation efficace. On ne cherche plus à réduire un phénomène, mais à montrer qu’on agit contre lui.

La plateforme joue pour le regard des régulateurs, des médias, des annonceurs, et non pour la dynamique réelle des contenus.

La mutation permanente : Quand le contenu apprend plus vite que la règle

L’émergence de l’Algospeak

Un autre effet majeur de la censure, l’adaptation accélérée.

Chaque règle produit :

  • des contournements linguistiques,
  • des codes implicites,
  • des images détournées,
  • des mèmes,
  • des symboles évolutifs.

Le contenu interdit devient plus sophistiqué, plus crypté, plus communautaire.

Mutations linguistiques documentées (2020-2025)

Sur TikTok, Instagram, YouTube, la modération algorithmique a créé un nouveau dialecte : l’algospeak.

Exemples mesurables :

Mot interdit Substitution Plateforme Date d’apparition
Suicide « Unalive » TikTok 2020
Sex « Seggs » TikTok 2020
Porn « Corn » / 🌽 TikTok 2021
Rape « Grape » TikTok 2021
Kill « Unalive » / « Perished » TikTok 2020
Dead « D3ad » / « Ceased to be » TikTok 2021
Nazi « Yahtzee » TikTok 2022
Palestine 🍉 (pastèque) Instagram 2023
Trump « Orange man » / « 47 » / 🍊 TikTok 2024
Sexual assault « SA » TikTok 2021
Nipples « Nip nops » TikTok 2022
Lesbian « Lebanese » TikTok 2021

Impact mesuré (sondage 2022, Washington Post) :

  • 32% des utilisateurs américains de réseaux sociaux utilisent des emojis ou phrases alternatives pour contourner la modération

Migration hors-ligne :

  • Enseignants rapportent que des élèves utilisent unalive dans des emails officiels
  • Le terme unalive apparaît dans des descriptions de livres publiés
  • Algospeak s’est étendu à Reddit, Twitter/X, Facebook alors même que ces plateformes ont moins de censure

La régulation agit comme une sélection naturelle :

  • elle élimine les formes naïves,
  • elle renforce les formes résilientes.

À terme, le système informationnel devient plus opaque, plus fragmenté, et plus difficile à comprendre.

Sources :

  • Washington Post (avril 2022) – « ‘Algospeak’ is changing our language in real time« 
  • Babbel Magazine (février 2025). « How Censorship Is Creating A New TikTok Language« 
  • Wikipedia (janvier 2026) – « Algospeak« 
  • NPR (juillet 2025). « From gr*pists to nip nops, how self-censorship shapes the language of TikTok« 

8. La croyance erronée du contrôle central

La modération repose sur une autre illusion, celle du contrôle centralisé. Or, Internet fonctionne comme un écosystème distribué :

  • sans centre unique,
  • sans autorité totale,
  • sans point d’arrêt définitif.

Réguler un flux distribué comme un média linéaire, c’est tenter de diriger un nuage avec un volant.

Plus le système est :

  • décentralisé,
  • rapide,
  • mimétique,

plus la régulation locale produit des effets globaux non intentionnels.

Quand la morale remplace l’analyse

Symptôme révélateur : la modération est souvent justifiée moralement, rarement systémiquement.

On dit :

  • « Il faut supprimer parce que c’est mal »
  • « Il faut interdire parce que c’est dangereux« 

Ces énoncés peuvent être sincères mais ils ne disent rien de l’efficacité réelle de l’intervention.

Dans un système complexe, la bonne intention n’est pas un indicateur de résultat. Confondre éthique et efficacité est une erreur classique et coûteuse.

Que ferait une régulation réellement systémique ?

Une approche systémique ne poserait pas d’abord la question :

« Ce contenu est-il acceptable ?« 

Mais plutôt

  • « Quelle dynamique le rend viral ? »
  • « À qui profite son amplification ? »
  • « Que produit sa suppression comme signal ? »
  • « Quels comportements la régulation encourage-t-elle indirectement ? »

Elle accepterait une idée inconfortable. Tout contenu ne mérite pas une réponse.

Stratégies de modération douce (soft moderation)

Dans certains cas, la meilleure régulation consiste à :

  • Réduire la visibilité algorithmique sans signal public (shadowban),
  • Ralentir la diffusion sans dramatisation,
  • Désynchroniser les pics d’attention,
  • Fragmenter les boucles mimétiques.

Résultats documentés (recherche académique – 2021-2024) :

Les warning labels et la modération douce :

  • Réduisent les interactions sur contenus problématiques
  • Évitent l’effet Streisand
  • Permettent aux utilisateurs de débunker eux-mêmes (démasquer de fausses informations)

Contre-exemple important :

Quand Facebook a banni les groupes anti-vaccins COVID-19, les utilisateurs ont migré sur Twitter et posté encore plus de contenu anti-vaccin.

Leçon systémique : Agir sur le contexte, pas sur le message.

Sources :

  • The Conversation (août 2022) – « Deplatforming online extremists reduces their followers but there’s a price« 
  • UCL Research (septembre 2025) – « Analysis : Deplatforming online extremists reduces their followers« 

La métaphore de l’écho dans la caverne

La censure numérique agit souvent comme un cri dans une caverne. Plus on crie fort pour faire taire, plus l’écho revient amplifié, déformé, et démultiplié.

Le problème n’est pas le cri initial mais la structure de la caverne.

Tant que l’architecture attentionnelle restera fondée sur :

  • la visibilité,
  • l’indignation,
  • la réaction immédiate,

toute tentative de contrôle frontal produira des contre-effets.

Conclusion : Réguler moins, comprendre plus

La question n’est pas de savoir s’il faut modérer ou non. La question est comment et à quel niveau.

Dans les systèmes numériques complexes :

  • ce qui semble être de la passivité peut être de la stratégie,
  • ce qui ressemble à de la faiblesse peut être de la lucidité,
  • ce qui paraît irresponsable peut être la seule manière de ne pas amplifier.

La modération, telle qu’elle est pratiquée aujourd’hui, agit souvent comme un accélérateur de particules idéologiques.

Tant que la régulation continuera à confondre :

  • action et efficacité,
  • morale et dynamique,
  • contrôle et maîtrise,

elle continuera à produire exactement ce qu’elle cherche à éviter et, dans ce paradoxe, la censure ne fait pas taire. Elle enseigne à crier autrement.

A propos de Noos Systemic

Noos Systemic est une plateforme d’investigation dédiée à la modélisation des systèmes de communication et de décision.

Depuis plus de 30 ans, nos travaux portent sur l’analyse des logiques interactives qui façonnent et maintiennent les dynamiques récurrentes au sein des systèmes humains.

Nous ne proposons aucun accompagnement individuel. Cette plateforme constitue une bibliothèque d’investigation dédiée à la compréhension et à la modélisation de ces mécanismes.

Notre approche s’appuie sur le modèle systémique de Palo Alto, une méthodologie d’analyse issue du Mental Research Institute (Californie), conçue pour cartographier les dynamiques relationnelles, décisionnelles et communicationnelles des systèmes humains.

Formation et autorité de recherche

  • Mental Research Institute (MRI), Palo Alto, Californie
  • Plus de 30 années d’étude et de modélisation
  • Plus de 5000 configurations d’interactions humaines documentées

Accéder à l’outil

FAQ – Modération de contenu et effet d’amplification

1. L’effet Streisand se produit-il toujours ?

Non. L’effet Streisand est une conséquence possible de la censure, pas une certitude.

Il se produit quand :

  • La censure est publique et visible
  • Le contenu touche une communauté mobilisable
  • Les médias relaient l’information
  • La censure est perçue comme illégitime

Contre-exemple : Le shadowban (réduction de visibilité sans notification) évite généralement l’effet Streisand car il reste invisible.

2. Que faire face à un contenu problématique ?

Trois options systémiques :

Option 1 : Modération silencieuse

  • Réduire l’algorithme sans signal public
  • Pas d’annonce, pas de débat
  • Efficace si le contenu n’a pas encore de communauté

Option 2 : Modération douce

  • Warning labels
  • Ralentissement de diffusion
  • Permet la critique communautaire

Option 3 : Inaction stratégique

  • Laisser mourir naturellement
  • Efficace pour les contenus cherchant la provocation
  • Requiert courage politique

À éviter : Suppression publique + justification morale = carburant sur le feu.

3. La censure fonctionne-t-elle parfois ?

Oui, dans certains contextes mesurés :

Cas où ça fonctionne :

  • Modération précoce (avant viralité)
  • Modération silencieuse (pas de signal public)
  • Coordination multi-plateformes
  • Absence de communauté mobilisée

Exemple mesuré : WhatsApp a limité les forwards à 5 personnes en Inde → -70% de fake news virales (MIT, 2019).

Cas où ça échoue :

  • Censure tardive (après viralité)
  • Censure publique
  • Contenu à forte charge émotionnelle
  • Communauté déjà constituée

4. Pourquoi les plateformes continuent-elles à censurer publiquement si c’est contre-productif ?

Parce qu’elles jouent pour deux publics différents :

Public 1 : Régulateurs / médias / annonceurs

  • Veulent voir de l’action
  • La censure publique = preuve d’efforts

Public 2 : Utilisateurs

  • Subissent l’amplification
  • Génèrent l’effet Streisand

Les plateformes optimisent pour le Public 1 (régulateurs) au détriment du Public 2 (dynamique réelle).

C’est une gestion de réputation, pas une gestion de système.

5. L’algospeak est-il permanent ?

Oui et non.

  • Permanent : La pression de modération crée structurellement des codes linguistiques.
  • Évolutif : Les termes spécifiques changent constamment.

Unalive sera peut-être remplacé demain, mais le mécanisme de contournement restera.

Impact mesurable : 32% des utilisateurs US utilisent déjà des codes linguistiques (2022). Ce chiffre augmente.

6. Comment lutter contre la désinformation sans censure ?

Stratégies documentées efficaces :

  1. Fact-checking communautaire (Twitter Community Notes)
  2. Les utilisateurs ajoutent du contexte
  3. Pas de suppression, mais ajout d’information
  4. Friction algorithmique
  5. Ralentir le partage (pas bloquer)
  6. « Êtes-vous sûr de vouloir partager ?« 
  7. Réduit viralité sans censure
  8. Transparence sur sources
  9. Afficher historique du compte
  10. Afficher patterns de comportement
  11. Laisser utilisateurs juger
  12. Éducation aux médias
  13. Long terme mais structurel
  14. Réduit demande, pas offre

Ce qui ne fonctionne pas :

  • Suppression pure
  • Warning fake news (renforce croyance conspirationniste)
  • Déplatformage après viralité

7. La modération algorithmique est-elle le problème ?

Oui et non.

Le problème n’est pas l’algorithme en soi, mais :

  • Son opacité
  • Son incohérence
  • Son incapacité à comprendre le contexte
  • Sa rigidité face à l’adaptation humaine

Exemple mesuré : TikTok bloque « weird », « jerk », « dense », « thick », « bean », des mots non-offensants.

Résultat : mutation linguistique massive, et non réduction de contenu problématique.

8. Y a-t-il des alternatives à la modération par plateforme ?

Oui, plusieurs modèles émergents :

1. Modération décentralisée (Mastodon)

  • Chaque serveur fixe ses règles
  • Migration facile entre serveurs
  • Pas d’effet Streisand global

2. Modération par communauté (Reddit)

  • Modérateurs élus/volontaires
  • Règles par subreddit
  • Transparence accrue

3. Protocoles plutôt que plateformes (Nostr, AT Protocol)

  • Séparation contenu / modération
  • Utilisateur choisit son filtre
  • Fin du monopole décisionnel

Aucun modèle n’est parfait, mais tous réduisent la centralisation de la censure.

Références complètes

1. Cas documentés

Effet Streisand original (2003)

Streisand effect – Wikipedia
Wikipedia contributors
Wikipedia, The Free Encyclopedia (2025)
Article de référence sur l’effet Streisand, incluant l’historique complet du cas original de Barbra Streisand en 2003 et de nombreux autres exemples documentés.

→ Consulter l’article

Streisand effect | Definition, Meaning, Examples, & Origin
Britannica Editors
Encyclopaedia Britannica (2022)
Définition encyclopédique avec détails sur le cas original : 6 téléchargements avant la plainte, plus de 400 000 après.

→ Consulter l’article

The Streisand Effect | What does Barbra have to do with PR?
LEWIS Communications
LEWIS Magazine (2024)
Analyse détaillée du cas Streisand et de ses implications pour les relations publiques, avec chiffres précis (155 567 $ de frais juridiques).

→ Consulter l’article

Hunter Biden laptop story (2020)

List of Streisand effect examples – Wikipedia
Wikipedia contributors
Wikipedia (2026)
Documentation du cas Hunter Biden avec citation des recherches MIT : augmentation de 5 500 à 10 000 partages par 15 minutes après la censure Twitter.

→ Consulter l’article

Christchurch (2019)

Facebook removed 1.5 million videos of the Christchurch attacks within 24 hours
Washington Post
The Washington Post (mars 2019)
Statistiques officielles de Facebook : 1,5 million de vidéos supprimées, dont 1,2 million bloquées à l’upload.

→ Consulter l’article

Facebook Admits Mosque Shooting Video Was Viewed At Least 4,000 Times
Matthew S. Schwartz
NPR (mars 2019)
Détails sur le nombre de vues (moins de 200 en live, 4 000 au total avant suppression) et les efforts de modération.

→ Consulter l’article

Six months after Christchurch shootings, videos of attack are still on Facebook
NBC News
NBC News (septembre 2019)
Investigation révélant que plus d’une douzaine de vidéos de l’attentat étaient toujours présentes sur Facebook 6 mois après, malgré les promesses de suppression.

→ Consulter l’article

A Year Later, Christchurch Attack Videos Still on Facebook
Tech Transparency Project
Tech Transparency Project (mars 2020)
Rapport identifiant 8 versions de la vidéo de l’attentat toujours présentes sur Facebook un an après les faits.

→ Consulter l’article

Alex Jones déplatformage (2018)

Alex Jones’ defamation trials show the limits of deplatforming for a select few
NPR
NPR (septembre 2022)
Révélations des procès en diffamation : Infowars a généré 70 millions $ en 2022, contre 53 millions $ en 2018 (année du déplatformage).

→ Consulter l’article

Deplatforming Our Way to the Alt-Tech Ecosystem
Ethan Zuckerman
Knight First Amendment Institute (2020)
Analyse de l’impact du déplatformage de Jones : baisse de trafic de 1,4 million à 715 000 vues quotidiennes (New York Times), mais migration vers plateformes alternatives.

→ Consulter l’article

Being Thrown Off Social Media Was Supposed to End Alex Jones’s Career. It Made Him Even Richer
Bloomberg Businessweek
Bloomberg (août 2022)
Investigation sur l’enrichissement paradoxal de Jones post-déplatformage.

→ Consulter l’article

2. Recherches académiques

Effet Streisand et censure

The Streisand Effect and Censorship Backfire
Sue Curry Jansen & Brian Martin
International Journal of Communication, Vol. 9 (2015), pp. 656-671
Recherche fondatrice. Identification des 5 tactiques utilisées par les censeurs pour réduire l’indignation et explication du mécanisme de backfire.
DOI: 1932-8036/20150005

→ Consulter l’article (accès libre)
→ PDF direct

The Streisand Effect and Censorship Backfire (ResearchGate)
Sue Curry Jansen & Brian Martin
ResearchGate (2015)
Version ResearchGate de l’article académique fondateur.

→ Consulter sur ResearchGate

Algospeak et mutations linguistiques

Algospeak – Wikipedia
Wikipedia contributors
Wikipedia (2026)
Article encyclopédique complet sur l’algospeak avec nombreux exemples documentés (unalive, seggs, corn, etc.) et références académiques.

→ Consulter l’article

‘Algospeak’ is changing our language in real time
Taylor Lorenz
The Washington Post (avril 2022)
Article de référence sur l’émergence de l’algospeak. Cite un sondage de 2022 : 32% des utilisateurs américains de réseaux sociaux utilisent des codes pour contourner la modération.

→ Consulter l’article

How Censorship Is Creating A New TikTok Language
Babbel Magazine
Babbel (février 2025)
Analyse détaillée de l’évolution du langage TikTok en réponse à la censure algorithmique.

→ Consulter l’article

From gr*pists to nip nops, how self-censorship shapes the language of TikTok
B.A. Parker & Gene Demby
NPR Code Switch (juillet 2025)
Podcast et transcript analysant l’innovation linguistique sur TikTok, avec interview de Dr. Kendra Calhoun, co-auteure de l’étude « They Edited Out Her Nip Nops ».

→ Consulter le transcript

Algospeak: The new language created by TikTok and studied by Harvard
HIGHXTAR
HIGHXTAR Magazine (juillet 2025)
Article sur les recherches académiques d’Adam Aleksic sur l’algospeak et ses implications sociolinguistiques.

→ Consulter l’article

TikTok LLM
The New Inquiry
The New Inquiry (juin 2024)
Analyse critique du développement de vocabulaires de remplacement (seggs, unalive, yahtzee, corn) et de leur migration hors-ligne.

→ Consulter l’article

Déplatformage et efficacité

Deplatforming online extremists reduces their followers – but there’s a price
UCL Research
The Conversation (août 2022)
Recherche universitaire démontrant que le déplatformage réduit l’audience mais concentre la radicalisation. Étude des cas The_Donald et Incels après bannissement de Reddit.

→ Consulter l’article

Analysis: Deplatforming online extremists reduces their followers – but there’s a price
UCL News
UCL (septembre 2025)
Version institutionnelle de la recherche UCL sur les effets du déplatformage.

→ Consulter l’article

Réactance psychologique

A theory of psychological reactance
Jack W. Brehm
Academic Press (1966)
Ouvrage fondateur. Théorie expliquant pourquoi les restrictions augmentent l’attrait pour ce qui est interdit.
Ouvrage de référence en psychologie sociale
The effects of censorship and attractiveness of the censor on attitude change
Stephen Worchel & Susan E. Arnold
Journal of Experimental Social Psychology, Vol. 9(4), 1973, pp. 365-377
Étude expérimentale démontrant que la censure augmente l’intérêt et l’accord avec le message censuré.
DOI: 10.1016/0022-1031(73)90071-0

Propagation de l’information

The spread of true and false news online
Soroush Vosoughi, Deb Roy & Sinan Aral
Science, Vol. 359(6380), 2018, pp. 1146-1151
Recherche MIT démontrant que les fausses nouvelles se propagent 6 fois plus vite que les vraies, et que la modération peut amplifier la visibilité (+40% d’engagement).
DOI: 10.1126/science.aap9559

→ Consulter l’article (paywall)

3. Ouvrages de référence

Systémique et cybernétique

Change: Principles of Problem Formation and Problem Resolution
Paul Watzlawick, John Weakland & Richard Fisch
W. W. Norton & Company (1974)
Ouvrage fondateur de l’école de Palo Alto. Théorie du changement et des tentatives de solution qui deviennent le problème.

→ Amazon FR

Steps to an Ecology of Mind
Gregory Bateson
Chandler Publishing (1972)
Recueil fondamental sur la cybernétique, la communication et la pensée systémique.

→ Amazon FR

Plateformes et modération

Twitter and Tear Gas: The Power and Fragility of Networked Protest
Zeynep Tufekci
Yale University Press (2017)
Analyse des mouvements sociaux à l’ère des réseaux sociaux et des stratégies de censure.

→ Amazon FR

Cute Cats to the Rescue? Participatory Media and Political Expression
Ethan Zuckerman
MIT Press (2015)
Documentation des contournements créatifs de la censure en ligne.

4. Ressources complémentaires

Deplatforming – Wikipedia
Wikipedia contributors
Wikipedia (2026)
Article encyclopédique complet sur le déplatformage avec de nombreux cas documentés et références académiques.

→ Consulter l’article

Reliable Sources: Alex Jones has been ‘deplatformed.’ Now what?
CNN Business
CNN (août 2018)
Analyse en temps réel du déplatformage coordonné d’Alex Jones par Apple, Facebook, YouTube et Spotify.

→ Consulter l’article

Cut Loose by Tech Giants, Will Far-Right Extremists Be Adrift?
Carnegie Endowment for International Peace
Carnegie Endowment (janvier 2021)
Analyse des effets du déplatformage suite à l’assaut du Capitole.

→ Consulter l’article

5. Articles noos.media connexes

noos systemic (janvier 2026)
Analyse cybernétique des boucles d’amplification dans les systèmes complexes.