Dominique Boullier, Le biais Bronner ou la reductio ad cerebrum, 2021

Sous couvert de plus-que-scientisme, Apocalypse cognitive du sociologue Gérald Bronner court-circuite l’ensemble des principes de la rigueur scientifique. En proposant quelque chose de toujours plus gros, plus impressionnant, plus lointain dans l’histoire, l’auteur verrouille toute analyse détaillée des chiffres, des facteurs, des médiations. De quoi se retrouver estomaqué par tant de légèreté méthodologique et d’irresponsabilité politique.

 

N’est pas Molière qui veut mais ma critique du livre de Bronner, Apocalypse cognitive, pourrait se contenter de transposer la réplique fameuse : « Le poumon ! Le poumon, vous dis-je ! » en un « Le cerveau ! Le cerveau, vous dis-je ! ». La discussion académique exige cependant un peu plus d’arguments, même si le livre en question a débordé largement le monde universitaire.

Résumons donc l’ouvrage.

Selon Bronner, notre époque contemporaine, celle des médias sociaux notamment, se caractérise par « une augmentation inédite du temps de cerveau disponible ». « On assiste » à une « dérégulation du marché cognitif » puisque chacun peut désormais publier, sans le contrôle des gatekeepers qu’étaient les médias, ce qui a fluidifié la rencontre offre-demande. Et cette dérégulation rencontre et « révèle alors involontairement les invariants du fonctionnement du cerveau de notre espèce ».

Depuis Homo Sapiens, l’espèce humaine est gouvernée par le sexe, la peur et l’agressivité et cette révélation est permise par le marché de l’attention, qui valorise toutes les satisfactions à court terme. Nous nous devons de faire face à cette apocalypse. Il est grand temps d’« arrêter le cambriolage de notre trésor attentionnel » en « préservant les conditions sociales d’exploration des possibles », à savoir les sciences, les techniques et l’égalité des chances, et plus largement la rationalité.

L’argument a six avantages à la fois, qui sont autant de « sucre » pour nos cerveaux fainéants : l’évidence (quelque chose ne tourne plus rond dans le monde des médias), l’irénisme (pas de responsable, pas de coupable), la révélation (Homo Sapiens nous habite), une seule cause finale (le cerveau, vous dis-je), une seule méthode plus-que-scientifique (l’imagerie cérébrale), une seule solution (ne rien faire).

À la recherche de l’individualisme méthodologique perdu

Je devais lire cet ouvrage pour trouver un représentant contemporain de l’individualisme méthodologique qui tienne son rang. En effet, dans mon prochain ouvrage sur la « Sociologie des propagations » (à paraitre chez Armand Colin), et dans mes travaux plus récents sur l’histoire de la quantification dans les sciences sociales, je tente d’établir la nécessité de points de vue différents du social (et l’impossibilité d’un point de vue total) à partir d’une distribution du pouvoir d’agir : celui des structures (qui a dominé et domine toujours les sciences sociales), celui des préférences individuelles (qui est privilégié par les économistes néoclassiques et par la psychologie cognitive) et désormais les propagations qui permettent d’explorer ce qui circule à travers nous et qui nous affecte (virus, messages, idées, mouvements de foule).

Chacune des approches a ses méthodes, ses mérites et ses limites et ne peut prétendre traiter tout le social à elle seule. Mais pour équilibrer cette offre diplomatique de reconnaissance réciproque, il me faut trouver des représentants crédibles. Certes, je peux rejouer la partition des années 1970 entre Bourdieu et Boudon et cela me convient. Mais Gérald Bronner s’est toujours présenté comme l’héritier de Boudon et on peut lui accorder qu’il lui reste des traces de cette origine, mais sans doute plutôt à la mode homéopathique. Sa reductio ad cerebrum nous entraine bien loin malheureusement de l’individualisme méthodologique. Comment procède-t-elle ?

Dix réductions pour un cerveau

Partons donc de Boudon, de travaux comme ceux sur « l’inégalité des chances » (1984), par exemple. Montrer que les attentes et les représentations des élèves et de leur famille jouent un rôle dans leur orientation et dans leurs chances de mobilité sociale avait pu choquer ceux qui cherchaient à montrer l’effet quasi direct de l’école dans la reproduction des inégalités. Mais l’inspiration plus wébérienne de Boudon permettait de faire émerger le rôle de nos anticipations, erronées parfois, et cela en les appuyant sur des séries statistiques.

Et l’on retrouve bien cette profession de foi chez Bronner :

« Ce ne sont pas de mystérieuses et puissantes forces sociales qui orientent le comportement des individus, comme on le croit dans la sociologie naïve, mais des micro-anticipations qui produisent des effets collectifs involontaires mais prévisibles. » (p. 214)

Et c’est à peu près tout ce que l’on trouvera comme référence au modèle dans tout l’ouvrage. Car ni statistiques sérieuses ni modèle ne sont nécessaires à la démonstration de l’apocalypse cognitive. Bronner préfère la théorie évolutionniste des idées du dernier Boudon et les raisons « transsubjectives » qui les font se propager (p. 19), assez tardiennes finalement, mais il les oublie vite pour se focaliser sur le cerveau, dans une version qui n’est plus intersubjective du tout.

Première réduction vis-à-vis de l’individualisme méthodologique : si les agents qui calculent leurs anticipations sont « souvent des acteurs stratégiques » (p. 291), ils se trompent le plus souvent. Les économistes en ont pourtant fait le centre d’intérêt de tous leurs travaux et modèles. La théorie des jeux (dont le dilemme du prisonnier) prétend rendre l’intersubjectivité calculable malgré toute cette incertitude générée par ces anticipations croisées et le CREA [Centre de recherche en épistémologie appliquée, ndlr], notamment Orléan, Dupuy et Livet, avait beaucoup révisé ces modèles de la décision en environnement incertain, en y introduisant notamment le rôle des conventions. Rien de tout cela ici, pas de trouble de la décision, pas de théorie des jeux, pas plus de modèles que de statistiques, mais seulement des biais.

Deuxième réduction, donc, tout est affaire de biais cognitif, dans la lignée de l’économie expérimentale et de la psychologie économique (Thaler, Kahneman, tous deux prix Nobel d’économie). On doit atteindre bientôt la centaine de biais, mais Bronner ici est économe puisqu’il ne cite que les biais de confirmation, de réitération, d’intentionnalité, et de division.

Troisième réduction, la division du monde en deux, d’un côté les défenseurs du cerveau 2 (selon Kahneman), celui qui calcule et qui raisonne, les tenants de la rationalité, de l’autre ceux qui laissent faire le cerveau 1 qui réagit dans l’immédiat et dans la facilité. Mais l’apocalypse cognitive consiste cependant, nous dit l’auteur, à regarder en face le fait que nous sommes des êtres du cerveau 1, à impulsions immédiates pour des bénéfices à court terme.

Dans l’opération, une quatrième réduction est effectuée, celle du social à une question d’individus. Cela semble réaliste mais permet en fait d’évacuer (entre autres) toutes les questions de socialisation et d’apprentissage, une pensée des individus-en-relation donc. Est ainsi clairement affiché le parti-pris contre les sociologies qui veulent faire exister des entités non individuelles, comme « la société » (ou tout autre « groupe » ou « catégorie »), ce que Durkheim est parvenu à faire avec succès.

Cela permet de se placer (politiquement) dans le camp de ceux qui prônent la responsabilité des choix individuels contre tous les autres sociologues qui passent leur temps à expliquer les comportements individuels par des effets de structure et donc à « excuser », thème d’un ouvrage précédent de Bronner et Géhin (2017) sur « Le danger sociologique » (voir le blog SHS3G, Sciences Humaines et Sociales de Troisième Génération).

À plusieurs reprises, Bronner vante ici son refus d’une vision hétéronome des individus que la sociologie « naïve » véhicule, alors même que son approche par les biais cognitifs disqualifie elle-même la supposée autonomie des individus décideurs et pourvus de préférences. Mais ce débat serait alors une forme rebattue des discussions entre Bourdieu et Boudon. L’apport de Bronner se veut beaucoup plus décisif, réduire les individus à leurs cerveaux.

Cinquième réduction donc, les individus en question peuvent être analysés comme des cerveaux. Pas de société sans humains dotés de cerveaux, c’est difficilement contestable et une telle causalité semble parcimonieuse et donc suffisante pour toute explication. Mais ici, ce n’est plus un rasoir d’Occam, c’est un rouleau compresseur. Ni philosophie de l’esprit ni « cognition distribuée » ne méritent l’intérêt. L’environnement, ses signaux, les dispositifs techniques, les messages, les échanges dans une équipe, etc., tout ce qui est nécessaire à l’activité cognitive a disparu, au profit d’un supercerveau hors sol et hors corps. Pourtant, pour des approches plus biologiques, le cerveau lui-même ne devrait plus être déconnecté du reste du corps, des sensations. La réduction au cerveau est donc caricaturale pour les sciences cognitives elles-mêmes mais Bronner va pourtant chercher celles qui sont les plus focalisées sur le cerveau, les neurosciences cognitives.

Sixième réduction : l’interdisciplinarité réduite ainsi à un branchement sur quelques auteurs et quelques publications des neurosciences cognitives. L’effet réducteur est double : le cerveau y est délibérément isolé et la procédure devient purement expérimentale. Ce qui constitue malgré tout un écart considérable avec la tradition sociologique. Non pas qu’il soit a priori condamnable. J’ai pratiqué moi-même, à la différence de Bronner semble-t-il, des expériences de sciences cognitives – mais pas de neurosciences, je l’admets – dans les laboratoires des usages (Lutin, Cité des Sciences) que j’ai créés en France dans les années 2000.

Mais lorsqu’on pratique ces expérimentations, on apprend tout le travail de réduction nécessaire pour faire émerger des faits validés au terme d’une procédure très longue, très contrôlée, très pointue et pourtant toujours faite de décisions arbitraires, qui toutes réduisent les limites de validité des résultats. Les travaux des chercheurs en sciences cognitives doivent rester très précis et circonscrits et ne prétendent pas éclairer des débats généraux, ce que Bronner se permet de faire à leur place.

C’est exactement ce que demande l’actuel ministre de l’Éducation nationale qui ne s’embarrasse pas de limites de validité ni de précautions dans le transfert de l’expérimental vers l’opérationnel. L’inexpérience expérimentale devient éthiquement suspecte quand elle sert à couvrir, sur le mode scientiste, des transpositions abusives dans le champ du débat public.

Mais cette focalisation incontrôlée sur l’expérimental permet d’opérer une septième réduction, celle qui réduit l’expérimental à l’imagerie cérébrale. La magie de l’image (voir c’est croire) ne peut que séduire. Pourtant, les médiations pour construire les faits sont innombrables : elles sont contrôlées par les collègues, par les réglages standards des machines, par les protocoles acceptés par les revues, etc. Voilà de quoi est faite une science « en train de se faire », mais il est vrai que Bronner ignore délibérément la sociologie des sciences qui s’est développée depuis près de quarante ans, autour de Callon, Latour et Law, par exemple, alors qu’elle prend au sérieux toutes ces médiations qui permettent de faire tenir « un fait ». Dès lors, l’imagerie cérébrale suffit à « faire scientifique », en tous cas plus scientifique que les autres sciences sociales.

De fait, la huitième réduction est ainsi opérationnelle, puisque l’imagerie cérébrale fournira des localisations. Localiser, c’est causer, pourrait-on dire. Pourtant en linguistique clinique que j’ai un peu abordée auprès de Gagnepain et Sabouraud à Rennes, être capable de localiser une aphasie de Wernicke ou de Broca, c’est encore n’avoir rien compris du processus. Mais, nous dit-on, les images dynamiques permettent désormais de décrire comment des circuits neuronaux activent certaines zones successivement lors d’une activité cognitive. L’image du signal vaut processus et semble-t-il théorie, dans cette réduction qui permet de naturaliser et de biologiser toute activité sociale.

Car, la neuvième réduction, la principale, est en effet celle qui permet d’éliminer toute construction sociale, toute variation historique, géographique, culturelle, organisationnelle. Les individus humains fonctionnent de la même façon depuis Homo Sapiens puisqu’ils ont toujours le même cerveau, tous leurs comportements peuvent donc s’expliquer par des invariants. Le terme revient sans cesse dans le livre et cela peut paraitre étrange sous la plume d’un sociologue qui semble ainsi larguer définitivement les amarres avec sa discipline d’origine. L’auteur doit se contorsionner vers la fin du livre (p.285) pour préciser que cela n’en fait pas une fatalité, car il rappelle qu’il y a des tensions et des compétences nettement plus variées dans le cerveau et qu’elles entrent en conflit.

Mais tout le livre a poussé dans l’autre sens. Une sociologie de l’espèce qui ne dit pas un mot des différences culturelles est quand même à tout le moins une audace surtout lorsqu’on prétend élucider un grand changement médiatique tout récent. On perçoit surtout les conséquences politiques d’un tel dévoilement de notre destin : on ne peut rien faire contre des invariants qui sont installés depuis Homo Sapiens. La puissance des déterminations organise l’impuissance politique qui marque tout l’ouvrage et tous les travaux de Bronner, ce qu’il n’a pourtant cessé de reprocher aux tenants des sociologies (« naïves ») des effets des structures sociales. « Apocalypse » ou « apothéose de la reductio ad cerebrum » ? Puisque ce n’est pas seulement le cerveau mais les invariants du cerveau qui expliquent tout.

Il pourrait même ajouter une dixième réduction en descendant au niveau du sucre, qu’il mentionne sur tous les plateaux télé comme la clé de toutes les satisfactions et addictions, et qui peut être selon les cas, de la dopamine, de la sérotonine, de l’adrénaline ou de l’ocytocine. Ce sont ces hormones et neurotransmetteurs qui dans tous les cas deviennent ainsi les substances clés, les opérateurs du cerveau lui-même. Bref une sociologie biochimique bien plus savante encore que l’imagerie cérébrale !

On mesure le chemin parcouru depuis l’individualisme méthodologique et le naufrage que représente sa réduction finale aux invariants du cerveau pour venir à l’appui d’une prophétie apocalyptique.

Adieux à la méthode scientifique

Il n’y a plus d’histoire

Un sociologue qui ne fait aucune référence précise à l’histoire comme méthode, c’est un peu gênant. Ainsi, lorsqu’il évoque la dérégulation de la télévision dans les années 1980, aucun acteur, aucune décision ne viennent à l’appui de l’argument qui se résume à ces sauts caractéristiques de la prose de l’auteur :

« L’offre télévisuelle a longtemps été drastiquement régulée. Dès lors que la pression étatique s’est relâchée, on a observé ce que l’on observe toujours : un dévoilement de nos appétits les plus immédiats. » (p. 241)

Aucun gouvernement n’a pris de décision, aucune idéologie libérale n’était au cœur de la dérégulation, et aucun autre effet bien différent des appétits immédiats ne s’est produit et cela dans tous les pays de façon identique. N’adopter aucune méthode historique présente l’avantage d’éviter de désigner des responsables, pour pouvoir nous révéler cette fatalité qui vient de la nuit des temps.

Drame et ultralongue durée plutôt qu’histoire

Et pourtant, le phénomène actuel est historique et à risque. La capacité de Bronner à dramatiser la situation est indéniable : tout cela est d’autant plus grave… que cela remonte à Homo Sapiens. Par un raccourci saisissant d’absence d’historicité, la puissance de Facebook semble profiter directement des configurations cérébrales héritées du temps des cavernes. Bronner n’hésite pas à charger la barque des risques pour dramatiser :

« Les risques qui pèsent sur notre vie commune sont patents : le dérèglement climatique, l’épuisement progressif de nos ressources, notre capacité à nous autodétruire par les armes, les symptômes les plus inquiétants de ce que j’ai appelé l’apocalypse cognitive, et bien d’autres dangers que nous ne voyons pas encore. » (p. 335)

On a envie, comme le fait souvent l’auteur vis-à-vis des écologistes, de crier haro sur le lanceur d’alerte, sur le collapsologue, sur le profiteur des pulsions les plus anciennes comme la peur ! Dramatiser et exploiter la peur semble dans son cas un ressort éditorial qui fonctionne. Cela fait partie de la méthode Bronner : l’agrégation pour faire toujours plus gros, plus impressionnant, plus lointain dans l’histoire, et rendre ainsi impossible une analyse détaillée des chiffres, des facteurs, des médiations.

La rationalisation du monde démarre ainsi dès « le développement des arts du feu » (p. 36-37), voilà qui renvoie Weber à ses chères études à courte vue. D’ailleurs Homo Sapiens a même « été témoin, il y a près de 12 000 ans, de l’émergence du politique » (p.36), mais on le comprend bien, il n’y est pour rien, il n’était que témoin. Tout ce travail préhistorique est d’ailleurs plutôt « une robinsonnade », comme dirait Marx, et comme le note Martin Legros (cf. encadré ci-dessous) dans une des seules revues critiques de la presse.


 

Préhistoire de l’attention

Selon le sociologue Gérald Bronner, la révolution numérique révélerait notre nature humaine la plus profonde, qui s’est construite durant la Préhistoire. Une hypothèse stimulante ou simpliste ?

Voici un essai aussi passionnant que déroutant. Avec un sens de la dramatisation argumentée, Gérald Bronner propose un diagnostic original sur la crise de notre temps. Elle tient moins à des problèmes objectifs, comme le réchauffement climatique ou la montée en puissance des régimes autoritaires, qu’à un ressort psychique : la bataille de l’attention. Jamais dans l’histoire, l’humanité n’a disposé d’un tel capital attentionnel. Avec la réduction massive du temps éveillé que nous consacrons au travail sur toute une vie – en France, il est passé de 48 % en 1800 à 11 % aujourd’hui –, l’humanité a gagné un temps libre considérable – le fameux « temps de cerveau humain disponible », selon la formule de Patrick Le Lay, le patron de TF1, à propos du capital que la chaîne vendait à ses annonceurs et que Bronner reprend à son compte sans jamais le citer, étrangement. « Ce temps libéré de notre esprit a été multiplié par plus de cinq depuis 1900 et par huit depuis 1800 ! Il représente aujourd’hui dix-sept années, soit près d’un tiers de notre temps éveillé. C’est un fait inédit et significatif dans l’histoire de l’humanité. »

Toute la question est de savoir ce que nous allons faire de cette précieuse ressource ? Allons-nous la consacrer à traiter collectivement les défis du moment, à base d’inventions scientifiques et technologiques, de partage des connaissances, de délibération démocratique et de régulation internationale ? Ou allons-nous la laisser se faire capturer par le marché dérégulé de l’information qui, à rebours de l’idéal d’émancipation des fondateurs de l’Internet, donne libre cours à nos penchants et favorise les biais cognitifs et le temps court ? À suivre Bronner, la balance penche du mauvais côté. Les informations qui nous captivent sont celles qui entretiennent nos peurs, confondent causalité et corrélation, relaient notre besoin de nous exhiber et de nous comparer, nous désinhibent de la violence et nous incitent à préférer les satisfactions immédiates du virtuel à la rude confrontation avec le réel.

Selon le sociologue, ce tableau clinique est une véritable « révélation ». D’où le terme d’« apocalypse cognitive » – apocalypse signifiant d’abord révélation d’une vérité cachée. Que révèle donc la dérégulation du marché de l’information ? Ni plus ni moins que… notre nature humaine la plus profonde, constituée par les structures de notre cerveau et les habitus cognitifs acquis durant la Préhistoire. Loin d’avoir « dénaturé » l’homme en le soumettant à des dispositifs aliénants, le capitalisme numérique ferait apparaître les invariants de la nature humaine que nous avons tendance à refouler. L’homme des clashs sur les réseaux sociaux, prêt à adhérer aux infox et aux thèses complotistes, c’est « l’homme préhistorique qui revient sur le devant de la scène ». Un homme à qui il faut réapprendre à « différer la satisfaction de ses désirs immédiats » et à « domestiquer l’empire de ses intuitions erronées ».

Si l’hypothèse est intéressante, on est stupéfait de l’anthropologie simpliste sur laquelle elle repose. Pour Bronner, l’homme préhistorique est en effet un homme tellement occupé à assurer sa subsistance dans un milieu hostile qu’il ne peut s’expliquer le fonctionnement de la nature qu’en peuplant le ciel de créatures enchantées avec lesquelles il doit négocier en permanence. Jusqu’au jour où surgit la raison qui lui permet de passer d’un rapport de soumission à un rapport de domination avec le monde. Marx ironisait sur les « robinsonnades » par lesquelles les philosophes du XVIIIe siècle se représentaient l’homme préhistorique. On est stupéfait qu’un sociologue français, qui ne peut ignorer les travaux sur la Préhistoire et l’ethnologie moderne, d’André Leroi-Gourhan à Claude Lévi-Strauss en passant par Pierre Clastres ou Philippe Descola, puisse se faire une image aussi rudimentaire de l’homme prémoderne et de ses croyances. Et quand Bronner nous annonce que « l’heure de la confrontation avec notre propre nature va sonner », on est séduits par l’hypothèse, mais on se demande où il a été cherché une image aussi fruste de Robinson.

Martin Legros, Philosophie Magazine,

publié le 11 janvier 2021

 


Des périodes historiques toujours plus longues sont toujours plus difficiles à documenter si l’on agrège tout, comme pour son calcul du « temps de cerveau disponible », qui aurait augmenté de façon dramatique depuis 1800, surtout si l’on y ajoute l’augmentation de la durée de vie.

Notons l’astuce de la datation, qui part de la révolution industrielle et donc du salariat qui permet de quantifier le temps de travail et le temps de repos supposé. Car, si l’on remontait au Moyen Âge, les données du temps capté par le travail proprement dit seraient tout-à-fait différentes. Les nombreuses fêtes (près d’une trentaine par an, soit 11 semaines de congés par an), religieuses pour la plupart, engendraient un temps de travail inférieur à ce qu’on connait au XXe siècle malgré une durée de travail quotidienne indexée sur les levers et couchers du soleil, donc parfois très longue en été. La productivité n’est devenue vraiment un souci et une métrique qu’avec le capitalisme industriel et dans tous les cas, on peinerait à calculer ce qu’on peut appeler du « temps de cerveau disponible ».

L’attrape-tout conceptuel

Il eût fallu en effet un long travail d’exégèse de la notion… de Patrick Le Lay, pour la valider comme concept scientifique. Il eût été honnête de citer cet auteur qui contribue à la thèse centrale du livre et de le citer intégralement :

« Dans une perspective business, soyons réalistes : à la base, le métier de TF1, c’est d’aider Coca-Cola, par exemple, à vendre son produit. Or, pour qu’un message publicitaire soit perçu, il faut que le cerveau du téléspectateur soit disponible. Nos émissions ont pour vocation de le rendre disponible : c’est-à-dire de le divertir, de le détendre pour le préparer entre deux messages. Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible. »

Le cynisme ou le réalisme de la proposition la rendent très claire : les programmes visent à préparer le spectateur aux messages publicitaires.

La production des contenus s’ajuste à la publicité qui filtre ainsi les goûts du public, ce que Bronner veut infirmer absolument puisque, selon lui, ce sont les biais du cerveau d’Homo Sapiens qui gouvernent tout. Parfois pointent des allusions à des responsables :

« Même lorsque nous avons un appétit de connaissances, celui-ci peut facilement être détourné par la façon dont est éditorialisé le marché cognitif. » (p. 238)

On voudrait des noms, on attendrait des exemples. Mais rien ! Si se met en place un « cambriolage de notre attention », c’est que « l’incongruité et le surprenant sont ainsi les alliés de ceux qui cherchent à cambrioler une partie du plus précieux trésor du monde connu » (p. 165). Mais aucun nom, aucune responsabilité documentée. Bref, un cambriolage sans cambrioleur !

La quantification artisanale

Dans son souci d’agrégation sauvage, l’élève de Boudon se révèle même fâché avec les exigences de la quantification puisqu’il exploite des données empruntées à Google Trends (Nabila plus recherchée que Tirole !), tout en admettant que sa méthode est « un peu artisanale » (p. 258), les artisans apprécieront. Mais pour faire plus scientifique, il cite une étude, comme il le fait souvent, celle de Stephens-Davidowitz, qui a travaillé sur les requêtes Google aux États-Unis. Et voici le fait qui vaut démonstration de la dégénérescence de l’attention de toute une espèce :

« Lui aussi a observé la véritable obsession des internautes pour la sexualité. Les hommes sont véritablement hantés par la taille de leur pénis puisqu’ils posent plus de questions au moteur de recherches sur cette partie de leur anatomie que sur n’importe quelle autre de leur corps. » (p. 259)

Voilà l’apocalypse, voilà enfin révélé ce qui était caché : un humain mâle veut comparer la taille de son pénis au moins une fois dans sa vie pour savoir s’il est normal ou non. Comment ne pas désespérer de l’humanité après un tel résultat ? De même, le seul tableau croisé de d’ouvrage (p.244) montre clairement que les téléspectateurs préfèrent de loin les « fictions grand public » aux « fictions exigeantes » et les « documentaires grand public » aux « documentaires exigeants ». Les catégories en question ont été construites par l’auteur, sans référence aucune à des travaux du domaine, et sans la mise à l’épreuve de la robustesse de la classification que l’on doit exiger.

La manipulation des références

Il est plus dérangeant de procéder de la même façon quand on traite les références publiées. Prenons en deux que je connais bien puisqu’elles sont à la base de toute la science des données sur les propagations. Lorsque Bronner cite Leskovec, Backström et Kleinberg (2009) à propos des cycles de vie de l’actualité (p. 209), il ne mentionne évidemment pas que leur outil s’appelle un meme tracker, en référence à la mémétique. Il s’en sert uniquement pour confirmer son point de vue sur la diversité des sources et l’homogénéisation des thèmes. Or, la recherche visait à suivre les mutations des énoncés pendant leur propagation, travail d’analyse linguistique particulièrement complexe, comme j’ai pu en juger quand j’ai tenté de le répliquer avec mes collègues de data science à l’EPFL [École Polytechnique fédérale de Lausanne, ndlr].

Mais en ne s’intéressant qu’aux sources, Bronner continue en fait un travail très simpliste de sociologie des médias qui sert son propos, l’homogénéisation des médias, en ne gardant que la dimension très agrégée des résultats. De même quand il reprend l’étude de Vosoughi et al. (2018), publiée dans Science, sur la viralité des fake news, il en tire la conclusion :

« Les fausses informations vont six fois plus vite et sont plus partagées et repartagées que les vraies informations. La crédulité a donc un avantage concurrentiel important sur le marché cognitif dérégulé ». (p.222)

Or, ce n’est pas du tout ce que montre l’équipe de Vosoughi puisque, pour rendre compte de ce différentiel de propagation, ils ont dû construire un « score de nouveauté » (novelty score) qui explique cette différence par l’effet de choc, de surprise et de rupture avec les messages habituels reçus dans un environnement donné, qui du coup fait réagir et propager à nouveau. Rien à voir avec la crédulité mais plutôt avec l’effet de surprise que Bronner a pourtant reconnu comme une appétence du cerveau (p. 153) et qui est confirmée par les propos de Lachaux (p. 203), la référence pour l’auteur.

Quand dérégulation et invariants se rencontrent

Revenons sur la thèse du livre et sur ses conséquences politiques. Deux éléments clés méritent d’être mentionnés : la dérégulation du marché cognitif causée par les réseaux sociaux et le rôle des invariants du cerveau dans nos comportements contemporains, deux éléments qui se trouvent « se rencontrer » à notre époque, cette révélation valant apocalypse.

Sur les invariants du cerveau, on ne peut que s’étonner de ce point d’arrivée pour un sociologue, pour qui la diversité culturelle et historique devrait être la base de la méthode. L’universalité des biais cognitifs n’a jamais été mise à l’épreuve mais cela permet à peu de frais à toutes les sciences cognitives de se débarrasser de leur biais expérimentaliste. Lorsqu’on construit un monde artificiel et qu’on assigne aux sujets des tâches totalement hors contexte, on sait que la validité des résultats est limitée par le cadre expérimental et qu’il convient d’être prudent avant de les transférer dans d’autres environnements et de les généraliser. Évidemment, cela permet de produire des lois, des effets, des biais, toutes choses que pratiquent les économistes orthodoxes, qui externalisent sans vergogne, pour ressembler aux sciences physiques.

Le monde ainsi construit n’a plus grand-chose à voir avec l’expérience vécue des humains ni avec les multiples facteurs que les sociologues (« naïfs ») passent leur temps à inventorier. Mais parmi ces biais cognitifs, certains se trouvent ravalés au second rang alors qu’ils sont pourtant des pistes intéressantes dans le contexte particulier des réseaux sociaux. La surprise a déjà été mentionnée (cf. les travaux de Vosoughi) et correspond exactement à ce que les plateformes des réseaux sociaux cherchent à engendrer, à savoir une réactivité, un « taux d’engagement » qui permet d’afficher des scores attractifs pour les marques et leurs placements publicitaires.

L’habitude des bulles cognitives se combine à la surprise, à la nouveauté, à ce que j’ai appelé un « régime d’attention de l’alerte ». La captologie, jamais évoquée par Bronner, s’y consacre, et sa responsabilité dans cette affaire est bien établie. De même, lorsque l’auteur reconnait, à la toute fin du livre (p. 340), que le cerveau est capable d’arbitrage : « Il se trouve que notre cerveau est aussi configuré pour arbitrer entre des plaisirs à court terme et des plans de plus longue haleine. » Aucune étude n’est mentionnée à l’appui de cela mais pourtant, voilà un argument qui permettrait de remettre les préférences individuelles et l’individu calculateur au centre du jeu.

Les quelques biais sélectionnés par Bronner ne l’ont donc été que pour créer cette anxiété qui attire le lecteur alors qu’il existe des pistes possibles d’arbitrage entre le court-termisme et les plans de longue durée. C’est ce point qui aurait mérité ensuite investigation pour rendre une action commune possible. En procédant ainsi, l’auteur s’économise tout le travail d’élaboration de solutions, travail particulièrement périlleux et complexe, comme j’ai pu l’éprouver lorsque j’ai tenté, dans Comment sortir de l’emprise des réseaux sociaux (éd. Le Passeur, 2020), de proposer quatre formes de démantèlement des plateformes de réseaux sociaux et plusieurs mesures de régulation et d’autorégulation dans les interfaces même, ce qui permettrait de récupérer un contrôle sur ces supposés invariants. Car il existe des leviers d’action si l’on commence à retracer précisément la genèse de ce cambriolage.

Et c’est le deuxième volet de l’argument : le cambriolage de l’attention sans cambrioleur. Puisque les réseaux sociaux sont devenus si importants qu’en dix ans ils produisent cette apocalypse, on s’attendrait à une analyse fouillée de la genèse de ces plateformes (le mot n’est pas prononcé !). Mais ce serait courir le risque de nommer de potentiels responsables. Le cambriolage sans cambrioleur serait en fait inventé par le policier Bronner qui veut faire du chiffre éditorial, en quelque sorte ?

On peut se poser la question car le texte a beau multiplier les références au marché (de préférence cognitif), il fuit toute référence à la monétisation intervenue très précisément à la fin des années 2000 pour You Tube, Facebook et Twitter, avec l’installation de métriques qui permettent de vérifier (croit-on !) les effets de placements publicitaires. Les Représentants américains qui mènent audience sur audience pour exiger des explications de la part des plateformes semblent finalement nettement plus avertis des origines et des responsables que Gérald Bronner, chercheur de son état.

D’ailleurs, en passant, sans analyse, des mesures d’audience des médias traditionnels aux scores de recherches de Google, l’auteur ne traite pas sérieusement les processus techniques et économiques qui ont fait muter tout notre système médiatique dans les dix dernières années, passant de l’audience à l’engagement, à la réactivité mesurée par des traces et monétisée. Car cette histoire très conjoncturelle pourrait invalider la thèse de la responsabilité d’Homo Sapiens. L’auteur s’inquiète parfois du rôle des algorithmes, qui ont été conçus pour renforcer nos addictions (p. 188), lorsque c’est un ancien patron de Facebook qui le dit. Mais si les partisans de la « dénaturation de l’homme » s’emparent du même argument, et prétendent que « les mécanismes d’allocations publicitaires sont désormais régis par des algorithmes informés par des enchères dont les résultats aboutissent en un dixième de seconde » (p. 270), cela ne lui convient pas.

Car l’influence de la publicité se limite selon lui à valoriser « l’intérêt à court terme » (p.271) qui, lui, relève des fameux invariants ! On peut ainsi passer des « écrans », principaux attracteurs de notre attention (p. 77) aux algorithmes, en passant par les médias, sans aucun examen sérieux, sans media studies, sans intérêt pour les médiations plus largement. Tout cela pour ne pas donner de grain à moudre aux sociologies critiques, puisqu’il faut se situer dans une anthropologie prophétique. Le lecteur devra se contenter d’approximations, d’allusions à des cambrioleurs, « ces écrans et ceux qui les exploitent économiquement » (p. 86) car « ils ne sont que les médiateurs de la rencontre entre l’hypermodernité du marché cognitif et le très ancestral fonctionnement de notre cerveau » (p. 86).

Conclusion

Au terme d’un tel parcours, on se retrouve un peu estomaqué par tant de légèreté méthodologique et par tant d’irresponsabilité politique.

Légèreté méthodologique que l’auteur résume d’ailleurs très bien mais en visant ses adversaires, évidemment :

« Il est difficile de comprendre clairement ce qui les autorise à passer des effets que nous constatons tous aux causes qu’ils imputent. » (p. 265)

Excellemment dit pour décrire le saut de l’auteur depuis les mesures anecdotiques sur les recherches Google aux invariants de l’espèce (par exemple). Car il est exact que « ce type d’argument rend leur thèse irréfutable et donc peu scientifique » (p. 269). Encore une fois dans le mille. Car des espaces béants s’ouvrent sans cesse entre causes et effets.

Irresponsabilité politique, car en produisant de tels discours au mieux confusionnistes par prétention scientiste, au pire réactionnaires par camouflage de toutes les médiations et de tous les leviers d’action, l’auteur encourage en fait un laisser-faire vis-à-vis des plateformes, acteurs majeurs de cette dérive médiatique, au moment où les décideurs politiques eux-mêmes commencent à s’apercevoir des dégâts qu’elles ont créés pour notre espace public.

Dominique Boullier
Sociologue, Professeur à Sciences Po (Paris),
chercheur au Centre d’études européennes et de politique comparée (CEE)

 

Article publié sur AOC le 8 avril 2021.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s