WP_Post Object
(
    [ID] => 13005
    [post_author] => 48457
    [post_date] => 2013-11-28 15:33:40
    [post_date_gmt] => 2013-11-28 15:33:40
    [post_content] => L’un des aspects les plus singuliers du débat qui a suivi le passage de Katrina sur La Nouvelle-Orléans, en août 2005, tenait à cette affirmation catégorique, répétée à longueur d’articles, selon laquelle l’ouragan était de ces événements qui ne se produisent qu’« une fois par génération », « une fois dans une vie » ou « une fois par siècle ». La responsabilité en incombe notamment à Ray Nagin. Le maire de La Nouvelle-Orléans serinait alors à tous les journalistes désireux de l’entendre que « jamais la ville n’avait essuyé un cyclone d’une telle ampleur ». Inepties ! Katrina n’était pas même la pire tempête en quarante ans ; et lorsqu’elle atteignit la cité, elle avait à peine la force d’un ouragan proprement dit (1). Betsy, en 1965, avait été bien plus puissant, tout comme George en 1947 (2) ; et d’autres ouragans, plus violents encore, ont été à deux doigts de s’abattre sur la ville en 1969, en 1998 et en 2004. Comme vous le dira n’importe quel habitant de La Nouvelle-Orléans, les dégâts causés par Katrina furent pour l’essentiel d’origine humaine, et non naturelle, conséquence de digues défectueuses et de canaux de navigation imprudemment creusés au cœur de la ville. Cette opinion a d’ailleurs été sanctionnée en 2009 par le juge fédéral Stanwood Duval, qui attribua les inondations à la « négligence monumentale » des ingénieurs de l’armée de terre américaine (3).

Katrina était un événement à la fois prévisible sur le plan météorologique et atrocement banal d’un point de vue historique. Aucune ville américaine n’a subi autant de catastrophes que La Nouvelle-Orléans – qui en a d’ailleurs déjà connu d’autres depuis 2005 : le coût de l’ouragan Isaac (2012) est estimé à 1,5 milliard de dollars ; et la marée noire causée par l’explosion de la plateforme pétrolière Deepwater Horizon en avril 2010 pourrait, si l’on y ajoute la pollution des produits dispersants déversés dans les eaux du golfe du Mexique, avoir un coût économique et humain supérieur à celui de Katrina [lire « BP, voyou du pétrole », Books , n° 31, avril 2012]. De fait, le désastre est inscrit dans l’ADN de La Nouvelle-Orléans, à la fois en tant que trauma des cataclysmes passés et peur latente des catastrophes à venir.

Au cours de son premier siècle d’existence – la période couverte par le livre de Lawrence Powell – La Nouvelle-Orléans a failli disparaître plus d’une dizaine de fois. La première inondation désastreuse s’est produite en 1719, moins d’un an après l’arrivée des colons français. C’était « la pire crue dont les Indiens aient eu le souvenir », laissant le site submergé pendant près de six mois. Après quoi La Nouvelle-Orléans fut inondée presque chaque été, avec des épisodes particulièrement dévastateurs en 1734 (cette fois encore pendant plusieurs mois), en 1770, en 1780, en 1785, en 1790, en 1791, en 1796, en 1812 et en 1816. En 1722, un ouragan détruisit les bâtiments édifiés par les premiers colons (ce qui permit de rebâtir la cité selon un plan en damier). Six autres suivirent entre 1776 et 1781, mais le pire de tous fut sans conteste le « Grand Ouragan de Louisiane » qui, en 1812, plongea la ville sous près de cinq mètres d’eau.

En 1788, le jour du Vendredi saint, un pieux trésorier militaire alluma chez lui cinquante cierges, qu’il laissa malencontreusement brûler en allant déjeuner. Cinq heures plus tard, 856 bâtiments – les quatre cinquièmes de la surface bâtie – étaient partis en fumée. Si l’incendie s’est propagé avec une telle rapidité, c’est que les maisons avaient été construites en cyprès, un bois local qui a le mérite de résister à l’eau, mais que sa forte teneur en huile et en résine rend extrêmement inflammable. Qu’à cela ne tienne, les colons rebâtirent leurs maisons dans le même bois, et la cité fut derechef incendiée six ans plus tard…

En 1794 survint une épidémie de petite vérole, suivie, deux ans plus tard, de la fièvre jaune. Les moustiques porteurs du paludisme pullulaient chaque été, comme en témoigna, horrifié, l’architecte anglais Benjamin Latrobe, en 1819 : « Dès le coucher du soleil, les moustiques apparaissent par nuées et remplissent toutes les pièces de la maison, de même que l’extérieur. Leur bruit est tel que sa répétition quotidienne surprend le visiteur. Il emplit l’air, et il lui arrive de croître et de décroître, comme un concert de grenouilles dans un marécage. »

Latrobe avait identifié la source des maux de la ville : « La boue, la boue, la boue… La Nouvelle-Orléans est une ville flottante, posée sur un lit de boue situé au-dessous de la surface de l’eau. » Bâtie sur les alluvions du Mississippi, elle est en effet la métropole américaine la plus basse par rapport au niveau de la mer, et les marais environnants le sont davantage encore. Après des pluies persistantes, les rues se remplissaient d’eau, faisant de chaque pâté de maisons une île (d’où leur surnom d’îlets). Les diplomates et gouverneurs français envisagèrent plus d’une fois de renoncer à la ville : « Peut-être un jour, s’il y a des millions d’habitants de trop en France, sera-t-il avantageux de peupler la Louisiane ; il est plus vraisemblable qu’il faudra l’abandonner », écrit Voltaire dans son Essai sur les mœurs. Louis XV ne se fit pas prier pour céder le territoire à l’Espagne en 1762 (4). Pourquoi bâtir une ville sur cette terre décrite, dès 1720, comme « inondée, malsaine, impraticable, bonne à rien sauf à planter du riz » ? Telle est la question qui se pose inévitablement à propos de La Nouvelle-Orléans, et dont se font l’écho tous les historiens de la région. Le plus souvent, leur conclusion est une variante de la remarque formulée dès 1876 par le géographe allemand Friedrich Ratzel : « La Nouvelle-Orléans est aussi mal située en tant que ville […] qu’elle l’est excellemment en tant que site commercial. Ce dernier avantage compense tous les inconvénients. » Dans un livre paru aux États-Unis en 2008 (5), le géographe Richard Campanella précise ainsi que le choix de l’emplacement était « parfaitement rationnel à l’époque de la fondation, quand les sociétés humaines étaient encore très dépendantes du transport par voie d’eau. Or ce lieu précis offrait le meilleur accès fluvial à ce qui s’avéra la plus riche vallée au monde ».

 

Une ville flottante

Comme l’indique le titre de son livre – « La ville accidentelle » –, Powell parvient à une tout autre conclusion : « Rien dans l’histoire, écrit-il, ne permet d’imaginer que La Nouvelle-Orléans fut fondée sur son site actuel en raison d’un quelconque impératif géographique. » Il suggère un meilleur emplacement et justifie sa thèse en racontant à nouveau le mythe passablement mystérieux de la création de la ville. En mars 1699, l’enseigne de vaisseau Jean-Baptiste Le Moyne, sieur de Bienville, né au Canada, partit explorer le Mississippi avec son frère aîné, Pierre. Bienville avait 18 ans ; son frère, le sieur d’Iberville, en avait 37. Leur but était d’établir une colonie près de l’embouchure du Mississippi pour barrer l’accès du fleuve à l’Espagne et à l’Angleterre, dont les missions d’exploration n’avaient guère rencontré de succès. En se rapprochant du golfe, le Mississippi se fait moins large et plus profond ; son embouchure, « souvent enveloppée de brume et bordée de panaches alluviaux de sédiments, ne se distingue pratiquement pas des cours d’eau secondaires et des bayous qui se dirigent en réseau vers la mer à travers le littoral marécageux ». Cela explique pourquoi les navires espagnols sont passés au large du fleuve pendant près de deux siècles sans jamais le remarquer. Le premier Européen à le repérer depuis la mer (en 1682) fut René Robert Cavelier, sieur de La Salle, grâce à l’aide de ses guides indiens. Sur une berge située plusieurs jours en amont, l’explorateur avait crié « Vive le Roi ! », prenant ainsi possession du bassin au nom de Louis XIV. Et baptisé Louisiane cette vaste zone (qui représentait un tiers du territoire américain), en l’honneur du monarque. Mais, revenu sur les lieux deux ans plus tard afin d’y établir une capitale, La Salle avait été incapable de retrouver le fleuve. Dérivant jusqu’à Matagorda, au Texas, 650 kilomètres à l’ouest de l’embouchure, il passa deux ans à explorer la côte en vain. À la fin, son équipage mécontent l’abattit d’une balle dans la tête.

 

Une croix et un bison

Dix-sept ans plus tard, donc, alors que Bienville et Iberville remontaient le fleuve, ils furent abordés par des Indiens en pirogue, près de ce qui devint le site de La Nouvelle-Orléans. En échange d’une hachette, les indigènes leur montrèrent un sentier de portage menant à un ruisseau (le bayou Saint-Jean) qui se jetait dans le lac Pontchartrain. Le lac étant lui-même relié au golfe, les gros navires pourraient atteindre une ville en évitant le Mississippi. Le ruisseau était entouré de terres relativement élevées, et la zone se trouvait suffisamment proche de l’embouchure pour offrir un poste de défense contre les incursions étrangères. Pour fêter leur découverte, les frères Le Moyne dressèrent une croix et tuèrent un bison.

Près de vingt années s’écoulèrent avant que la couronne de France ne se laisse convaincre de fonder une ville sur le Mississippi. Bienville, devenu gouverneur de Louisiane, proposa de la bâtir le long de la digue naturelle formée à proximité du bayou Saint-Jean. Il s’était octroyé la propriété de ces terres et comptait bien faire fortune. Il engagea donc les travaux de construction alors même que les responsables français envisageaient encore un autre site : le bayou Manchac, un coude oublié plus en amont du fleuve, près de Baton Rouge.

Rompant avec le consensus historique, Powell suggère que Bienville a fait le mauvais choix : « Il existait d’autres possibilités au regard de la géographie – des sites moins limoneux, plus proches du centre d’activité agricole envisagé, et vraisemblablement plus faciles d’accès, suivant la même logique de voies dérobées. » On notera le « vraisemblablement »… À l’image de La Nouvelle-Orléans, le bayou Manchac possédait un chenal arrière menant au golfe (manchac signifie « entrée arrière » en choctaw), mais le trajet était plus long et nettement plus ardu. Sans compter que l’emplacement du bayou Manchac, situé à près de 300 kilomètres de l’embouchure du Mississippi, rendait la position inopérante d’un point de vue défensif.

Le site était, certes, « plus haut et plus sec » que La Nouvelle-Orléans. Mais, comme le reconnaît Powell, il s’est en partie effondré dans la rivière au début du XIXe siècle. Autre argument en faveur du bayou Manchac : il était entouré de terres arables au nord et à l’est, de sorte que les colons auraient pu s’éloigner du fleuve et des « marais infectés qui allaient faire de La Nouvelle-Orléans la grande nécropole de l’Amérique du Nord ». Mais c’est précisément cette géographie inhospitalière, comme le reconnaît Powell, qui allait obliger « des populations issues de trois continents et d’innombrables races et groupes ethniques » à « s’entasser sur les pentes de la digue naturelle pour, en quelque sorte, apprendre à improviser une cohabitation dont l’héritage est peut-être la seule véritable contribution de l’Amérique à la culture mondiale ». Autrement dit, si La Nouvelle-Orléans avait été construite au bayou Manchac, le jazz n’aurait jamais existé…

Rejetant tacitement la thèse de la « ville inévitable dans un lieu impossible », Powell écrit : « Il n’y avait aucun caractère de fatalité dans la décision de faire de La Nouvelle-Orléans la nouvelle capitale, sauf à considérer comme une force inéluctable de l’histoire la ruse au service de l’ambition personnelle. » L’intérêt bien compris de Bienville a, certes, beaucoup compté, mais le souci de soi n’est-il pas précisément une « force inéluctable de l’histoire » ? Powell finit tout de même par l’admettre du bout des lèvres : « À la lumière de ce qu’est devenue la ville, sans doute fut-ce une bonne chose que les manœuvres de Bienville aient réussi. »

Lorsqu’il en vient aux débuts de La Nouvelle-Orléans, Powell porte une attention particulière aux esclaves du Sénégal et du Congo qui creusèrent les égouts de la ville, en tracèrent les rues, en construisirent les maisons et les digues. Un jour, ayant eu vent de rumeurs infondées selon lesquelles ils projetaient un raid contre le fort de la ville, l’un des premiers gouverneurs du territoire, Étienne de Périer, fit torturer et décapiter les suspects, ordonnant que leurs têtes soient exposées au bout d’une pique. Mais le même Périer contribua – certes involontairement – à affaiblir cette institution qu’était la servitude. Car des troupes d’esclaves étaient régulièrement mobilisées pour réprimer les soulèvements d’Indiens, mais aussi traquer leurs homologues en fuite. Il paraissait difficile de renvoyer les membres de la milice à leur statut d’asservis quand ils avaient risqué leur vie pour défendre la colonie, combattant pour la plupart au côté des Blancs. La liberté fut donc accordée aux soldats noirs, qui commencèrent à former une classe d’affranchis.

Les autorités françaises avaient espéré utiliser la colonie pour la production de tabac, dont le centre serait la ville de Natchez. Mais le climat local ne convenant guère aux plants, on ne tarda pas à regretter l’investissement. La révolte des Natchez, en 1729, acheva de convaincre les Français de renoncer au projet (6). Les milliers d’Africains amenés pour travailler dans les plantations se trouvèrent désœuvrés. Leurs propriétaires, qui peinaient à s’en sortir, les autorisèrent à chasser et à pêcher pour se nourrir, et donc à porter des armes. On leur permit également de gagner de l’argent, en vendant du gibier et du bétail en ville et en louant leurs bras. À mesure que le travail dans les plantations devenait moins pénible, le taux de mortalité baissa, et les esclaves fondèrent plus nombreux une famille. Comme l’écrit Powell, « les événements prirent une tournure extraordinaire. C’est peut-être la seule société esclavagiste à avoir jamais fait volte-face pour prendre les traits d’un milieu mouvant qui se trouvait compter des esclaves ».

La population des affranchis augmenta considérablement après la cession de la ville aux Espagnols, en 1762. Ceux-ci introduisirent la politique dite de coartación (« affranchissement »), en vertu de laquelle un esclave pouvait racheter sa liberté. Les usages sociaux changèrent aussi. Vivre avec une femme de couleur devint acceptable pour les colons, notamment en raison du manque de Blanches. Mais cette pratique se perpétua même une fois atteinte la parité entre hommes et femmes blancs. (Certains parents donnaient à leur fils, à la puberté, une negra ou mulata attitrée à des fins d’éducation sexuelle.) Les Blancs offraient la liberté à leurs maîtresses et à leurs enfants métis. À la fin du XVIIIe siècle, un esclave avait trois fois plus de chances d’être libéré à La Nouvelle-Orléans que dans les colonies américaines. Les affranchis formaient un cinquième de la population de la ville.

La géographie offrait aussi aux esclaves une autre possibilité. Les fuyards formèrent des campements protégés par les marécages et les forêts épaisses, que les propriétaires pouvaient difficilement trouver. Ces « nègres marrons » plantaient du maïs, des courges et du riz, cueillaient des baies, pêchaient, chassaient le lapin, l’opossum, le cerf et certains oiseaux. Mais ils perdaient rarement le contact avec les plantations qu’ils avaient fuies, circulant souvent sans encombre entre la ville et les marais. Ils revenaient la nuit à La Nouvelle-Orléans pour voler des poules, recéler les biens volés et festoyer dans les cabarets.

 

Contrebandiers, déserteurs et bagnards

De nos jours, La Nouvelle-Orléans est la ville des États-Unis où se commettent le plus de meurtres, son système judiciaire est effroyablement inique, la discrimination raciale y est de règle, et la cité doit affronter les conséquences de divers désastres d’origine naturelle et humaine. C’est d’autant plus démoralisant que la plupart de ces problèmes existaient déjà à l’époque de Bienville. Près d’un quart des pionniers étaient des contrebandiers, des déserteurs et des bagnards exilés par la France. « Si je devais renvoyer tous les mauvais sujets, écrivit l’un des premiers gouverneurs de la Louisiane, que resterait-il des habitants de cette colonie ? » Le droit colonial français, qui reste aujourd’hui la source de nombreuses spécificités du système judiciaire de Louisiane, était déconcertant et contradictoire – à tel point qu’on eut tôt fait de l’ignorer. « Il y eut peu de villes du Nouveau Monde où les lois furent à ce point bafouées », écrit Powell. Qui évoque aussi, pêle-mêle, le vice du jeu, la « picole », la danse, et autres formes de réjouissances encouragées selon Powell par un « fatalisme qui faisait jouer avec sa vie, un fatalisme inhérent à la précarité de cette ville bâtie sur de la boue, posée sur un rebord continental où les déluges et les maladies, sans oublier un incendie de-ci de-là, incitaient à “laisser les bons temps rouler”, selon l’expression consacrée à La Nouvelle-Orléans ».

Il appartiendra peut-être aux géographes d’écrire le prochain chapitre de l’histoire de la ville. Comme le souligne Powell, elle est bâtie sur l’un des coins de terre les plus jeunes de la planète : le delta du Mississippi n’a pas plus de 7 200 ans, le site même de La Nouvelle-Orléans a été formé il y a seulement 4 000 ans, et la partie surélevée où se trouve le quartier français ne date, elle, que de 1 400 ans. Aujourd’hui, le sol se dérobe : toutes les quinze minutes, la Louisiane perd l’équivalent d’un terrain de football de marécages. La ville est en plein essor, sa population augmente, sa culture prospère, et elle reste un lieu unique au monde. Mais nous savons pertinemment que les inondations se multiplieront, si hautes que soient les digues, et que les tempêtes y seront toujours plus fréquentes et violentes. La prochaine saison des ouragans commence au printemps.

 

Cet article est paru dans la London Review of Books, le 22 novembre 2012. Il a été traduit par Laurent Bury.
    [post_title] => La Nouvelle-Orléans, ville contre nature
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => la-nouvelle-orleans-ville-contre-nature-2
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2015-08-27 15:36:05
    [post_modified_gmt] => 2015-08-27 15:36:05
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/la-nouvelle-orleans-ville-contre-nature-2/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 13016
    [post_author] => 48457
    [post_date] => 2013-11-12 11:21:52
    [post_date_gmt] => 2013-11-12 11:21:52
    [post_content] => Pour une grande partie de l’humanité, la Première Guerre mondiale fut un cataclysme d’une violence inédite. Pour Ludwik Hirszfeld, ce fut une aubaine. Ce médecin allemand, qui dirigeait avec son épouse Hanna un laboratoire de bactériologie à Salonique, eut soudain à sa disposition presque autant de cobayes humains qu’il pouvait en rêver : les soldats des armées alliées d’Orient, venus de France et de Grande-Bretagne, d’Italie, de Russie et de Serbie, que les troupes allemandes avaient encerclés dans le port grec (1). Pour mener à bien l’une des plus grandes études de terrain de l’histoire de la médecine, Hirszfeld n’hésita pas à harceler ces hommes à bout de forces. Et savait s’adapter aux différentes cultures pour les convaincre de se laisser faire une prise de sang.

« Avec les Anglais, il suffisait de dire qu’il en allait du progrès de la science », se souvient Hirszfeld dans ses Mémoires (2). À ses « bons amis français », l’ingénieux chercheur promettait de dévoiler, en contrepartie, avec qui leur sang « leur permettait de fauter en toute impunité ». Il parvenait même à persuader les tirailleurs sénégalais, auxiliaires de l’armée française : « Nous disions aux Noirs que l’examen déboucherait peut-être sur une permission, et il y avait aussitôt des candidats. »

En l’espace de quelques mois à peine, il avait réussi à accomplir ce qui, en toute autre circonstance, lui aurait pris des années : déterminer le groupe sanguin d’à peu près huit mille soldats venus de tous les coins du monde. Après analyse des données recueillies, notre homme crut avoir fait une découverte révolutionnaire : « Le groupe sanguin A était associé principalement avec la “race” blanche, européenne, tandis que le groupe sanguin B était apparié aux “races” à la peau sombre », écrit l’historienne suisse Myriam Spörri dans le livre qu’elle consacre à l’histoire culturelle de la recherche sur les groupes sanguins. En 1910, Hirszfeld établit, en collaboration avec son collègue Emil von Dungern, la nomenclature utilisée aujourd’hui partout dans le monde, des groupes sanguins en A, B, AB et O. L’existence desdits groupes sanguins ayant elle-même été découverte en 1901 par leur collègue Karl Landsteiner.

En 1941, Hirszfeld, qui était juif, fut relégué par les nazis dans le ghetto de Varsovie. Il survécut à la guerre et fut lavé de tout soupçon quant aux éventuelles motivations racistes de son travail. Spörri, elle, ne l’exonère pas.

L’historienne suisse a découvert que les recherches d’Hirszfeld avaient d’emblée des « tendances eugénistes ». Même à l’époque de son internement, explique-t-elle, il affirmait dans des conférences que « la répartition des groupes sanguins était quasiment identique chez les Juifs et chez les “populations hôtes” au sein desquelles ils vivaient ». Mais le scientifique originaire de Varsovie n’était pas le seul à user d’un vocabulaire qui nous choque aujourd’hui. Dans la revue Jüdische Familienforschung (« Recherches familiales juives »), le sérologiste berlinois Fritz Schiff affirmait que la différence de sang entre les diverses communautés juives était une marque d’« assimilation à leurs “populations hôtes” respectives ».

Dès les années 1920, les Hirszfeld avaient commencé à répandre d’inquiétantes théories. Comme le rappelle Spörri, « le concept de “sang pur”, qu’ils ont été les premiers à formuler, connut une popularité persistante et ne fut pas contesté, malgré de nouvelles découvertes ». L’obsession du sang pur était alors partagée par presque tous les spécialistes. Des années avant l’arrivée au pouvoir des nazis, les biologistes juifs et non juifs traquaient dans le sang caractéristiques raciales et traces de mélanges interethniques, comme si la chose relevait de l’évidence.

 

Un roman ordurier

L’auteur met ainsi en lumière, pour la première fois, une communauté scientifique qui, avec le recul, nous apparaît aussi bien assortie que l’eau et le feu, et dont la démarche a pour l’essentiel été oubliée. D’un côté, des savants d’inclination libérale et d’origine juive comme Hirszfeld, Schiff ou Landsteiner. De l’autre côté, un groupe réactionnaire rassemblé autour de l’anthropologue hambourgeois Otto Reche, qui avait fondé en 1926 la Société allemande pour la recherche sur les groupes sanguins.

Aussi étonnant qu’il y paraisse aujourd’hui, ces protagonistes aux antipodes les uns des autres étaient très souvent d’accord sur le plan scientifique. En 1929, par exemple, Landsteiner, qui avait émigré à New York, prit le temps, en visite en Allemagne, de rencontrer l’obscur théoricien des races Reche. Dans une lettre à un collègue, ce fervent nationaliste et futur admirateur d’Hitler oscille sans cesse entre défiance et admiration : « (Landsteiner) est un homme qui fait bonne impression, mince et de grande taille, avec une belle cicatrice sur la joue gauche que lui a laissée un duel ; son type racial n’est pas très prononcé (…). Il a eu quelques très bonnes idées. »

Hitler lui-même se passionnait pour le sujet, tout en puisant ses connaissances à des sources d’un sérieux douteux. Ainsi s’inspira-t-il, pour la loi de 1935 sur la protection du sang et de l’honneur allemands, d’un roman ordurier paru en 1917 : « Le péché contre le sang (3) ».

Dans l’ensemble, cette croyance erronée dans la pureté du sang a, parfois, fait progresser la recherche médicale allemande plus qu’elle ne l’a retardée. Ainsi le pays était-il à la pointe en matière d’hérédité des caractéristiques sanguines. C’est là qu’en 1924, pour la première fois au monde, on eut recours à des analyses de sang dans un procès en paternité. Dès le début du XXe siècle, des enquêteurs allemands réussirent à confondre un tueur en série grâce à un test sanguin. On soupçonnait le compagnon menuisier Ludwig Tessnow d’avoir assassiné quatre enfants. Des taches sur ses vêtements constituaient les seuls indices. Pressé de questions, Tessnow expliqua qu’elles avaient été faites par le bois. Mais les experts, au moyen de ce qu’ils appelaient un « test de précipité sanguin », les identifièrent comme du sang humain. Tessnow fut exécuté en 1904.

Les médecins allemands se montrèrent en revanche très réticents envers la transfusion sanguine, qu’ils considéraient comme une souillure. Cette méthode était pourtant employée avec succès dans les hôpitaux britanniques et américains depuis la fin de la Première Guerre mondiale. Mais, pour la plupart des praticiens, il était impensable de mélanger le sang d’un Allemand avec celui d’un Juif. Même les transfusions entre hommes et femmes étaient suspectes : on craignait que les attributs des unes ne se transmettent aux autres.

Le socle de cette croyance avait été posé par le couple Hirszfeld et son étude des groupes sanguins. Le British Medical Journal avait refusé de la publier, mais le chercheur se consolait en se disant que l’importance de la théorie de la relativité avait elle aussi été d’abord sous-estimée. Finalement, c’est la revue The Lancet qui publia les douteux résultats de l’étude menée à Salonique. Pour Hirszfeld et les autres savants, l’affaire était entendue : les différents groupes sanguins étaient des indicateurs de plus ou moins grande supériorité raciale. Ils étaient aussi persuadés que l’on pouvait en déduire des traits de personnalité.

Pour expliquer l’existence des différents groupes sanguins, Ludwik Hirszfeld développa une théorie que les recherches ultérieures ont invalidée. D’après elle, il existait à l’aube de l’humanité « deux races originelles » – les représentants du groupe A, qui vivaient à l’ouest et au nord, et les représentants du groupe B, installés au sud et à l’est. Les autres types sanguins étaient nés ensuite des mélanges de populations au fil des millénaires. Mélanges perçus comme une catastrophe aussi bien par les scientifiques libéraux que par les nationalistes extrémistes. Que des chercheurs juifs aient ainsi ouvert la voie à un antisémitisme radical s’explique sans trop de peine, selon Spörri : « Ils se voyaient d’abord comme des savants, pas comme des Juifs. » Le groupe B était ainsi unanimement considéré comme un signe de dégénérescence. Le bactériologiste Max Gundel prétendait avoir constaté que ses représentants n’étaient qu’un ramassis d’« êtres inférieurs », parmi lesquels on trouvait un grand nombre « de psychopathes, d’hystériques et d’alcooliques, ainsi que beaucoup d’individus aux cheveux bruns ».

L’origine des groupes sanguins est toujours un mystère. Ce qui est certain, c’est que le groupe O est plus répandu en Amérique et en Afrique. En Asie, on trouve majoritairement des représentants du groupe B, et en Europe, du groupe A. L’une des clés d’explication résiderait dans les qualités particulières à chaque groupe : le type O, par exemple, est moins sensible au paludisme et fut sans doute le résultat d’une mutation évolutionniste du type A accomplie il y a des millions d’années en Afrique. Le type B, quant à lui, est mieux immunisé contre l’agent pathogène de la peste et a pu s’imposer dans les contrées où cette maladie sévissait le plus.

 

Le groupe B, celui des meurtriers

Les groupes sanguins n’ont, en revanche, absolument rien à voir avec de quelconques traits de caractère. Sous la république de Weimar, la justice ne se laissait pas moins influencer par cette croyance erronée ; de nombreux juges accordaient un grand poids, au moment de rendre leur verdict, au groupe sanguin de l’accusé, comme le prouve l’affaire de l’assassinat du jeune Helmut Daube. Son camarade de classe Karl Hussmann fut soupçonné de lui avoir tranché la gorge, puis de lui avoir arraché les organes génitaux. Mais l’accusation n’a pas réussi à prouver sa culpabilité. Et, comme le raconte Spörri, « Hussmann put s’estimer heureux d’appartenir au groupe sanguin O, et non au B. Aux yeux de nombreux médecins, le groupe B était particulièrement répandu chez les meurtriers. »

À la même époque, un docteur de la polyclinique de Munich se hasarda, après une étude approfondie de la défécation, sur une piste tout aussi scabreuse : « La durée de défécation se révèle différente selon le groupe. Ainsi ne requiert-elle que quelques minutes chez les représentants du groupe A, souvent plus longtemps (20-40 minutes), en revanche, chez ceux du groupe B. » Les chercheurs attribuaient une utilisation prolongée des toilettes aux grandes villes de l’Est, comme Berlin ou Leipzig ; et ils se figuraient trouver majoritairement le type A, prisé entre tous, dans la population paysanne de l’Ouest.

Ce dogme hystérique de la pureté eut des conséquences fatales pour le développement des dons de sang. Alors que, dès la fin de la Première Guerre mondiale, des organismes de collecte étaient résolument mis sur pied aux États-Unis, en Grande-Bretagne et en France, l’Allemagne fut distanciée. Et quand il arrivait aux médecins du pays de pratiquer malgré tout des transfusions, ils injectaient du sang frais directement dans les veines des patients par peur des mélanges et des souillures. Les Américains travaillaient depuis longtemps déjà avec du sang qu’on empêchait de coaguler au moyen de citrate de sodium. Pour les malades, cette innovation était une bénédiction, qui éliminait le risque de formation de caillots. Mais le personnel hospitalier allemand considérait le sang ainsi conservé comme un dangereux produit artificiel. Quelques médecins seulement avaient conscience des inconvénients de la méthode. La transfusion sanguine directe obligeait notamment donneur et receveur à être côte à côte sur des civières. « Nous en avons fait plusieurs fois l’expérience : la promiscuité avec un patient moribond suscite une violente réaction de dégoût chez le donneur, qu’accroît encore le stress de la situation », déplorait le chirurgien autrichien Burghard Breitner.

Il fallut attendre la fin de la Seconde Guerre mondiale et l’effondrement du pays pour en finir avec cette obsession de la pureté. La recherche sur les groupes sanguins en Allemagne avait « servi une mauvaise cause », concédait désormais Ludwik Hirszfeld lui-même. Le savant, qui s’éteignit en 1954, fit amende honorable. Il s’est senti obligé, écrit-il dans ses Mémoires, « de s’insurger contre un si mauvais usage de la science ».

 

Cet article est paru dans le Spiegel le 27 mai 2013. Il a été traduit par Baptiste Touverey.
    [post_title] => La pureté du sang, l’invention d’une obsession allemande
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => la-purete-du-sang-linvention-dune-obsession-allemande
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2018-07-06 14:14:43
    [post_modified_gmt] => 2018-07-06 14:14:43
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/la-purete-du-sang-linvention-dune-obsession-allemande/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 13059
    [post_author] => 48457
    [post_date] => 2013-09-26 12:04:06
    [post_date_gmt] => 2013-09-26 12:04:06
    [post_content] => Voici, d’une certaine manière, le portrait d’un tueur en série. De 1578 à 1618, Frantz Schmidt fut le bourreau (et le tortionnaire) municipal de la prospère Nuremberg. Il exécuta à ce titre 394 personnes, et en fouetta, marqua au fer rouge ou mutila plusieurs centaines d’autres. Mais sa vie est aussi une parabole sur l’honneur, le devoir, la quête de sens et la rédemption.

Le système pénal en vigueur en Europe au début du XVIIe siècle était sévère et violent, ne plaisantant pas avec le caractère symbolique et dissuasif du châtiment. Les villes comme Nuremberg avaient besoin de bourreaux professionnels pour faire face à la criminalité endémique en administrant aux yeux de tous peines capitales et supplices corporels. L’idée de condamner les malfaiteurs à de longues périodes de réclusion naîtrait plus tard. Les hommes du XVIe siècle l’auraient sans doute jugée inutilement cruelle. Les méthodes d’exécution allaient de la décollation par l’épée (la plus honorable) à la pendaison (la plus honteuse) ; certaines étaient relativement rapides et indolores, mais d’autres horribles, comme celle consistant à maintenir le condamné au sol et à briser ses membres l’un après l’autre avec une lourde roue de charrette. Ce n’était pas pour autant un monde de violence aveugle : les châtiments infligés par Schmidt étaient calculés avec soin par les autorités de la ville, qui allaient jusqu’à fixer le nombre de « pincements » (morceaux de chair arrachés aux membres avec une pince rougie au feu) que devaient subir les condamnés sur le chemin de la potence.

Nous pouvons aujourd’hui reconstituer ces pratiques épouvantables grâce au journal tenu par Schmidt des décennies durant : non pas un journal intime au sens moderne, mais un compte rendu, généralement laconique et impersonnel, de tous les tourments qu’il infligea, assorti de menues précisions sur les crimes commis par les condamnés. Ce document n’est pas inédit, mais Joel Harrington, en s’appuyant sur une copie presque contemporaine de l’original et jamais utilisée, est le premier historien à exploiter à fond les ressources du texte. En essayant de pénétrer dans l’univers mental de Schmidt, et de peindre un tableau impartial de l’homme et de sa vie. Et c’est une histoire émouvante.

 

Sobre comme un chameau

Tortionnaire et tueur, Schmidt n’en était pas moins un professionnel hautement qualifié, un luthérien fervent et, chose étonnante pour un Allemand du XVIe siècle, sobre comme un chameau. À partir des rares indices disséminés dans les entrées du journal, Harrington dessine la carte mentale des attitudes du bourreau face aux criminels dont il eut à connaître et face aux crimes qui le choquaient le plus, comme la trahison ou les mauvais traitements infligés aux enfants. Schmidt était un homme d’honneur exerçant une profession fondamentalement déshonorante. Dans la société urbaine d’Allemagne, les bourreaux étaient un mal nécessaire : les gens respectables n’entretenaient aucune relation avec eux. C’est tout juste s’ils avaient droit à une sépulture chrétienne. Et pourtant, comme l’écrit Harrington, toute sa vie Schmidt caressa un « audacieux rêve d’ascension sociale » : voir sa famille déclarée honorable et d’autres professions s’ouvrir à ses fils.

C’est en raison d’un terrible revers de fortune familial que Schmidt se retrouva bourreau. En octobre 1553, le prince Albert II Alcibiade de Brandebourg-Kulmbach, personnalité orageuse et impopulaire, soupçonna trois armuriers de la ville de préparer un attentat contre sa personne. Se prévalant d’une ancienne coutume, il ordonna à un passant infortuné de les exécuter sur place. Il s’agissait d’Heinrich, le père de Frantz Schmidt. Souillé par cet acte, il n’eut plus d’autre option que de devenir bourreau. Près de trois quarts de siècle plus tard, après une vie dédiée au service de la cité, son fils présenta avec succès une pétition en justice en vue de voir officiellement rendu son honneur à la famille, et permettre ainsi à ses propres fils d’embrasser la carrière médicale.

Schmidt était un tueur, mais sa véritable vocation était celle de guérisseur. Il prétend avoir soigné plus de quinze mille patients à Nuremberg et dans les environs. Le trait est moins contradictoire qu’il y paraît : les bourreaux étaient souvent aussi médecins, tirant profit de leur exceptionnelle connaissance pratique de l’anatomie humaine.

Un tortionnaire sensible ? Harrington entend bousculer les préjugés moraux du lecteur moderne. Les conseillers municipaux de Nuremberg prenaient les mesures qu’ils jugeaient nécessaires et légitimes pour maintenir l’ordre et la paix civile. En notre époque marquée par la multiplication des « mesures antiterroristes », il n’est pas sûr que nous ayons des leçons de morale à leur donner. Qu’aurait pensé Schmidt, lui qui exécuta une poignée de criminels juifs sans antisémitisme apparent, des camps de la mort ou des autres tentations génocidaires des XXe et XXIe siècles ? Harrington ne mâche d’ailleurs pas ses mots à propos de la complaisante idéologie du progrès qui s’exhibe dans des ouvrages comme celui de Steven Pinker The Better Angels of Our Nature [lire « Un progrès, tout de même ? », Books, n° 38, décembre 2012].

C’est peut-être néanmoins minimiser quelque peu l’importance de l’étalon moral et philosophique qu’est devenue aujourd’hui la peine de mort. Harrington souligne qu’elle reste appliquée dans de nombreux pays, y compris dans des « démocraties libérales autoproclamées telles que les États-Unis et le Japon ». Mais ces deux pays sont en réalité aujourd’hui les seules démocraties qui exécutent leurs citoyens. L’abolition de la peine capitale est une condition nécessaire à l’entrée dans l’Union européenne ; même dans la Russie de Poutine, elle n’est plus pratiquée depuis de nombreuses années.

Ce qui rend difficile le fait d’appréhender l’histoire avec empathie, c’est de voir les hommes d’autrefois penser et agir d’une façon à nos yeux moralement inacceptable, tout en reconnaissant en eux, parfois même en admirant, une conception de la vie moralement cohérente. Harrington nous montre comment faire.

 

Cet article est paru dans la Literary Review en août 2013. Il a été traduit par Arnaud Gancel.
    [post_title] => Une vie sur l’échafaud
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => une-vie-sur-lechafaud-2
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2016-10-11 07:35:51
    [post_modified_gmt] => 2016-10-11 07:35:51
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/une-vie-sur-lechafaud-2/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 13065
    [post_author] => 48457
    [post_date] => 2013-09-26 10:37:45
    [post_date_gmt] => 2013-09-26 10:37:45
    [post_content] => Les origines du freak show remontent aux grandes foires marchandes qui avaient lieu en Angleterre au début de la Renaissance et dont la plus célèbre était la Bartholomew Fair. Presque toutes les bizarreries humaines qui se retrouveront sur les estrades de sideshows [ménagerie humaine] y étaient déjà visibles, moyennant un droit d’entrée. Ces foires contenaient aussi en germe les conventions scéniques qui seront institutionnalisées au XIXe siècle par le freak show américain. Les phénomènes circulaient de foire en foire, isolément les uns des autres, et non au sein d’une troupe. Pendant la morte-saison, ils se donnaient en spectacle dans des tavernes et autres établissements populaires. En 1738, dans la colonie britannique de Caroline, une gazette annonce l’exhibition d’une créature « capturée dans une forêt de Guinée ; il s’agit d’une femelle d’environ 1,20 mètre, en tous points semblable à une femme, à l’exception de sa tête qui est celle d’une guenon ». Bien avant la guerre d’Indépendance, les Américains peuvent donc admirer des spécimens humains, plus tard qualifiés de freaks.

Les « curiosités humaines » du XVIIIe siècle, qui se multiplient sur le sol américain, imitent leurs précurseurs anglais. Le phénomène de foire, généralement seul, est accompagné dans ses tournées par un imprésario, un régisseur ou un bonisseur chargé d’assurer la publicité, de négocier les contrats et de percevoir les droits d’entrée. Certains de ces partenariats profitent autant à l’imprésario qu’à son phénomène ; d’autres, plus inégaux, relèvent de l’exploitation pure et simple. Certains imprésarios font carrière et recrutent toujours de nouvelles curiosités. D’autres sont exclusivement attachés à un freak, parfois leur enfant ou un membre de leur famille. Ensemble, le freak et son imprésario voyagent de ville en ville, en quête de spectateurs. Il leur arrive de côtoyer d’autres forains itinérants mais, dans l’ensemble, ils restent plutôt isolés. Les fédérations qui les accueilleront au XIXe siècle n’existent pas encore.

Tandis que certains forains parcourent les routes pour exhiber leurs freaks, d’autres présentent des « curiosités animales ». Ce sont des échantillons d’espèces inconnues, originaires de contrées lointaines et des régions les plus sauvages de l’Amérique. Un lion est exhibé pour la première fois en 1716 ; un éléphant en 1796. Les Américains devront attendre 1837 pour voir une girafe ou, comme ils l’appellent alors, un « chameau-léopard ». En 1850, le gorille est encore inconnu au bataillon. Au XVIIIe siècle et jusque dans la première moitié du XIXe siècle, phénomènes humains et animaux sont qualifiés indistinctement de « curiosités vivantes ». Éléphants, girafes, orangs-outans et phénomènes humains sont perçus comme des prodiges.

Comment les badauds ne seraient-ils pas restés bouche bée devant ces êtres bizarres, dont les hommes de science, pour la plupart dilettantes, sont eux-mêmes bien en peine de rendre compte ? La plupart de ces créatures, en effet, n’ont pas encore été identifiées par les taxinomistes. L’endocrinologie, la génétique et l’anthropologie n’en sont qu’à leurs balbutiements. Dans un registre qui mêle boniment forain et sciences naturelles, certaines créatures sont qualifiées de kezako (Qu’est-ce que c’est que ça ?) ou de nondescript [indéfinissables]. Les savants polémiquent pour déterminer si tel ou tel phénomène représente une espèce nouvelle ou un lusus naturae, une simple erreur de la nature. Les spectateurs gobent n’importe quelle fadaise à propos de l’origine des bizarreries qu’ils viennent admirer. N’ayant jamais vu une girafe ni un nain, ils sont tout disposés à croire que ces créatures viennent de la Lune ou d’un continent encore vierge.

Au XIXe siècle, et en particulier à l’époque victorienne, les Américains sont fascinés par les « curiosités humaines ». Dès la fin du XVIIIe siècle, le lusus naturae n’est plus considéré comme un être maléfique, produit de la sorcellerie ou fruit du péché : il est jugé digne de faire l’objet d’études scientifiques et taxinomiques, au même titre que n’importe quelle autre créature. La tératologie [l’étude des malformations congénitales] introduit une classification « scientifique » des monstres. Au XIXe siècle, l’étiologie reste toutefois assez sommaire : le discours savant, essentiellement taxinomique, ne s’intéresse pas encore à l’analyse des causes. L’intérêt que manifestent les hommes de science légitime la curiosité du public. Les médecins et les naturalistes, nombreux à visiter les freak shows, alimentent les débats sur la nature et l’origine de ces créatures. En contrepartie, leur statut d’experts dans les polémiques que suscitent les curiosités renforce leur visibilité et leur crédibilité.

Au tournant des XVIIIe et XIXe siècles, les exhibitions humaines se multiplient et se diversifient. Les journaux et les mémoires en proposent des descriptions assez précises. Nous savons ainsi que Henry Moss, Afro-Américain à la peau tachetée de blanc, se donne en spectacle à Philadelphie en 1796, où il fait sensation dans la taverne à l’enseigne du Cheval Noir. Des spectateurs de toutes classes sociales s’y pressent pour le voir, parmi lesquels Benjamin Rush, les médecins Charles Caldwell et Samuel Stanhope Smith et d’autres membres de la Société américaine de philosophie établie à Philadelphie, l’un des plus anciens et prestigieux instituts scientifiques américains. Ces derniers voient en Moss un spécimen susceptible d’élucider certaines des questions scientifiques les plus controversées de l’époque.

Les partisans de la thèse selon laquelle tous les hommes sont issus d’Adam et Ève s’opposent en effet à ceux qui prétendent que chaque race est le produit d’un couple distinct. Le monogénisme postule que tous les peuples ont la même origine mais qu’en s’éparpillant sur la surface du globe, ils ont changé d’apparence en fonction des conditions climatiques et de leur mode de vie. Les habitants des pays tropicaux doivent ainsi la couleur de leur peau au soleil. Le cas de Moss semble étayer cette théorie : si les Noirs ont acquis leur pigmentation à force d’être exposés au soleil, ils redeviendront blancs s’ils sont transplantés dans un climat tempéré. Lors d’une réunion de la Société américaine de philosophie, le docteur Benjamin Rush, partisan du polygénisme, réfute cette hypothèse : selon lui, Moss témoigne plutôt d’une guérison spontanée de la lèpre, maladie qui a noirci la peau des « nègres ».

De Moss, nous connaissons seulement le lieu et la date de l’une de ses exhibitions ponctuelles. L’itinéraire de Martha Ann Honeywell, en revanche, peut être reconstitué sur une plus longue période. En 1798, à l’âge de 7 ans, celle-ci est exhibée dans un muséum new-yorkais : « Dépourvue de membres […], cette enfant peut se nourrir, attraper un verre et le porter à ses lèvres ou réaliser des travaux d’aiguille, pour le plus grand étonnement des spectateurs. » En 1809, accompagnée de sa mère, elle se donne en spectacle à Salem, dans le Massachusetts. De 1828 à 1830, elle se produit au Peale Museum à New York, avant de partir en tournée dans « toutes les grandes villes de l’Union ». Le parcours de Martha Ann Honeywell témoigne d’un changement survenu dans les premières décennies du XIXe siècle. Sa carrière, comme celle de bien d’autres freaks contemporains, est ponctuée par des apparitions dans des établissements qualifiés de musées, qui vont s’imposer comme le principal lieu d’exposition des curiosités humaines au milieu du XIXe siècle. […]

Ces établissements à vocation éducative et scientifique exposent un bric-à-brac de tableaux, animaux naturalisés ou en cage, figures de cire, mécanismes curieux, illusions d’optique et objets de pacotille ramenés par les marins et les explorateurs. Leurs gérants se soucient au moins autant de contribuer à l’avancement de la science que d’encaisser des bénéfices. L’administration de ces musées, voire la subsistance du gérant et de sa famille, est néanmoins tributaire des droits d’entrée et l’intérêt du public pour ces cabinets de curiosités ne suffit pas toujours à remplir la trésorerie.

Dès leurs origines, les musées exhibent également des freaks, au motif que ces spécimens humains présentent un intérêt scientifique. Des phénomènes comme Henry Moss, les Amérindiens ou les indigènes non occidentaux contribuent à la classification des races et à la reconstitution de la grande chaîne des êtres. Les jumeaux siamois, les hommes-troncs et les individus présentant des anomalies congénitales, eux, intéressent la tératologie.

Si les premiers musées donnent à voir des bizarreries humaines (albinos, nains, individus pourvus de membres surnuméraires, manchots et culs-de-jatte, siamois, femmes à barbe, hommes tatoués, Amérindiens et autres indigènes), celles-ci ne sont pas l’attraction principale. Dans l’établissement qu’il fonde à Philadelphie en 1786, Charles William Peale montre des « curiosités humaines » dont il estime cependant qu’elles suscitent un intérêt bien trop futile. À ses yeux, les véritables objets de la science sont les spécimens récurrents, et non les exceptions. Il semblerait que le public ne partage pas l’avis de Peale et d’autres hommes de science : les freaks, les saltimbanques et les flonflons attirent davantage de spectateurs que les vitrines d’oiseaux empaillés et de camelote exotique.

Dans la première moitié du XIXe siècle, la morale chrétienne réprouve le théâtre et d’autres formes de divertissement. Il est recommandé d’assister plutôt à des conférences scientifiques et de s’adonner à des activités édifiantes. Dans certaines villes, les théâtres sont même interdits. Or, pour un public avide de sensations fortes, le musée est prétexte au « divertissement rationnel » : on s’y instruit en s’amusant. Spectacle de variétés, opérette, freaks et autres attractions vont progressivement se hisser en haut de l’affiche. Les premiers musées sont équipés d’amphithéâtres où l’on peut venir écouter des savants et admirer des freaks, mais l’estrade du conférencier se transforme bientôt en scène musicale et théâtrale. Vers le milieu du XIXe siècle, comédiens et saltimbanques investissent ces grands hémicycles, tandis que les cabinets de curiosités sont relégués dans l’antichambre du musée.

Les freaks qui se produisaient encore indépendamment, au gré des salles de location, vont finir par rallier ces musées. Cette intégration marque un tournant décisif. Les phénomènes de foire menaient jusqu’alors une existence vagabonde et précaire. Tant qu’ils étaient isolés les uns des autres, il ne pouvait se développer une communauté ou une culture du freak show. En s’attachant à des musées, puis à des cirques, les freaks rejoignent une industrie du divertissement en plein essor. Ils forment une communauté en marge de la société. Au sein du musée, le freak show prend son autonomie et acquiert le statut d’institution à une époque où les États-Unis s’urbanisent. […]

Les années 1850 voient se multiplier les muséums et les entresorts, baraques foraines où l’on entre et d’où l’on sort rapidement après avoir vu les phénomènes qui y sont exhibés. Ces établissements se livrent une concurrence redoutable. À l’ère des progrès scientifiques et du populisme, les bonimenteurs n’hésitent pas à recourir aux demi-vérités, voire aux mensonges éhontés. […] En l’occurrence, le roi du bluff n’est autre que Phineas T. Barnum.

[…] Il est le premier à faire du musée un lieu de divertissement à part entière. À son instigation, les cabinets de curiosités se reconvertiront en dime museums, musées à dix cents respectables. Ses méthodes novatrices lui vaudront d’être salué comme le « père de la publicité moderne ».

En 1841, Barnum rachète l’American Museum, alors en faillite, à l’angle de Broadway et d’Ann Street, en plein cœur de Manhattan. […] Il va en faire un haut lieu de divertissement, où les familles viennent pique-niquer et passer la journée. Pour attirer la clientèle, il présente des bizarreries humaines et des spectacles toujours plus originaux. Il recrute des gitans, des albinos, des obèses, des géants, des nains et des Amérindiens, lance des campagnes tapageuses et invente des histoires abracadabrantes. Il fait recouvrir la façade de grands calicots publicitaires et installe une fanfare sur le trottoir. Autant de stratégies qui deviendront pratique courante dans l’industrie du freak show.

L’American Museum est un succès. En 1850, c’est la plus prisée des attractions new-yorkaises. Au prétexte de s’instruire en s’amusant, les clients se pressent dans son amphithéâtre de trois mille places pour assister à des expériences parascientifiques, des spectacles de magie, des conférences, des ballets et des pièces de théâtre. Au programme de 1860 figurent treize phénomènes humains, dont les Lucasie, famille d’albinos ; « les derniers Aztèques » Maximo et Bartola ; trois lilliputiens ; une « négresse et ses deux enfants albinos » ; « la femme à barbe suisse » ; « les obèses des Highlands » […].

Tout au long du XIXe siècle, le freak show est considéré comme un spectacle tout à fait fréquentable, même dans les classes supérieures. Les seuls à s’en indigner sont les bigots mais, à leurs yeux, tout divertissement est par définition immoral. Les mentalités vont pourtant évoluer. Dès le début du XXe siècle, l’exploitation du handicap physique ou mental est remise en cause.

Dans les années 1900, les lois de la génétique formulées par Mendel sont appliquées à la physiologie humaine. Ce que le botaniste autrichien avait constaté sur des plants de petits pois vaut aussi pour l’homme : la couleur et la texture des cheveux, ainsi que certaines anomalies comme des orteils ou des doigts surnuméraires, sont des caractères héréditaires. Cette découverte est contemporaine de l’eugénisme, forme perverse de darwinisme social : dans une société moderne qui protège les plus faibles, le principe de survie du plus fort est compromis. Laissés en liberté, les avortons, les infirmes et les fous risquent de supplanter les races supérieures. Pour éviter que les handicapés ne transmettent leurs tares aux générations suivantes, on préconise un « eugénisme négatif » : prophylaxie, stérilisation et enfermement sont censés empêcher les porteurs de gènes défaillants de se reproduire. Le mouvement eugéniste diffuse la thèse selon laquelle les handicapés mentaux et physiques, loin d’être inoffensifs, représentent véritablement une menace. Ils seront ainsi mis à l’écart dans des asiles financés par l’État et gérés par des médecins.

Certaines anomalies sont imputées aux gènes mais les progrès de la médecine font bientôt apparaître d’autres facteurs, comme les glandes endocrines, responsables de la sécrétion des hormones de croissance et des hormones sexuelles. L’invention des rayons X permet d’étudier plus précisément la physiologie de la difformité. Dans le même temps, l’exploration des continents lointains amène les Américains à se familiariser avec les différents peuples du monde et à renoncer aux légendaires ethnies de colosses, de pygmées et d’hommes-singes. Les progrès de la médecine invalident les notions de « curiosité humaine » et de lusus naturae. […] Les différences deviennent des pathologies. L’eugénisme et la médicalisation de la différence ne sont pas sans conséquence pour le freak show. Au début du XXe siècle, ces mutations sociales, politiques et médicales vont en effet précipiter son déclin.

Les premiers signes se manifestent en 1908. […] Un article paru dans la prestigieuse revue Scientific American Supplement met le feu aux poudres. À la différence des médecins qui portaient jusqu’alors sur les freaks un regard neutre, l’auteur émet un jugement de valeur : « La plupart de ces malheureux, qui n’ont d’autre moyen de subsistance que de donner leur infirmité en spectacle à une foule de curieux, sont des raretés pathologiques […]. Les Américains ont désormais le bon goût de critiquer ce genre d’exhibition. »

Si l’opinion exprimée ici n’est pas encore majoritaire, elle constitue la première attaque du corps médical contre le freak show. Loin des « curiosités » et des lusus naturae que l’on voyait jadis en eux, les freaks sont qualifiés de « malheureux » et de « raretés pathologiques ». Ce sont des infirmes et, à ce titre, ils méritent notre compassion. Il ne faut pas les traiter comme des phénomènes de foire, mais comme des malades que seuls les cliniciens sont habilités à ausculter. Le verdict du Scientific American Supplement est péremptoire : les freaks ne doivent plus être exposés aux regards des curieux. Ils relèvent de l’autorité médicale, comme en témoigne le jargon scientifique : Bass, l’homme-squelette, est atteint de polyarthrite rhumatoïde ; l’homme à la peau élastique souffre de dermopathie ; l’homme à tête de chien, d’hypertrichose ; Chang, le géant chinois, d’acromégalie ; les « sauvages de Bornéo » sont diagnostiqués comme des cas d’idiotie microcéphalique. […]

En avril 1914, les montreurs de freaks tentent de reconquérir l’ordre des médecins. Alors que le Barnum & Bailey Circus s’apprête à ouvrir la saison à New York, la direction invite plusieurs membres de l’Institut de médecine et de chirurgie à visiter le freak show en avant-première. Mais, quand ces éminents médecins et leurs internes se présentent au rendez-vous, ils ont la mauvaise surprise de découvrir que les journalistes eux aussi ont été convoqués, pour rendre compte de la visite médicale et promouvoir le spectacle. Offusqués, ils refusent de se laisser instrumentaliser et s’en vont. Certains journalistes raillent leur défection. Le New York Herald du 17 avril 1914 rapporte ainsi les propos du « squelette vivant » : « De toute façon, ils n’auraient pas pu m’apprendre grand-chose sur ma maladie. Moi, je la trouve très lucrative, je me sens parfaitement à mon aise et je ne dépense pas grand-chose en nourriture. Il m’arrive de dîner d’une seule olive. » L’incident n’est pourtant pas anodin : […] la communauté scientifique respectable se désolidarise désormais du freak show.

En 1922, la presse explique les pathologies dont sont affligés les phénomènes de cirque en les imputant à des dysfonctionnements hypophysaires et thyroïdiens. Dix ans plus tard, la médicalisation du handicap est tellement ancrée dans la culture populaire que le film de Tod Browning, dont les acteurs sont des freaks célèbres, commence par signaler que ces déviations anatomiques sont progressivement éradiquées par la médecine moderne. Un chroniqueur du New York Times se demande même « si ce film ne mérite pas d’être projeté dans une clinique plutôt qu’un cinéma ». À la fin des années 1930, les handicapés physiques et mentaux ne sont plus perçus comme des curiosités, mais bien comme des infirmes. […]

Le déclin du freak show peut également s’expliquer par l’apparition de formes concurrentes de divertissement ou, tout simplement, par une pénurie de freaks : la médecine est désormais tellement efficace qu’il n’en reste plus assez pour alimenter la chaîne de production. Mais, si l’on manque de freaks, ce n’est sans doute pas tant en raison de leur guérison que de leur enfermement dans des asiles ou de leur propre désintérêt pour une carrière dans le show business. […]

En 1940, le freak show est moribond. La mise en scène d’individus présentant des anomalies physiques, mentales et comportementales n’est plus aussi lucrative ni même amusante. Les musées à dix cents, qui avaient inauguré et perpétué l’exhibition des freaks, ont disparu. Le cirque, le parc d’attractions et la fête foraine existent encore, mais ils ont été affaiblis par la Grande Dépression, discrédités par leurs propres pratiques et concurrencés par d’autres formes de divertissement. Les sideshows en sont progressivement supprimés. À son apogée, le freak show était le clou du spectacle ; à partir de 1940, il n’attire plus grand monde et les gens respectables s’en détournent. Jadis présenté comme un divertissement éducatif, il est en faillite morale.

 

Ce texte est tiré de La Fabrique des monstres, à paraître le 17 octobre aux éditions Alma. Il a été traduit par Myriam Dennehy.
    [post_title] => Les années freak
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => les-annees-freak
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2016-01-22 17:23:42
    [post_modified_gmt] => 2016-01-22 17:23:42
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/les-annees-freak/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 14934
    [post_author] => 48457
    [post_date] => 2013-04-25 16:10:27
    [post_date_gmt] => 2013-04-25 16:10:27
    [post_content] => Les Anglo-Saxons, que l’on se gardera bien de détromper, croient mordicus que la France est le royaume de l’amour. La langue anglaise porte d’ailleurs la trace de cette conviction : « Nous autres anglophones, écrit Renate Stendhal (sic) dans la Los Angeles Review of Books, nous nous tournons volontiers vers le français pour exprimer les choses de l’amour. Pour les baisers avec la langue, “French kiss” ; et pour l’intimité façon française nous utilisons “rendez-vous”, “tête-à-tête”, “ménage à trois”, etc. »

L’universitaire Marilyn Yalom a soulevé la couette pour surprendre les secrets de cette flatteuse réputation. Mais cette octogénaire proprette ne peut être taxée de voyeurisme : l’amour qu’elle examine, les yeux écarquillés, c’est celui que dépeint notre littérature. Elle puise dans ce riche matériau de quoi étayer toutes ses théories. À commencer par celle-ci : « Quelque chose de nouveau dans l’histoire de l’amour est apparu en France vers 1100, une explosion culturelle proclamant le droit des amants à donner libre cours à leur passion, en dépit des objections de la société et de la religion. » Le point de départ, pour l’auteure, c’est la triste histoire d’Héloïse et Abélard, qui fixe d’emblée quelques archétypes français: une affaire où cœur et sens se mêlent ; une histoire tragique (non seulement Abélard se fait castrer par l’oncle de sa maîtresse, mais une fois purgé de ses hormones viriles, il laisse son amante dépérir au fond d’un couvent) ; et le tout produit de la littérature (notamment les lettres où Héloïse donne libre cours à sa frustration sentimentale et autres « même pendant la sainte messe, quand nos prières doivent être les plus pures… »).

Car, en France, la littérature, les mots, et l’amour ont toujours eu partie liée. « Les Français aiment parler d’amour (voir Phèdre, qui, une fois lancée, devient intarissable) », alors que « les Américains sont gênés par le sujet », écrit encore Marilyn Yalom. Qui plus est, « en France, la conversation est aussi essentielle aux sentiments que l’attirance physique » (Cyrano !). Mais la relation amour-mots va dans les deux sens : c’est parce qu’en France l’amour se dit et s’écrit autant qu’il se fait, que le roman sentimental a prospéré, enflammant à son tour lecteurs et surtout lectrices (Madame Bovary). Les économistes parleraient de « boucle de rétroaction » !

Dans la littérature du moins, on ne s’intéresse en France qu’à une seule forme de sentiment : la passion bien sûr, avec tous ses accessoires. Parmi ceux-ci : la différence de condition (bergères/ princes) et surtout d’âge – laquelle joue, note Marilyn Yalom, surtout à l’avantage des femmes : « Les romans français présentent relativement peu d’exemples de passion d’un homme âgé pour une jeunette. À l’inverse, le thème du jeune homme amoureux d’une femme plus âgée est presque un lieu commun. » Les femmes sont d’ailleurs au centre du dispositif : dès le Moyen Âge, ce sont elles qui mènent le jeu de l’amour, en édictent les règles, en sont les pièces maîtresses. Les grandes amantes littéraires semblent toutes bâties sur le modèle de George Sand, qui écrivait d’un de ses galants : « Ne mérite-t-il pas que je l’aime avec passion ? N’ai-je pas raison de tout lui sacrifier, fortune, réputation, enfants ? » (Dans cet ordre !)

Quant au combustible de l’amour à la française, c’est, sans surprise, le sexe. « Yalom souligne combien la culture du pays intègre sans ambages le plaisir sexuel, alors que pour nous autres Anglo-Saxons, c’est si difficile », lit-on par exemple dans Kirkus Review. « C’est un trait fondamental de l’amour à la française, ajoute Renate Stendhal : les Français acceptent le postulat que la passion charnelle se justifie en elle-même. » L’exemple vient peut-être d’en haut, des rois polygames aux présidents fripons. Et de citer un sondage : quand on leur demande si « l’amour véritable peut exister sans une vie sexuelle épanouie », 83 % des Américains d’un certain âge répondent oui, contre seulement 34 % des Français.

Hélas, la littérature, qui a jadis tant fait pour l’amour (et vice versa), préfère depuis un siècle le dénigrer, des naturalistes du XIXe siècle à Virginie Despentes, en passant par le « nihilisme amoureux » de Michel Houellebecq. C’est le cinéma qui a pris le relais. Ou Internet, lequel a changé la règle du jeu : plutôt que d’idéaliser l’être aimé, on va chercher l’être idéal sur un site. En tout cas, regrette Marilyn Yalom, « les Français traversent aujourd’hui vis-à-vis de l’amour une phase de cynisme ».
    [post_title] => L’amour, une exception française
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => lamour-une-exception-francaise-2
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2016-07-14 19:48:02
    [post_modified_gmt] => 2016-07-14 19:48:02
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/lamour-une-exception-francaise-2/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 14945
    [post_author] => 48457
    [post_date] => 2013-04-25 14:52:30
    [post_date_gmt] => 2013-04-25 14:52:30
    [post_content] => « L’histoire du Canada est l’histoire de ses rapports avec les nations amérindiennes », affirme l’écrivain ojibwé Richard Wagamese dans The Globe and Mail à l’occasion de la parution de The Inconvenient Indian. « Bien que l’histoire officielle commence avec la “découverte”, se poursuive avec les vaillants “explorateurs” et l’idée des “deux nations fondatrices” anglaise et française, la véritable histoire de ce pays commence avec les peuples autochtones, poursuit Wagamese. En 1492, les indigènes ont découvert Christophe Colomb. Voilà la pure et simple vérité. Depuis, le passé du continent a été raconté à travers les yeux du colon. » Le romancier et animateur de télévision Thomas King – d’origine cherokee – a donc décidé de réviser le récit canonique. En rappelant les falsifications dont il est fait. Ainsi, le village d’Alma, dans l’Idaho, a beau être célèbre pour le massacre de 295 pionniers par les Indiens en 1861, celui-ci n’a jamais eu lieu. C’est l’une des nombreuses anecdotes qui permettent à l’auteur de dénoncer la façon dont les peuples indigènes ont été effacés de la conscience nationale.
    [post_title] => L’histoire vue par les Indiens
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => lhistoire-vue-par-les-indiens
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2016-04-05 09:22:16
    [post_modified_gmt] => 2016-04-05 09:22:16
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/lhistoire-vue-par-les-indiens/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 13222
    [post_author] => 48457
    [post_date] => 2013-03-28 13:04:07
    [post_date_gmt] => 2013-03-28 13:04:07
    [post_content] => C’est seulement à l’approche de la quarantaine que je fus frappée par l’étrangeté de l’image mentale que j’ai conservée du salon de mon enfance : un fauteuil, mon père assis dedans, cheveux argentés, moustache, bottines en daim marron, et moi, âgée d’environ 6 ans, sur ses genoux. La disposition générale est juste – je suis retournée dans l’immeuble et je me suis assise dans le séjour de l’appartement voisin, au plan identique. La porte est au bon endroit, le fauteuil est exactement tel quel, j’en suis sûre, avec son tissu bordeaux ; le tapis à motifs ; les fenêtres donnant sur le mur de brique des bureaux d’en face. Mon père ressemble à mon père sur les photos que j’ai de lui. Je ressemble… eh bien, en réalité, je n’ai aucune photo de moi à cet âge-là. Mais je suis certaine que je ressemblais tout à fait au souvenir que je convoque à volonté. Ce n’est pas une réminiscence particulièrement intéressante. Il ne se passe rien de spécial. Ce pourrait être une peinture, ou une photographie, si ce n’est que je remue comme une enfant sur les genoux de son père. Mais voilà : le problème, c’est que je peux visualiser la scène entière. Comme vous l’avez peut-être remarqué, je me vois moi-même. Mon point d’observation se situe en haut du mur face auquel nous sommes assis, juste en dessous du plafond, et je regarde vers le bas, mon père et moi dans le fauteuil. Je me vois nettement, mais je suis incapable de me mettre sur les genoux de mon père pour devenir partie intégrante de la scène, bien que j’y figure. Je ne peux pas, en d’autres termes, contempler la pièce depuis ma place sur le fauteuil. Comment peut-il s’agir d’un souvenir ? Et si ce n’en est pas un, qu’est-ce que c’est ? Quand je pense à mon enfance, c’est invariablement l’un des premiers « souvenirs » qui remontent, tout prêts : une image qui bouge à peine, sans rien de traumatisant. Jusqu’à l’âge mûr, il ne m’était jamais venu à l’esprit de remarquer l’anomalie du point de vue. Il allait de soi que c’était une « vraie » réminiscence. Depuis, c’est devenu le signe du caractère souvent trompeur de notre mémoire.

La mémoire, ce souci constant. Cette chose dont nous sommes sûrs qu’elle fait de nous ce que nous sommes (sans elle, pas de moi) est aussi, nous le savons, traîtresse, trop obligeante, fugitive : délicieusement et terriblement indigne de confiance. Nous sommes mentalement prisonniers de nos réminiscences (ou de vieilles photos, et maintenant de vidéos, devenues des souvenirs) et il est impossible d’être absolument certains que nous savons ce que nous croyons savoir, ou que nous sommes ce que nous croyons être, sauf en nous fiant parfois aux souvenirs des autres, eux aussi selon toute vraisemblance sujets à caution. Cette inquiétude sur la justesse de la compréhension que nous avons de notre moi passé explique pourquoi bien d’autres aspects alarmants de l’existence ont été reliés au problème de la mémoire ; le thème change et connaît des cycles au fil du temps (droit, guerre, politique, médecine, famille, sexualité), mais sert toujours à nous rappeler qu’il faut se soucier des effets de cette réalité : nous ne sommes jamais tout à fait sûrs de ce dont nous nous souvenons, et de ce dont les autres se souviennent. Les hommes ont consacré à cette question toutes les compétences dont ils disposent ou qu’ils s’inventent. Aux chamans, aux voyants, aux hypnotiseurs, aux historiens, aux scientifiques, aux médecins, aux juristes, aux artistes et aux écrivains, aux psychosociologues et aux psychanalystes, nous avons demandé d’étudier la vérité, les faits, les interprétations, pour nous rassurer sur le mécanisme et la fiabilité de nos souvenirs. Mais, comme le conclut l’habile ouvrage qu’Alison Winter consacre aux controverses du XXe siècle sur la mémoire, nous ne sommes parvenus à aucune réponse définitive.

Pourtant il existe, en parallèle à l’inquiétude que nous inspire la crédibilité du souvenir, une force contraire et tout aussi puissante, qui nous incline à cette impression pleine de bon sens : nous pouvons tous connaître nos propres réminiscences et nous y fier ; chacun connaît son propre esprit. Quand ils surgissent, nos souvenirs semblent fiables. Quoi que fassent les scientifiques et autres experts dans leur laboratoire, leur bibliothèque ou leur cabinet, nous vivons tous, au quotidien – y compris lesdits experts en dehors de leurs heures de service –, comme si nos souvenirs personnels étaient une base valide pour agir et interagir, de même que les physiciens continuent à marcher sur le sol tout en sachant qu’il est dans une large mesure constitué de vide. Nous serions fous de ne pas le faire. Derrière le sentiment irréfutable d’être nos souvenirs se cache cette autre hypothèse de bon sens : toute notre vie est conservée avec précision quelque part dans la « banque » du cerveau, comme autant d’éléments accumulés avec l’expérience, et nous pouvons récupérer notre existence et notre moi dans le stock toujours croissant de nos réminiscences. Parfois nous n’y parvenons pas, nous avons l’impression d’avoir un mot sur le bout de la langue, une notion qui échappe de peu à notre appréhension, mais ce sentiment nous encourage encore à penser que tout ce que nous avons su ou fait est quelque part en nous, et que seuls nous manquent les outils appropriés pour les déterrer. L’erreur ne se produit pas lors de l’enregistrement, mais à la réécoute. Quand j’étais enfant, cela ne faisait pour moi aucun doute. J’avais dans la tempe gauche la pierre de la mémoire, petite, rouge foncé, et quand on me posait une question à l’école, elle se déplaçait lentement, régulièrement, d’un côté de mon front à l’autre. Avant qu’elle atteigne le milieu, je cherchais la réponse, sachant qu’elle était dans mon esprit, disponible ; mais une fois que la pierre franchissait la ligne centrale entre mes yeux, je cessais de m’inquiéter : je savais que j’ignorais la réponse ; elle n’était « pas là », tout simplement. J’imaginais que tout le monde déterminait ainsi ce qu’il savait ou ne savait pas. Rétrospectivement, je me rends compte que ce système d’archivage et de classement avait hélas disparu quand j’arrivai au collège. Je me rappelle avec nostalgie cette pierre de la mémoire ; de nos jours, c’est l’inefficacité de ma machine cérébrale qui me préoccupe.

Sous le rire, la panique

Il est très difficile de ne pas éprouver l’érosion de la mémoire, liée au vieillissement ordinaire, comme une diminution de la personne qu’on était jadis. Chaque fois qu’on me hèle dans un magasin parce que j’ai oublié mon porte-monnaie, ou oublié de payer, chaque fois que je suis incapable de me rappeler que Machin était marié à Carole Lombard et, de plus en plus, que Machin, mais si, vous savez, celui qui jouait… euh… Rhett Butler… qui était marié à Chose… qui commence par un L ou par un H… j’ai l’impression que je ne suis plus celle que j’étais, que je ne suis plus tout à fait moi-même, ou que je laisse de plus en plus loin en arrière celle que j’étais. L’enjeu, c’est moins la perte de l’information (Carole Lombard était mariée à Clark Gable) que la disparition du moi qui la connaissait. Ceux qui sont plus vieux que jeunes font des plaisanteries qui exagèrent l’impatience et l’auto-dénigrement qui les saisissent lorsqu’ils oublient un nom, un visage ou la raison pour laquelle ils sont allés dans une pièce (selon une étude récente menée à l’université Notre-Dame, c’est peut-être le fait de franchir une porte qui disloque la pensée que l’on avait en tête un instant auparavant… mais je viens d’oublier la fin de cette phrase alors que je n’ai pas bougé, que je ne suis même pas sortie de la pièce). Comme le suggère le rire nerveux qui nous prend quand nous avouons un trou de mémoire, nous savons très bien que la fréquence croissante du phénomène signifie bien plus qu’un irritant moment de blocage. C’est le début « normal » et terrifiant de la perte de nous-mêmes. Sous le rire, la panique totale.

Nos deux convictions contradictoires (la mémoire est fiable, gravée dans la bibliothèque de notre cerveau – la mémoire n’est pas fiable, sujette à toutes sortes d’influences physiques et culturelles) sont les courants contraires qui structurent le livre de Winter sur un siècle de recherches. L’appréhension populaire du fonctionnement de la mémoire se reflète en effet dans deux théories rivales. La mémoire est authentique, répertoire neuronal de chaque expérience, parfaitement préservé dans le cerveau ; ou la mémoire est reconstruite, mélange dynamique d’expériences passées enregistrées et continuellement réagencées en fonction des événements passés et de l’information présente, reformatée pour donner sens au contexte culturel et personnel et aux normes cognitives du moment.

Dans les années 1950, le neurochirurgien Wilder Penfield, traitant des épileptiques à Montréal, a prouvé à sa grande satisfaction que les souvenirs sont des traces individuelles en sommeil, fidèles à la manière d’une séquence filmée d’événements, dont chacun pouvait être amené à la conscience en stimulant une zone particulière du cerveau. Les patients opérés par Penfield, sous anesthésie locale, restaient éveillés et capables de se remémorer des chansons entières (pas simplement des bribes, mais le refrain et les couplets), ou de revivre des incidents de leur vie passée, selon la partie du cortex temporal que le chirurgien activait avec son électrode. Il pouvait revenir au même groupe de neurones et susciter à volonté la même chanson, la même expérience. De plus, un laps de temps mesurable s’écoulait entre la stimulation des neurones et le retour du souvenir à la conscience : le bibliothécaire va chercher le livre entreposé en magasin et le transmet, à la demande du lecteur (1).

Une vie entière de faux souvenirs

En 1913, au Laboratoire de psychologie de Cambridge, Frederic Bartlett avait défendu la vision opposée : la mémoire est un schéma, tracé par l’expérience mais étoffé par pléthore de circonstances sociales, psychologiques et culturelles. Il conçut des tests, en demandant à des membres du public d’observer des formes géométriques, des images et des visages, puis de s’en souvenir. Il découvrit que les gens donnaient à la fois aux stimuli abstraits et figuratifs des noms, des significations et des histoires en fonction de leurs besoins sociaux et personnels, de leurs désirs et de leur compréhension, et que ces associations d’idées déterminaient ce qu’ils se rappelaient et comment. Il en conclut que nous reconstruisons nos souvenirs chaque fois que nous y pensons. Les théories rivales de Penfield et de Bartlett reflétaient des positions défendues depuis déjà bien longtemps, et auxquelles font encore référence les neuroscientifiques d’aujourd’hui.

La fiction prête un intérêt profane, et opportunément cavalier, aux arguments les plus fascinants de la science ; les dangers de la mémoire et de l’oubli sont des ingrédients de base de la science-fiction. Les terreurs liées à l’identité sont exploitées dans les romans et nouvelles de Philip K. Dick (Les androïdes rêvent-ils de moutons électriques ?, Souvenirs à vendre) et dans les films qui s’en sont inspirés (Blade Runner, Total Recall). Comme encore le film de Charlie Kaufman Eternal Sunshine of the Spotless Mind (2), ce sont des hymnes à l’humanité des humains conçue comme l’accumulation de leur vécu. Chez Philip K. Dick, les androïdes reçoivent une vie entière de faux souvenirs pour les convaincre qu’ils sont humains, tandis que l’esprit de Jim Carrey, dans Eternal Sunshine, finit par se révolter contre l’idée de supprimer les émotions associées à une ancienne et douloureuse histoire d’amour. Nous aimons penser que nous sommes nos souffrances et nos bonheurs, que l’expérience et le souvenir que nous en avons comme événements et comme émotions, que la manière dont nous nous les approprions forment notre personnalité morale. Winter évoque le Conseil de bioéthique réuni par George W. Bush durant son premier mandat, dont le champ d’action incluait la recherche sur les cellules souches, mais aussi sur les nouvelles possibilités d’effacement de la mémoire : « Supprimer sélectivement des souvenirs pourrait “déconnecter les gens de la réalité ou de leur vraie personnalité”, avertissait le Conseil. Sans donner de définition du “moi”, il proposait des exemples de la façon dont ces techniques pouvaient nous pervertir en “falsifiant notre perception et notre compréhension du monde”. La technique potentielle “risque de faire paraître les actes honteux moins honteux et les actes terribles moins terribles qu’ils ne sont vraiment”. »

Le droit est obsédé par la mémoire autant que la science et la fiction. La déposition des témoins est au cœur des procès. Mais, même à supposer que les gens veuillent dire la vérité, comment croire à leurs souvenirs, et, dès lors, à qui se fier pour accréditer la véracité ou la faillibilité de la mémoire ? De nombreux romans policiers décrivent les procédures permettant de découvrir ce que les suspects cachent, ou de les conduire à l’aveu. Mais l’éventualité que les gens ignorent la vérité est plus dérangeante pour l’idée de justice : les témoins, les victimes et même les criminels ne se rappellent pas bien, ou se rappellent selon des critères sans lien avec ce qui s’est réellement passé. Winter ouvre son livre sur l’histoire d’un jeune homme, Richard Ivens, qui, en 1906, à la suite d’un interrogatoire intense et peut-être d’un recours à l’hypnose, en était venu à croire – c’est-à-dire, à se souvenir – qu’il avait assassiné une femme dont il avait retrouvé le corps, crime qu’il nia ensuite mais pour lequel il fut exécuté. Son cas fut examiné par deux psychologues de Harvard, Hugo Münsterberg et William James, perturbés non seulement par l’idée que les aveux d’Ivens étaient peut-être mensongers mais aussi par le processus mental qui l’avait amené à se souvenir semble-t-il authentiquement et en détail de l’exécution du meurtre. Les systèmes judiciaires reposent sur l’hypothèse que quelqu’un connaît tout ou partie de la vérité, quelqu’un d’autre jugeant si cette vérité a été dite. Les témoins se rappellent souvent mal les événements et, déjà au début du siècle dernier, ces éminents psychologues pensaient que l’accusé, lui aussi, pouvait être manipulé au point de s’inventer des souvenirs. Les jurés écoutent les dépositions, mais en réalité ils doivent arbitrer entre des experts ayant des opinions divergentes sur l’exactitude des témoignages.

Au milieu du XXe siècle, la science s’efforça d’élaborer des techniques pour dénicher la vérité censément enfouie dans des cerveaux qui ne voulaient ou ne pouvaient y accéder. La justice ne serait pas la seule à bénéficier de l’élixir magique appelé « sérum de vérité » – bromhydrate de scopolamine, amytal de sodium et penthotal. L’armée tenta d’arracher des secrets aux prisonniers ennemis ; et les psychothérapeutes, soucieux d’apaiser les souffrances des soldats traumatisés au front ou de remettre les hommes d’aplomb pour combattre, se jetèrent sur ces substances en les combinant aux techniques de lavage de cerveau ou d’abréaction (3). Un demi-sommeil provoqué par un somnifère était perçu comme un état inoffensif, qui devait libérer les souvenirs refoulés que le patient serait incapable de maîtriser. On soutirait toute la vérité à un ennemi ou à un criminel ; quant aux victimes de blessures psychiques, elles revivaient leurs terribles expériences, sans plus s’en dissocier, et semblaient s’en porter mieux. Je suppose que si un tel sérum fonctionnait vraiment, si une substance permettait de récupérer des souvenirs très précis, d’en parler et de revivre ces expériences, le monde serait un paradis de paix et d’harmonie. À moins qu’il ne se révèle un tel enfer que les laboratoires pharmaceutiques s’empresseraient de trouver un sérum de non-vérité pour nous rendre la félicité du mensonge et de l’oubli.

Un système de protection inefficace

La psychanalyse, qui voyait dans le recouvrement de l’expérience refoulée la voie royale vers la maturité, a fourni l’une des bases les plus solides à l’idée que la vérité remémorée guérit. Elle aussi présumait que tout était accessible mais qu’en chassant le désagréable, l’inconscient n’agissait pas dans l’intérêt de l’organisme. C’était un système de protection bien intentionné mais inefficace, qui finissait tôt ou tard par se retourner contre soi. Libérer les mauvais souvenirs « oubliés » et les affronter, estimait Freud, nous délivrerait d’une vie passée à répéter les conséquences d’un traumatisme précoce et nous permettrait de mener une existence vraiment réfléchie et indépendante. Dans les années 1980 et 1990, cette proposition séduisante engendra d’affreuses conséquences. L’idée que nous possédons mais refoulons les souvenirs trop difficiles à supporter et qu’il serait bénéfique de les affronter, conjuguée à une grande confusion sur les théories de Freud relatives à l’inceste réel ou fantasmatique subi par ses patients, conduisit un groupe de psychologues et de travailleurs sociaux exaltés à partir en croisade pour libérer les femmes des horreurs des abus sexuels dont elles avaient été presque inévitablement victimes dans l’enfance. En voyant la facilité avec laquelle le « souvenir retrouvé » (d’avoir été violées par leur père ou soumises aux mauvais traitements de parents et de voisins) était prêt à surgir de sa cachette dans l’inconscient, moyennant une petite suggestion enthousiaste et un peu de sympathie, on s’étonne que quiconque ait pu conserver la moindre foi en la puissance répressive de l’inconscient. L’inceste est une réalité, et se produit sans doute plus souvent qu’on n’aime à le croire, mais, à cette époque, tant de femmes ont déterré le souvenir d’abus sexuels que l’American Medical Association a fini par déclarer, après l’explosion des affaires déférées en justice à la fois par les parents et par les enfants dans les années 1990, que « les souvenirs retrouvés étaient “d’une authenticité incertaine” et nécessitaient “une vérification externe” », rappelle Winter. Et l’American Psychiatric Association fit valoir qu’il était « impossible de distinguer entre faux et vrais souvenirs ».

Cette image que j’ai de moi-même enfant, remuant sur les genoux de mon père, n’a pas de contexte. Ce serait un moyen parfait pour un psychothérapeute soucieux d’affirmer l’omniprésence des abus sexuels sur enfants : il y verrait un souvenir écran. En décrivant la scène, j’imaginais que l’esprit du lecteur s’orientait vers une révélation. J’ai moi-même senti le poids de cette attente, en écrivant « je remue comme une enfant sur les genoux de son père ». Si j’écrivais un roman ou une autobiographie, ce serait sans doute le prologue d’un souvenir d’abus sexuel. Le mouvement du souvenir retrouvé a peut-être été remplacé par l’idée de syndrome du faux souvenir, mais il a laissé sa marque. Néanmoins, le débat entre souvenir retrouvé et faux souvenir recycle l’éternel raisonnement : soit nous nous rappelons tout avec précision et le souvenir peut être récupéré, soit nos prétendues réminiscences sont éminemment plastiques et nous avons tendance à nous rappeler les choses en fonction de nos attentes et de celles d’autrui.

Craindre notre mémoire

Le dernier chapitre (troublant) de Winter montre comment la neurophysiologie de la mémoire ébranle nos idées les plus fondamentales sur les souvenirs, le traumatisme et le danger du refoulement. Eternal Sunshine empruntait son hypothèse de l’effacement non à la science-fiction, mais à la recherche contemporaine sur le cerveau. Il semble que l’émotion liée à un événement soit enregistrée séparément (dans l’amygdale) du souvenir de l’événement lui-même (dans l’hippocampe), et que les réminiscences traumatiques soient physiologiquement différentes des autres [Sur le cheminement des différents types de souvenir dans le cerveau, lire « Le cas H.M. », p. 33]. Ce type d’expérience s’accompagne d’une montée des hormones surrénales de stress, qui renforce le souvenir, et chaque fois que l’événement est remémoré, une nouvelle bouffée d’adrénaline et de cortisol en renforce l’impact affectif et le rend plus facile à rappeler. Autrement dit, chaque fois que vous pensez à un événement pénible, le souvenir et la détresse qui y sont associés sont renforcés. Le trauma est recréé et mis en relief à chaque fois. À l’université de New York et à l’université de Californie à Irvine, les chercheurs ont soumis des rats et des humains à des tests, en créant des événements émotionnellement troublants ou douloureux et en injectant des inhibiteurs de protéines dans l’amygdale de certains sujets. Ces individus et ces animaux ont pu se rappeler ou revivre ce qu’ils avaient vécu sans aucune détresse affective, et ils ont pu oublier l’événement plus facilement, alors que la détresse devenait sensiblement plus vive à chaque fois chez les sujets non traités.

S’il faut en croire ces études, affronter les souvenirs douloureux refoulés ou le stress post-traumatique ne fait qu’aggraver le mal, alors que ne pas y penser l’apaise. Le soleil éternel exige une mémoire à trous, et non immaculée. Gardez le bon, oubliez le mauvais. Alors que le XIXe siècle pensait que les épreuves forgent le caractère, et que le xxe siècle préconisait d’affronter ses démons, on peut s’attendre à un avenir faisant de l’oubli une valeur positive [lire « Les vertus de l’oubli », ci-contre]. Aux États-Unis, on prescrit aux anciens combattants atteints de trouble de stress post-traumatique du propranolol, qui bloque les hormones surrénales. Winter suggère que nous pourrions avoir une réaction négative face à cette possibilité de moduler sélectivement notre mémoire, tout comme il y eut une opposition aux antalgiques et à l’anesthésie lorsqu’ils furent découverts. Ma résistance presque réflexe à l’idée d’oubli bienveillant provoqué par un médicament prouve peut-être simplement l’influence de mon époque et de ma culture. Sans doute devrions-nous davantage craindre nos souvenirs et apprendre à mieux apprécier notre inconscient répressif.

Cet article est paru dans la London Review of Books le 9 février 2012. Il a été traduit par Laurent Bury.

 
    [post_title] => Souvenirs sous influence
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => souvenirs-sous-influence
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2015-07-31 15:02:04
    [post_modified_gmt] => 2015-07-31 15:02:04
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/souvenirs-sous-influence/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 13228
    [post_author] => 48457
    [post_date] => 2013-03-28 11:44:02
    [post_date_gmt] => 2013-03-28 11:44:02
    [post_content] => Le moment le plus honteux de ma piètre carrière footballistique s’est produit à la fin d’une rencontre du défunt championnat de Fleet Street (1). J’étais capitaine de l’équipe de mon journal et nous avions été écrasés par celle d’un concurrent. Après cette défaite, j’avais déversé toute ma frustration sur le gardien de but. Les mots exacts se sont heureusement perdus dans les brumes de ma mémoire mais je lui ai dit, en substance, que nous aurions mieux fait de mettre à sa place un plot en plastique devant nos buts. Cela aurait au moins permis d’arrêter un ou deux tirs…

Depuis vingt ans, chaque fois que je vois cet ex-gardien, devenu depuis un spécialiste renommé des médias, intervenir dans l’émission Newsnight, je sens mon estomac se nouer de honte. Tel est hélas le lot commun des gardiens, comme le raconte Jonathan Wilson dans le livre splendide qu’il consacre à cette congrégation. Le gardien est le joueur le plus exposé sur le terrain, celui dont les erreurs sont les plus remarquées. On lui fait facilement des reproches qui devraient être partagés collectivement. Comme l’écrit Wilson, « les faiseurs d’opinion les plus influents ont toujours trouvé des boucs émissaires : Marx a accusé le système capitaliste, Freud le sexe, Dawkins la religion, Larkin ses parents et le Dr Atkins la pomme de terre. Les footballeurs s’en prennent au gardien de but ».

Ce que Wilson cherche à savoir, c’est si le fait d’être différent exige du gardien un caractère particulier. Étant donné ce qu’il doit endurer, on peut le supposer. Il a en tout cas besoin d’un blindage à toute épreuve pour essuyer les torrents de reproches infondés que déversent sur lui les entraîneurs, les spectateurs et ses imbéciles de coéquipiers.

Et il y a bien pire que les mots. L’histoire racontée par Wilson est d’une grande violence. Aux débuts du foot, les gardiens n’étaient pas vraiment protégés par le règlement. On pouvait les frapper, les mettre à terre ou les piétiner en toute impunité. Et on ne se gênait pas. Avant la Seconde Guerre mondiale, certains goals y laissèrent la vie. Même lors d’un match prestigieux comme la finale de la Coupe d’Angleterre, il était fréquent qu’ils reçoivent des coups. En 1956, Bert Trautmann était le gardien de Manchester City lors de la finale qui l’opposa à Birmingham. Au cours du match, cet ancien parachutiste allemand, qui avait traversé des épreuves cauchemardesques sur le front de l’Est avant d’être fait prisonnier, s’est cassé le nez en plongeant dans les pieds d’un adversaire. Il a cependant disputé la fin de la rencontre. Quand on occupait son poste, il valait mieux ne pas trop se plaindre.

Vêtu d’un maillot différent de ceux de ses coéquipiers, chargé d’un rôle particulier et investi d’une responsabilité unique, le gardien est le paria de l’équipe, un homme seul. Il se montre souvent excentrique ou obsessionnel. Wilson raconte ainsi l’histoire de John Burridge (2) : sa femme lui lançait un fruit quand il ne s’y attendait pas. C’était la meilleure manière d’entraîner ses réflexes. Et celle du Colombien extraverti René Higuita, surnommé « El Loco » (« le fou »), qui a enflammé le stade de Wembley avec son coup du scorpion (3). Il a ensuite fait de la prison dans son pays pour avoir collaboré avec des trafiquants de drogue. Peter Shilton, illustre représentant de la lignée des gardiens, avait l’habitude de s’accrocher par les pieds à la transversale afin de gagner un ou deux centimètres pour pouvoir intercepter les centres les plus hauts. Cela n’a jamais marché.

Chaque nation a ses gardiens cinglés. Certaines les considèrent plus comme un avantage qu’un handicap. Alors que les Italiens et les Anglais s’enorgueillissent depuis longtemps de la fiabilité de leurs goals, les Brésiliens ou les Écossais ont souvent eu des soucis avec les leurs. Wilson rappelle cette scène tirée d’Une fille pour Gregory, un magnifique film de Bill Forsyth sur une équipe de football dans un établissement scolaire écossais. Le héros se voit obligé de garder les buts car il est jugé trop faible en attaque. Une scène très brésilienne… Là-bas, tout le monde veut marquer des buts, pas les arrêter. Wilson cite un vieux Brésilien : « Pour être gardien, il faut être soit un fou, soit une pédale. »

L’auteur refuse à juste titre de se livrer à une telle généralisation. Des gardiens comme le Russe Lev Yachine, l’Italien Gianluigi Buffon ou notre propre Joe Hart ne rentrent pas dans la catégorie des idiots ou celle des solitaires. Ils ne correspondent pas non plus à l’analyse romantique faite par ceux qui intellectualisent le sport. Ayant peu de choses à faire pendant une grande partie de la rencontre, les gardiens ont peut-être plus de temps pour penser. Mais cela ne signifie pas pour autant qu’ils appartiennent à la lignée des intellectuels qui ont occupé ce poste, comme Vladimir Nabokov, le pape Jean-Paul II ou Albert Camus, l’homme qui a le plus mythifié l’art du gardien de but. « Ce n’est pas parce que Camus jouait à ce poste que les gardiens sont enclins à des attaques d’introspection maladive », écrit Wilson. On peut pourtant comprendre que le fait d’être moins bien traité qu’un plot en plastique puisse les plonger dans d’amères méditations.

 

Cet article est paru dans le Telegraph, le 12 décembre 2012. Il a été traduit par Olivier Bras.
    [post_title] => La solitude du gardien de but
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => la-solitude-du-gardien-de-but-3
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2018-06-15 08:30:29
    [post_modified_gmt] => 2018-06-15 08:30:29
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/la-solitude-du-gardien-de-but-3/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)
WP_Post Object
(
    [ID] => 13292
    [post_author] => 48457
    [post_date] => 2013-01-31 16:58:36
    [post_date_gmt] => 2013-01-31 16:58:36
    [post_content] => Le texte original, authentique et véritable des Mille et Une Nuits (en arabe, Kita-b ‘Alf Laylah wa-Laylah) a tout d’un animal mythologique. Il contient bien plus de mille et une nuits car, sur les trente-quatre histoires des XIVe et XVe siècles qui forment le cœur de l’ouvrage, sont bientôt venus se greffer d’autres contes en langue arabe ou persane, issus des civilisations médiévales de Bagdad ou du Caire, puis d’autres en hindi, en urdu, en turc, colportés par les pèlerins et les croisés, les marchands et les pirates au terme d’une multitude d’allers-retours sur terre et sur mer. Vinrent ensuite les récits ajoutés par les traducteurs européens, ainsi que les adaptations (de la peinture au cinéma) et les versions revues et corrigées imaginées par les romanciers et les poètes modernes. Il n’existe pas de table des matières qui fasse consensus. Comme le souligne Marina Warner au début de son livre enchanteur, « les histoires elles-mêmes se métamorphosent » et le livre, comme « l’un de ces génies qui jaillissent d’une jarre en un panache de fumée », a pris de nouvelles formes à chaque fois qu’il s’est donné de nouveaux maîtres. Sans famille, le corpus est aussi sans lieu de naissance : la Perse, l’Irak, l’Inde, la Syrie et l’Égypte... tous en revendiquent la paternité. Ainsi, non seulement il n’y a pas mille et une nuits, mais elles ne sont pas (seulement) arabes.

Les strates chronologiques et culturelles qui composent les Mille et Une Nuits évoquent irrésistiblement une poupée russe : en ôtant le XXe siècle (Salman Rushdie, avec Haroun et la mer des histoires, Walt Disney, Errol Flynn), puis les xixe et XVIIIe siècles (Marie-Catherine d’Aulnoy, Antoine Galland (1), Richard Francis Burton, Edward W. Lane), on atteint enfin les sources arabes, et on croit avoir trouvé le gisement. C’est alors que l’on devine la présence d’Homère, du Mahâbhârata (2) et de la Bible, et que l’on s’aperçoit qu’il n’y a pas là de là-bas originel. Ce recueil n’est pas un artichaut (dont les feuilles enchevêtrées dissimulent le cœur) mais un oignon, dont on retire les pelures une à une jusqu’au centre où… il ne reste rien. À moins, peut-être, qu’il ne reste tout. Sans lieu de naissance, les Mille et Une Nuits n’ont pas non plus de sépulture : « Il est impossible d’arriver à la fin de ce livre, écrit Warner, car sa rédaction se poursuit. »

Les savants, incapables de se déprendre de l’obsession, héritée du XIXe siècle, pour la quête des origines (des Mille et Une Nuits, du Nil, de l’humanité, etc.), furent vite déçus de découvrir que bon nombre des contes les plus populaires – dont « Sindbad le marin », « Aladin et la lampe merveilleuse » ou « Ali Baba et les quarante voleurs » – étaient des pièces rapportées, sans parents arabes légitimes. Jorge Luis Borges, dans « Les Traducteurs des Mille et Une Nuits », attribue à Hanna Diab, le chrétien maronite avec lequel a collaboré Galland, l’invention de plusieurs de ces « contes orphelins ». Aditya Behl (dans « La magie subtile de l’amour (3) ») retrace pour sa part les origines de Sindbad jusqu’au conte sanskrit « Sanudasa le marchand ». Comme les fables animalières et les miroirs des princes (4) qui ont voyagé d’Inde en Europe, ces longs récits de marins décrivant les merveilles du sous-continent ont circulé dans le monde islamique et préislamique du pourtour de l’océan Indien. Mais, pour de nombreux lecteurs, Les Mille et Une Nuits sans « Sindbad » ou « Aladin », c’est comme Hamlet sans Hamlet ; et les puristes qui ont établi des éditions « authentiques » sans eux ont essuyé un tel tollé qu’ils ont promptement publié des tomes supplémentaires accueillant ces chers bâtards. Warner démêle avec subtilité la riche histoire de cette tradition, depuis les plus anciennes traces arabes jusqu’aux interprétations contemporaines, et démontre que chacune des nombreuses versions existantes peut prétendre à l’authenticité.

Pourtant, dans le monde arabe, les contes des Mille et Une Nuits étaient considérés comme une forme de littérature de gare. Malgré de nombreuses allusions au Prophète, des citations et des réminiscences du Coran, ils étaient « trop amusants, transgressifs et amoraux, pour être orthodoxes ou respectables ». Galland expurgea les passages homosexuels, mais Burton (5) les annota et, d’une manière générale, rendit les contes plus grivois, empruntant la plupart d’entre eux à Richard Payne (6) et en ajoutant beaucoup de sa propre main, en guise de pied de nez à la pudibonderie de l’Angleterre victorienne. Un critique caractérisa ainsi les traducteurs européens : « Galland pour le jardin d’enfants, Lane pour les bibliothèques, Payne pour l’étude et Burton pour les égouts. »

Stranger Magic déboulonne deux mythes à propos des Mille et Une Nuits : que seules les histoires arabes sont « authentiques », et qu’on ne peut comprendre le livre sans connaître la langue. Ces deux opinions se renforcent l’une l’autre : s’il existait un unique texte arabe d’origine, on pourrait certes avoir envie de le lire dans l’idiome original, mais puisqu’il n’existe rien de tel, libre à nous de plonger dans les récits dans quelque langue ou traduction que ce soit. Aux mains de Marina Warner, le spectre complet des contes donne assurément d’étonnantes pépites. Elle ne maîtrise pourtant pas l’arabe. Bien qu’elle ait grandi au Caire et le parlait dans son enfance, « personne, hélas, ne [l’]a encouragée à continuer, et puis [elle n’a] jamais su le lire ». Je dois admettre qu’étant moi-même une connaisseuse du sanskrit patentée et snob, j’ai d’abord pensé que cette lacune pouvait entraver sa compréhension des contes. Mais Warner met bien sûr à profit le travail des arabisants, soulignant par exemple les contrastes entre les textes arabes où un énorme jinn (ou génie) féminin dérobe une bague précieuse à 570 hommes, et les traductions, où ils ne sont plus que 98. En outre, le degré de subtilité linguistique qu’on n’atteint qu’en « travaillant à partir d’un manuscrit arabe » n’est pas essentiel pour les objectifs qu’elle se fixe, puisqu’elle entend faire l’archéologie littéraire et l’analyse de ce qu’ont signifié les Mille et Une Nuits pour les peuples de différentes civilisations et de différentes époques, non seulement comme curiosité orientale mais comme source profonde de compréhension de l’humanité.

Et le lecteur, même épris de purisme linguistique, aura pour Warner la même indulgence qu’eut jadis W. H. Auden pour Claudel : elle écrit si bien ! Romancière talentueuse, elle parfait son numéro d’illusionniste en cachant à la fin du livre, comme derrière un rideau de velours, les notes qui trahissent l’extraordinaire érudition qui complète l’élégance de son style.

La belle écriture, la bonne intrigue, voilà l’héroïne de ce livre, qu’incarne l’héroïne de l’histoire cadre des Mille et Une Nuits, celle qui contient toutes les autres : Shéhérazade. Mari trompé et aigri, le sultan Shahriyar épouse tous les soirs une vierge qu’il décapite au matin. Shéhérazade se porte volontaire et, après qu’ils ont couché ensemble, elle lui relate un conte encore inachevé lorsque le jour se lève ; le sultan repousse son exécution au jour suivant, puis au suivant, et ainsi de suite ; elle finit ainsi par guérir le souverain de sa misogynie. C’est une histoire sur l’art de raconter des histoires, sur la contestation féministe, sur les rêves, sur le sexe et sur la violence. Warner s’en sert de tremplin pour une réflexion, qui irrigue son livre, sur l’écriture comme talisman ; sur l’écriture comme magie ; sur l’enchâssement des récits.

Le procédé de la mise en abyme sous-tend aussi les thèmes du rêveur rêvé, des rêves à l’intérieur des rêves et des rêves partagés, qui abondent dans le recueil, où « le récit de Shéhérazade dans la chambre du sultan enveloppe les histoires dans la nuit ». Mieux encore, souligne Warner, « l’irréalisme des contes rejoint l’expérience des rêves : soudaineté et vivacité, fragmentation, intrigues à tiroirs et souvent enchevêtrées, glissements dans le temps et l’espace, instabilité des corps, récurrence de certains motifs – autant de caractéristiques des songes ». Certains rêveurs se déplacent sur un lit volant. Warner note à ce propos que les mots « sofa » (dérivé de l’arabe suffiah), « divan » (du perse diwan) et « ottoman » (du turc) désignent tous un lit destiné au repos diurne. Le sofa est devenu « l’emblème de l’hédonisme oriental […] un canapé bas et profond, fait pour s’allonger et s’abandonner, seul ou à plusieurs – pour faire l’amour, se masturber, fumer, cancaner, rêvasser, raconter des histoires, lire et étudier, ou simplement réfléchir dans le calme ». C’est l’endroit où les lecteurs qui aiment rêvasser s’étendent pour fantasmer sur ce qu’ils ont lu.

 

Magie exotique

Les histoires de rêves sont omniprésentes. Le « Conte de la fortune retrouvée » met en scène un homme qui apprend où est cachée sa propre fortune grâce au songe fait par un autre. Borges en a tiré le Conte des deux rêveurs (7), et en attribue la paternité à l’historien arabe al-Ishaqi. Mais l’histoire a aussi intégré la tradition juive hassidique, à travers le conte du rabbin Eisik de Cracovie, repris par Martin Buber (8). Les spécialistes du sanskrit peuvent retracer l’origine de certains de ces récits au Yoga Vasishtha (9), rédigé à la même époque que l’Océan des rivières de contes (10), équivalent indien des Mille et Une Nuits (où l’on trouve également des histoires emboîtées les unes dans les autres), dans le Cachemire du XIe ou du XIIe siècle. Mais le but de Warner est différent, qui poursuit les histoires de rêves jusqu’à notre époque. Une époque où l’idée que l’esprit fabrique sa propre réalité, que d’autres consciences peuvent pénétrer et contrôler, « est devenue un mythe central, paranoïaque, solipsiste et profondément déterministe. Il a gagné en crédit car il correspond à la manière dont bien des gens vivent leur vie ».

Warner se contente de résumer une quinzaine d’histoires, issues à la fois des strates les plus anciennes et les plus récentes du texte. Chacune inspire un chapitre portant sur ses principaux thèmes : génies, tapis, sorcières, magiciens, derviches, rêves, orientalisme, le roi Salomon, les talismans, Voltaire et ses amis, Goethe, les objets et êtres volants, les jouets, l’argent, les ombres, les films, les machines, les sofas, et tant d’autres encore. Bien que ces essais s’enchaînent de manière cohérente, ce livre n’est pas fait pour la lecture linéaire mais pour le vagabondage, d’avant en arrière, nuit après nuit.

La plupart des histoires font intervenir la magie. La thèse de Warner sur l’importance de la pensée magique dans la modernité n’est pas particulièrement surprenante, mais elle l’étaye de manière très originale. Son analyse de la manière dont l’usage de matériel oriental, à partir du XVIIIe siècle, a donné une dimension exotique à la magie renforce son passage sur la manière dont les premiers films tirés des Mille et Une Nuits superposent la magie arabe à celle du cinéma. Il y a aussi la magie des paroles, pas seulement « je vous déclare unis par le mariage », mais « Hoc est corpus meum » (« Ceci est mon corps »), qui inspira la formule magique « hocus pocus », raillant le « tour de passe-passe de la transsubstantiation ».

Warner interprète la magie des objets (tels que les anneaux ou les tapis) comme des fétiches, et reprend l’analyse que Lorraine Daston, dans Things That Talk (2004), fait des idoles (du grec eidolon), ces illusions trompeuses et malhonnêtes. Daston oppose idoles et preuves matérielles, mais observe que les deux se confondent souvent : les indices criminels peuvent être contrefaits, ou bien devenir de puissants fétiches capables de hanter l’esprit aussi bien qu’une idole. Warner compare ces « objets à la vie étrange » aux objets transitionnels de Winnicott (11), et au fonctionnement quasi surnaturel de son Blackberry, GPS et autre iPod.

Et puis, il y a la magie de Freud. Warner suggère qu’en appelant son divan une « ottomane » et en le couvrant d’un tapis persan, le père de la psychanalyse a bien pu, « consciemment ou non », donner un cadre oriental aux premières thérapies psychanalytiques, « une forme d’art du récit, où les rôles sont inversés (c’est le narrateur qui a besoin de guérir, non le sultan à l’écoute) ». Freud, qui avait posé une statue de Vishnou sur son bureau, était profondément orientaliste.

Ce thème est au cœur de Stranger Magic. « L’Orient des Mille et Une Nuits a lui-même son propre Orient », écrit Warner, qui cite l’écrivain indien Amit Chaudhuri : « L’Orient, à l’époque moderne, est non seulement une invention européenne, mais aussi une invention orientale. » Les contes de fées ont toujours eu ce que Warner appelle une « tendance structurelle » à imaginer que les maléfices venaient de loin, mais « l’orientalisation progressive des magiciens » accusa cette propension à confier aux étrangers les basses œuvres, « afin que l’équipe locale garde les mains propres et toute son innocence ». Warner écrit à l’ombre de L’Orientalisme d’Edward Said, mais elle se montre aussi sensible à la personnalité tardive, plus nuancée, plus généreuse, de cet auteur (tel qu’il s’exprime dans Culture et impérialisme), et reconnaît qu’il existe des usages positifs de l’orientalisme (12).

Par un mécanisme de « colonisation inversée », les Européens du XVIIIe siècle ont utilisé les représentations du despotisme et de la dépravation sexuelle et religieuse des pays musulmans pour parodier leur propre civilisation. Les contes orientaux satiriques de Voltaire sont « un cas typique de cette pratique consistant, pour l’Occident, à se vêtir à l’orientale pour mieux s’examiner ».

Le Voleur de Bagdad (film de Raoul Walsh sorti en 1924, avec Douglas Fairbanks) est, souligne Warner, « d’un orientalisme flagrant ». À la fin, le voleur est « acclamé par une foule conquise et reconnaissante alors qu’il entre dans la ville à la tête d’une armée pour la délivrer de son tyran ». Pour nous, la Bagdad du film n’est plus celle d’Hollywood, mais celle de CNN. Pendant que je lisais Stranger Magic, j’avais à l’esprit une double image de la ville : le lieu magique des tapis volants et le théâtre d’une guerre dévastatrice. J’ai été frappée par la pertinence de phrases extraites de vieux contes, comme : « Il est pris d’une rage telle qu’il déclare la guerre à l’Irak : il mènera le pays à la ruine. »

En regardant Le Voleur de Bagdad en 2003, pendant la guerre, Warner y voit « une parabole inconsciente de l’expansionnisme occidental au niveau des nations ». C’est pendant la première guerre du Golfe qu’elle a commencé ses recherches pour ce livre, et elle le rédigea alors que « de nombreux conflits effroyables et non résolus touchaient les régions d’où sont issues les Mille et Une Nuits. Je voulais montrer un autre aspect de cette civilisation considérée comme ennemie, et une histoire qui ne se résume pas à la vengeance et à la guerre ». Non que les Nuits elles-mêmes échappent à tout reproche : les récits les plus récents mentionnent de nombreux actes de violence contre les chrétiens, et des conversions forcées à l’islam, tandis que les traductions européennes versent souvent dans l’antisémitisme. Mais les contes plus anciens comptent davantage de mariages interreligieux, et de formes de respect pour les préceptes islamiques de tolérance. Warner espère que sa lecture des Mille et Une Nuits contribuera à « changer les préjugés sur les Arabes, l’islam, l’histoire et la civilisation du Proche et Moyen-Orient ».

L’envie d’écrire un livre rappelant aux lecteurs la beauté et la sagesse de cette culture fait de Warner une orientaliste au sens positif, « pré-saïdien », du terme : « Les gens qui aiment l’Orient ». Au fondement de l’étude comparée des religions, il y avait cet espoir : on est moins disposé à massacrer ceux dont on connaît l’histoire – et c’est la leçon que Shéhérazade enseigne au sultan. L’élan qui guide Stranger Magic se trouve être cet objectif noble, même s’il est naïf.

Mais Warner s’est investie dans ce livre pour une autre raison. Au début, elle interroge : « Comment faisons-nous pour vivre l’irrationalité intrinsèque et problématique de notre conscience ? Comment distinguons-nous utilement l’appartenance religieuse et la reconnaissance du fait que le mythe et la magie possèdent leur propre logique et leur propre force, indépendamment de toute croyance en une puissance supérieure ? » Observant que les auteurs du XVIIIe siècle utilisaient l’Orient comme un lieu où « leur imagination raisonnante pouvait prendre son essor », reconnaissant aussi que l’« imagination raisonnée » (selon la formule de Borges) est un oxymore, elle forme néanmoins l’espoir que les récits oniriques des Mille et Une Nuits puissent devenir cette « fable de la modernité » qu’elle appelle de ses vœux, une « fable qui répondrait aux besoins profonds de l’homme ». Warner avoue être déconcertée par son attirance particulière pour « les histoires improbables, impossibles et fantastiques ». Et d’ajouter : « J’étais autrefois une catholique fervente, et je sais ce que c’est que de s’abandonner à la magie transformatrice du verbe, aux miracles et aux autres exigences de la foi qui transcendent la raison ; cela fait longtemps que je me suis libérée (en perdant la foi). Comment se fait-il, donc, que j’aime encore songer aux génies, aux métamorphoses animales, aux palais enchantés et aux trésors qui disparaissent, aux automates meurtriers et aux sofas volants, aux supplices atroces et aux destinées inéluctables ? » Ah, Marina, allongez-vous donc sur cette ottomane, que Freud a recouverte d’un tapis, et relisez ce paragraphe ; ce n’est pas votre question, mais votre réponse. Et, abracadabra, c’est aussi la nôtre.

 

Cet article est paru dans le Times Literary Supplement, le 27 juin 2012. Il a été traduit par Arnaud Gancel.
    [post_title] => Les sortilèges de Shéhérazade
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => les-sortileges-de-sheherazade-2
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2015-08-26 15:05:13
    [post_modified_gmt] => 2015-08-26 15:05:13
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/les-sortileges-de-sheherazade-2/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 1
    [filter] => raw
)
WP_Post Object
(
    [ID] => 13414
    [post_author] => 48457
    [post_date] => 2012-09-27 03:08:48
    [post_date_gmt] => 2012-09-27 03:08:48
    [post_content] => Pour qui veut se faire une idée des bouleversements qu’a connus l’économie mondiale ces vingt dernières années, il y a plus inutile que de se pencher sur le cas de la bière. Les Chinois, par exemple, n’en buvaient quasiment pas jusqu’en 1980 : 200 millions de litres par an, contre 24 milliards aux États-Unis. Mais, depuis 2003, la Chine est devenue le premier marché mondial, devant l’Amérique ; elle absorbe aujourd’hui un cinquième de la production mondiale. Pendant ce temps, les vieux buveurs de bière d’Europe faiblissent. L’Allemagne est dépassée par la Russie et le Brésil. Au Royaume-Uni, le breuvage ne représentait plus en 2005 que 45 % des ventes d’alcool, contre 81 % en 1965. Seuls les Tchèques et les Irlandais entretiennent la vieille tradition celtique, engloutissant chaque année plus de 160 litres par habitant – bien plus qu’aucun autre pays.

Le cas de la Chine est sans équivalent. « Aucune grande industrie de la bière dans l’histoire du monde n’a changé aussi radicalement en l’espace d’une seule décennie (de 1998 à 2007) », affirment Junfei Bai, Jikun Huang, Scott Rozelle et Matt Boswell dans un texte novateur de The Economics of Beer. Avant le début des réformes économiques en 1978, ce commerce était géré de manière centralisée par l’État. On en produisait peu, mais la demande était faible aussi, la plupart des Chinois peinant déjà à satisfaire leurs besoins essentiels : la bière passait pour un luxe. La libéralisation de l’économie a engendré une augmentation régulière de la consommation. Mais c’est seulement avec la prospérité des années 1990 que le marché s’est envolé, tiré principalement par la hausse des revenus. Non que la population se soit entichée de cette boisson plus que d’une autre : elle dépensait simplement le surplus d’argent en alcool dans des proportions inédites. Les ventes de spiritueux ont elles aussi énormément augmenté. Or, quand les Chinois se mettent à acheter un produit, c’est le marché mondial tout entier qui grossit. De 1961 à 2005, les ventes de bière ont plus que triplé à l’échelle de la planète, passant de 43 à 153 milliards de litres.

 

Pour les Russes, un quasi-soda

L’histoire s’est déroulée d’une tout autre manière en Russie, comme le montrent Johan F. M. Swinnen et Koen Deconinck dans un autre chapitre stimulant du livre. Comme en Chine, la consommation de bière a considérablement augmenté entre 1996 et 2007, passant de 2,1 à 11,5 milliards de litres. Traditionnellement, les ventes avaient toujours été plus faibles en Russie que dans le reste de l’Europe, en raison de l’addiction locale à la vodka. Mais différents facteurs se sont conjugués pour bouleverser le paysage, incitant de nombreux consommateurs à troquer la vodka pour la bière. On peut citer l’occidentalisation des goûts consécutive à la chute de l’URSS, ou l’amélioration de la qualité du produit. Mais l’élément décisif semble avoir été l’adoption, en 1995, d’une législation plus restrictive en matière de publicité pour l’alcool : elle s’appliquait à la vodka, mais pas à la bière. En 2005, celle-ci occupait le deuxième rang des produits les plus vantés à la télévision. Et 57 % des Russes se déclarent buveurs de bière plutôt que de vodka. Cette double victoire s’explique de la même manière : la publicité pour le breuvage n’a pas été restreinte parce que les Russes ont toujours considéré la bière comme un quasi-soda, plus proche de l’eau que de l’alcool.

Ce grand chambardement est d’autant plus surprenant que voilà une boisson fort ancienne. Comme le montrent Swinnen et ses coauteurs, la « bière », sous une forme ou sous une autre, est le plus vieux breuvage alcoolisé, si (et c’est un grand si) l’on range dans cette catégorie l’hydromel et des boissons fermentées produites à partir de fruits et de céréales, parmi lesquelles « l’orge, le blé, l’avoine, le millet, le seigle et le maïs ». Une recette de bière a été découverte sur une tablette d’argile mésopotamienne gravée 6 000 ans avant notre ère, et les Sumériens en faisaient commerce. C’était la boisson la plus populaire en Égypte à l’apogée de l’Empire, goûtée des pauvres comme des pharaons, qui la buvaient dans des coupes d’or. Ce n’est qu’après l’arrivée des Romains qu’elle perdit la faveur de l’élite au bénéfice du vin.

Bon nombre de Romains y voyaient en effet un breuvage barbare, le produit de la vigne étant au contraire synonyme de civilisation. L’empereur Julien consacra ainsi un poème aux « deux Dionysos », celui du vin et celui de la bière. Le premier « du nectar a l’odeur », le second a « du bouc le parfum détestable » (1). Le mépris des Romains œnophiles pour les Celtes buveurs de mousse s’est d’ailleurs traduit dans l’histoire britannique par un clivage social : au XVIIe siècle, le bordeaux et le porto avaient la faveur de l’aristocratie, les masses préféraient la bière.

On est tenté de lire dans ces préférences quelque chose d’« essentiel », un invariant culturel qui fait les peuples de buveurs de bière et les peuples de buveurs de vin ou de spiritueux. Forts de leur approche économique sceptique, les auteurs de The Economics of beer rejettent ce genre d’idées faciles. Pourquoi la bière est-elle devenue en Grande-Bretagne la boisson du peuple ? Dans son chapitre sur le sujet, John V. C. Nye en fait moins une question de goût que de tarifs douaniers. De 1689 à 1713, l’Angleterre imposa des taxes sur les vins français : engagée dans la guerre de Neuf Ans et la guerre de Succession d’Espagne, le pays avait cessé tout commerce avec la France. Même après la fin du conflit, la consommation du précieux nectar au Royaume-Uni resta limitée, en raison de « droits de douanes élevés, spécialement conçus pour exclure du marché britannique l’essentiel des produits français ». Le prix du vin était ainsi artificiellement gonflé au moment précis où l’industrialisation dopait la consommation d’alcool. Voilà, explique Nye, « pourquoi la Grande-Bretagne est une nation de buveurs de bière ». Devenu plus efficace, le secteur trouva le bon filon avec le porter, une bière forte adaptée à la production industrielle. Et la préférence britannique pour la bière s’installa – au moins jusqu’au lendemain de la Seconde Guerre mondiale, où l’arrivée d’une piquette bon marché dans les supermarchés et les voyages à l’étranger amenèrent la population à redécouvrir les vertus du vin. En 2005, celui-ci représentait 32 % de l’alcool consommé au Royaume-Uni, contre 4 % en 1965. Si la tendance actuelle se poursuit, la Grande-Bretagne sera en principe une nation de buveurs de vin d’ici dix ans environ.

Malgré le caractère universel de la consommation de bière, la brasserie n’a commencé de prospérer que lorsque fut adopté un nouvel additif, le houblon. Les multiples vertus de cette plante sont dûment recensées dans l’Oxford Companion to Beer, un ouvrage de référence exceptionnel dirigé par Garrett Oliver. Les fleurs de l’Humulus lupulus, cousin du cannabis, « apportent à la bière l’essentiel de son amertume, augmentent sa stabilité microbiologique, structurent sa mousse et influent grandement sur son goût et son arôme ». Selon un traité de 1576, l’ingrédient permit de doubler la durée de conservation de la bière, de quinze jours à un mois. Cela permit aux brasseurs d’acheminer leur production beaucoup plus loin, jetant les fondations d’un commerce fortement centralisé – même si l’on était encore loin des marchés multinationaux de firmes telles que Kronenbourg, Sol, Budweiser et compagnie.

 

La bière pure : orge, houblon, eau

Les producteurs allemands décidèrent que le houblon était un agent de saveur et de conservation plus pur que les mixtures d’herbes traditionnelles (les « gruits »), dont on usait jadis pour masquer les goûts désagréables. La plante est d’ailleurs l’un des trois ingrédients mentionnés dans le célèbre décret bavarois sur la pureté de la bière, le Reinheitsgebot du duc Guillaume IV, avec le malt d’orge et l’eau (2). En Grande-Bretagne, au contraire, le houblon ne rimait guère avec pureté. Comme l’explique Victoria Carollo Blake dans l’entrée « houblon » du Oxford Companion, son utilisation fut interdite à la fois sous les règnes d’Henri VI et Henri VIII. L’ajout de cette « herbe malsaine » relevait de la fraude et était passible d’amendes. Il fallut des siècles pour que les sujets de Sa Majesté s’habituent aux arômes amers et fruités du houblon, qui marquait la distinction entre la bière et l’ale.

Aujourd’hui, la signification de ce mot (qui vient du danois öl) est moins claire, comme l’explique l’un des auteurs du dictionnaire. Au Texas, la loi qualifie d’ale « toute boisson maltée contenant plus de 4 % d’alcool par unité de poids », la simple bière ne devant pas dépasser ce seuil. « Bien des producteurs se sont amusés (ou irrités) de voir leur lager forte devenir subitement une ale en atteignant les frontières du Texas. » Une autre définition a rapport aux techniques de production modernes. Le monde de la bière est coupé en deux : d’un côté les ales, de l’autre les lagers. Les premières se caractérisent par une fermentation rapide à haute température de « levures à fermentation haute », tandis que les lagers sont obtenues par une « fermentation basse » à faible température (3). Mais, à nouveau, la distinction perd de son sens, car le comportement des souches de levures utilisées pour la fermentation ne correspond pas nettement aux deux catégories. Aujourd’hui, ale peut s’appliquer à presque tout, « des ales fortes, fruitées, épicées de Belgique aux pale ales fraîches, claires et houblonnées des États-Unis ». Les buveurs d’ale du temps de Henri VIII seraient fort perplexes face aux nouvelles « double IPA » américaines, très alcoolisées (flirtant souvent avec les 10 degrés) et dont la teneur en houblon est maximale, mais qui continuent de s’appeler « ale ». Le nom fait référence à l’« India Pale Ale », bière concoctée au XVIIIe siècle que sa forte teneur en houblon permettait de conserver pendant les cinq mois de voyage entre la Grande-Bretagne et l’Asie du Sud. Ces bières modernes sont beaucoup plus houblonnées, d’où l’épithète « double ». La plante y est davantage utilisée pour le goût que pour la conservation. Comme l’écrit Garrett Oliver, elles sont souvent « d’une amertume déconcertante » et offrent au palais des « arômes de houblon explosifs ».

Pour bon nombre d’amateurs de la côte Ouest, c’est le nec plus ultra. Les double IPA font partie intégrante du petit monde de la « microbrasserie » américaine, dont les initiés placent la bière au même rang que le vin. Oliver, maître brasseur de la Brooklyn Brewery, est lui-même une figure de ce mouvement dont l’esprit – féru de technique, intelligent et gourmand – irrigue son livre. On y parle de bière de citrouille, de bière de sauge, des brasseries artisanales allemandes. Et l’on y regrette la prédilection des Chinois pour « les lagers légères de grande consommation ».

En revanche, on n’y lira rien sur ces rues commerçantes anglaises prises d’assaut, le vendredi soir, par des hordes de buveurs se répandant (dans les deux sens du terme) sur la chaussée. L’index du Companion ne propose aucun renvoi aux termes « alcoolisme », « addiction » ou « intoxication ». Quant à The Economics of Beer, on n’y trouve guère d’analyse sur la manière dont les propriétés toxiques du breuvage affectent sa consommation.

Dans l’ensemble, la plupart des économistes voient simplement dans la bière un « bien normal », dont la consommation progresse en fonction des revenus – bien qu’au-delà d’un certain seuil elle baisse à nouveau. Dans son chapitre du Companion, Donald G. Freeman examine la théorie selon laquelle on boit davantage en période de récession, en raison du stress. Après avoir passé au crible une trentaine d’années de statistiques américaines, et comparé les chiffres du chômage, les niveaux moyens de revenu et la consommation de bière, il en conclut que les gens en boivent en réalité moins en période de crise. Ce « moins » représentant encore une quantité non négligeable. Sur la période étudiée par Freeman, le Nevada est l’État où l’on boit le plus de bière, la palme de la sobriété en la matière revenant à l’Utah [à majorité mormone, NdlR], où la vente d’alcool est très réglementée. Mais même pendant l’année la plus « sèche » (2007), les habitants de l’Utah ont consommé en moyenne 48 litres de bière par personne. Le goût pour la petite mousse est l’un des quelques facteurs qui participent de l’unification du monde moderne. De Pékin à Salt Lake City, quand on décide de s’enivrer, on le fait généralement avec de la bière.

 

Cet article est paru dans Times Literary Supplement, le 27 janvier 2012. Il a été traduit par Arnaud Gancel.
    [post_title] => Une mousse, sinon rien !
    [post_excerpt] => 
    [post_status] => publish
    [comment_status] => open
    [ping_status] => open
    [post_password] => 
    [post_name] => une-mousse-sinon-rien-2
    [to_ping] => 
    [pinged] => 
    [post_modified] => 2016-11-30 13:38:47
    [post_modified_gmt] => 2016-11-30 13:38:47
    [post_content_filtered] => 
    [post_parent] => 0
    [guid] => https://cosavostra-books1.pf5.wpserveur.net/une-mousse-sinon-rien-2/
    [menu_order] => 0
    [post_type] => post
    [post_mime_type] => 
    [comment_count] => 0
    [filter] => raw
)