Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

culture et histoire - Page 1787

  • Qu’est-ce qu’être français ? archive 2009

    Nicolas Sarkozy s’est fait élire président de la République sur le thème de « l’identité nationale ». À quelques mois des élections régionales de 2010, il remet le sujet sur le devant de l’actualité et charge Eric Besson d’organiser un « débat national sur l’identité nationale ».
    Or dès l’origine du débat, Eric Besson définit son objectif final en rappelant la « commande » qu’il a reçue du président de la République  pour lequel : « notre nation est métissée. L’immigration constitue une source d’enrichissement permanent de notre identité nationale ». Et Eric Besson de rappeler : « On a un président de la République qui a dit : “Je suis un homme de sang mêlé à la tête d’une nation métissée”. »
    Lancer ainsi un débat sur l’identité nationale c’est une imposture : « Être français » ne se réinvente pas tous les jours. Au contraire, c’est s’inscrire dans une continuité, non dans une rupture !

    Voici le point de vue charnel de Polémia
    1/ Être français, c’est appartenir à une lignée ; une lignée « qui vient du fond des âges » (Charles De Gaulle). Parler de « nos ancêtres les Gaulois » est globalement vrai ; car c’est reconnaître que le peuple français demeure l’héritier des Gallo-Romains ; sa composition ethnique est restée quasiment inchangée jusqu’au début des années 1970 : blanche et européenne. Dans sa monumentale Histoire de la population française, le démographe Jacques Dupâquier le rappelle aux ignorants et aux malveillants.
    2/ Être français, c’est appartenir à une civilisation : la civilisation européenne et chrétienne. L’héritage spirituel et culturel prolonge ici l’héritage ethnique. Etre français, c’est partager des croyances communes et un imaginaire commun. Etre français, c’est partager la mémoire des poèmes homériques, des légendes celtes, de l’héritage romain, de l’imaginaire médiéval, de l’amour courtois. Etre français, c’est, qu’on soit chrétien pratiquant ou non, participer de la vision et des valeurs chrétiennes du monde car le catholicisme est un élément de l’identité française.
    3/ Être français, c’est être de langue française ; « la langue française notre mère » qui façonne notre esprit et est le merveilleux outil d’exercice de notre intelligence et de découverte des « humanités ». Un Français, c’est un Européen d’expression française.
    4/ Être français, c’est partager une histoire, une mémoire, c’est avoir en commun « un riche legs de souvenirs » (Renan) ; car « La nation, comme l’individu, est l’aboutissement d’un long passé d’efforts, de sacrifices et de dévouements. Le culte des ancêtres est de tous le plus légitime » (Renan). Etre français, c’est partager la fierté de la grande épopée nationale de la Monarchie, de l’Empire et de la République. « La patrie, c’est la terre et les morts » (Barrès). Etre français, c’est avoir son patronyme inscrit, dans un village, sur un monument aux morts  commémorant la grande ordalie de 1914. Et c’est s’interroger sur le sens de ce sacrifice et sur les exigences qu’il nous impose aujourd’hui.
    5/ Être français, c’est partager l’amour d’un territoire : de ses terroirs, de ses paysages, de ses hauts lieux. Etre français, c’est aimer la France, ses rivages, ses vallons et ses sommets, ses vignes et ses prairies, ses champs et ses forêts, ses chênaies, ses châtaigneraies, ses oliveraies, ses villages, ses bourgs, ses collines inspirées, ses cathédrales, ses églises, ses chapelles, ses sources, ses halles au grain, ses maisons de maître et ses fermes fortifiées, ses châteaux, ses palais et ses villes. Être français, c’est aimer le Mont Saint-Michel, Saint-Émilion et Camembert.
    6/ Être français, c’est partager des musiques et des sons, ceux de la lyre et de la cornemuse, du piano et de la guitare, de l’accordéon ou de l’orchestre symphonique. Être français, c’est avoir le sens du travail bien fait, c’est rechercher une certaine perfection dans le métier. C’est aussi, pour les meilleurs des artisans d’art, le sens de ce qui relie l’esprit à la main.
    7/ Être français, c’est partager des goûts et des odeurs. Être français, c’est partager à table des moments de bonheur. Etre français, c’est manger du cochon, de l’andouillette, du petit-salé, du cassoulet et du saucisson. Etre français, c’est partager la baguette et le fromage, l’époisses et le maroilles, le brie de Meaux et le coulommiers, le reblochon et le roquefort, le cantal et le laguiole. Etre français, c’est goûter la Blonde d’Aquitaine et le Charolais, l’Aubrac et la Limousine. Etre français, c’est boire du vin de Loire ou de Bordeaux, d’Alsace ou de Bourgogne. Etre français, c’est déguster de vieux alcools, du cognac, de l’armagnac, du calvados et de la mirabelle.
    8/ Être français, c’est partager « Le désir de vivre ensemble », « la volonté de continuer à faire valoir l’héritage qu’on a reçu indivis. (…) Avoir des gloires communes dans le passé, une volonté commune dans le présent ; avoir fait de grandes choses ensemble, vouloir en faire encore, voilà les conditions essentielles pour être un peuple. (…) Le chant spartiate : “Nous sommes ce que vous fûtes ; nous serons ce que vous êtes” est dans sa simplicité l’hymne abrégé de toute patrie » (Renan).
    Épilogue
    Les mosquées et les tam-tams, le ramadan et les gris-gris, les minarets et les boubous, la charia et la sorcellerie africaine, la langue arabe ou l’ouolof, la arica et le manioc, le palmier et le baobab ne sont nullement méprisables ; seulement voilà : ils ne font pas partie de la civilisation française.
    Bien sûr, les hommes et les femmes qui viennent d’autres mondes peuvent devenir français – au sens culturel, pas seulement administratif et social du terme – s’ils veulent et parviennent à s’assimiler. Mais ce n’est évidemment pas à eux de changer l’identité nationale !
    Il faut ici citer le sage propos de Charles De Gaulle : « C’est très bien qu’il y ait des Français jaunes, des Français noirs, des Français bruns. Ils montrent que la France est ouverte à toutes les races et qu’elle a une vocation universelle. Mais à condition qu’ils restent une petite minorité. Sinon, la France ne serait plus la France. Nous sommes quand même avant tout un peuple européen de race blanche, de culture grecque et latine et de religion chrétienne » (Cité dans Alain Peyrefitte, C’était de Gaulle, t. 1, éditions de Fallois/Fayard, 1994, p. 52).
    http://www.polemia.com
    28/10/2009

  • Léon Bloy et la terrible punition de l’Allemagne

    Ange du bizarre pour Poe, le Germain est devenu un objet de répulsion dans la pensée des Européens modernes. Il fut une horreur à abattre coûte que coûte et peu s’en est fallu que ce peuple ne soir tout bonnement liquidé en 1945.

    Je découvre avec horreur et retard l’horrible sort des prisonniers allemands à la fin de la deuxième guerre mondiale : quatre millions de condamnés à mourir de faim, de dysenterie et même de soif dans des camps de concentration démocratiques, y compris français d’ailleurs. C’est le Figaro qui à l’époque avait eu le courage par la plume du journaliste Paul Bromberger de dénoncer cette infamie ; car les Américains avaient même prêté des femmes et des enfants aux gardiens de camp français qui leur avaient commandé des esclaves de travail pour se dédommager des dégâts de la Guerre et de l’Occupation. On tenait là une belle revanche, digne de la tradition républicaine qui traita aussi biens ses coloniaux que ses cathos ! De Gaulle avait dû se taire, soi-disant pour se ménager les bonnes grâces de l’administration américaine et de l’immonde Truman qui donna en même temps la Chine aux communistes, avec les millions de morts qui allaient suivre. Je reviendrai sur cette drôle de paix et d’époque qui ne font que me confirmer le trait de Soljenitsyne : les êtres humains dans leur plus grande part ne savent pas s’ils sont vivants.

    Mais j’en reviens à l’Allemagne, pays devenu au vingtième siècle du fait de son militarisme prussien, de son paganisme préhistorique et son orgueil nationaliste le symbole de l’horreur moderne. Et je passe par Léon Bloy qui dans son "Journal" (tome : "au Seuil de l’Apocalypse") dénonce l’horreur du comportement allemand :

    « Tout le monde croit au succès de cette horrible guerre, à l’anéantissement de l’empire germanique. Les Allemands, d’ailleurs, se conduisent avec une barbarie atroce. Pillage, incendie, viol, massacre des femmes et des enfants, tuerie des blessés. Leur guerre a un aspect diabolique. On finira par ne plus faire de prisonniers. Jamais un peuple ne s’était montré aussi haineux et n’avait autant excité l’exécration universelle. »

    On est seulement en octobre 1914. Les Allemands ont du souci à se faire car le monde entier ou presque les déteste et célèbre la victoire de la Marne, dont je me demande rétrospectivement si elle a été une bonne affaire pour la France et pour l’humanité.

    Bloy établit un parallèle d’ailleurs inquiétant, prémonitoire et lourd de significations entre les Juifs et les Allemands :

    « Oui, l’Allemagne est au-dessus de tout et par les incomparables qualités de la race germanique et par une prédestination divine, assez semblable à celle du peuple hébraïque dans l’Ancien Testament. »

    Puis il cite un abbé qui considère dès 1914 les Allemands comme Roosevelt, Staline ou Morgenthau, reconnus pourtant pour leur sévérité en la matière (je ne parle pas de Churchill et des bombardements de Dresde et du reste)...

    « 12. - "Si on épargne l’empire allemand", écrit l’abbé Wetterlé, "si on lui accorde une paix honorable après sa défaite, tout sera, dans dix ans, à recommencer. Ces gens-là ne renonceront jamais à leur rêve de domination universelle, à moins qu’on ne paralyse définitivement leur action. Ce sont d’incurables mégalomanes, les maniaques de la force brutale, les virtuoses de la barbarie. Le monde ne retrouvera la paix que le jour où la Prusse n’existera plus ou sera redevenue la pauvre et impuissante principauté de Brandebourg." »

    On comprend que dans ce cas de figure on désire en finir une fois pour toutes, physiquement et globalement, avec un peuple aussi déroutant (c’est le peuple de Bach, Goethe et de Beethoven tout de même) et épouvantable :

    « Continuation des atrocités allemandes. On assassine et on torture les blessés et les prisonniers.

    Un paysan furieux disait, ce matin, qu’il faudrait égorger tous les prisonniers allemands.

    Je pense que, sans en venir à une telle extrémité, il conviendrait de massacrer tous les officiers qu’on pourrait prendre, les faisant responsables des horreurs commises par leurs hommes. »

    Dès le début de la guerre, les Allemands sont passés (je ne dis pas : à tort ou à raison) pour des Huns, des tueurs, des barbares. On n’a même pas attendu Bernays et la propagande de masse pour dénoncer les horreurs germaniques. Léon Bloy manie l’humour noir à propos des pillages qui annoncent les shoppings estivaux de Goering :

    « Le chef d’oeuvre de la célèbre organisation allemande paraît être celle du pillage. Quand les derniers Allemands non encore exterminés auront quitté la Belgique, on se demande ce qui restera de ce malheureux pays. Les Germains sont d’extraordinaires déménageurs. »

    Bloy s’en prend même au pape Benoît coupable selon lui de ne pas assez réagir en jetant l’interdit sur la catholique Autriche. Mais qu’avaient à faire du pape la maçonne France, la protestante Angleterre, la tzariste puis bolchévique Russie, enfin la maçonne Italie ? On sait que Rome sera très proche (deux ans plus tard) de l’héritier pacifiste au trône d’Autriche. Mais les alliés ne veulent pas la paix, ils ne veulent que la destruction de l’Allemagne, écrit Ludendorff dans son passionnant journal de guerre :

    « Vous voyez enfin et surtout Benoît XV se déclarant neutre pendant qu’on massacre ses enfants par centaines de mille et croyant à la politique, sans avoir même la pensée d’user des armes redoutables qu’il possède !

    Vu Léon Bonhomme. Il vit à Saint-Denis, dans un milieu fort hostile à la religion. Il m’a parlé de Benoît XV dont la conduite obscure et timide scandalise tant de chrétiens. Il a été témoin, dans son entourage, du triomphe des impies disant : "Le voilà, votre pape ! Il est neutre, c’est-à-dire avec le plus fort." Que répondre à ces misérables ? Je crois que le démon ne pourrait pas susciter un hérésiarque aussi funeste que ce pontife. »

    Si Pie XII ne dit pas grand-chose sur la shoah, il fut aussi silencieux sur le sort des prisonniers allemands. En cas de culot avéré, il aurait été balayé ; car combien de divisions a-t-il ?, demandait le tyran rouge, pendant que les avionneurs anglo-saxons bombardaient froidement le mont Cassin.

    Anticipant le démembrement de l’Allemagne et le supplice physique de sa population déjà emmenée sur la voie du déshonneur et du crime par Hitler, Bloy poursuit avec inspiration :

    « L’Allemagne réduite au désespoir, ce sera ce que j’ai nommé la guerre intégrale, c’est-à-dire d’extermination. On a peine à concevoir une telle horreur. »

    Et comme s’il anticipait le morcellement du pays et le déplacement de quatorze millions d’allemands en 1945 - dont cinq de Pologne -, déplacement qui se soldera par plus de deux millions de morts (chiffres officiels), Bloy décrit avec délectation la punition du monstre :

    « Pourtant, cette parfaite abomination serait-elle autre chose qu’un lever de rideau ? Il me semble que le vrai drame apocalyptique se précisera ainsi : Le monstre allemand définitivement abattu et tous les peuples se précipitant à la curée, chacun voulant avoir le plus gros morceau de la charogne. »

    Bloy (il mourra en 1917) est dominé sur la fin de sa vie par son fanatisme apocalyptique et sa croyance aux signes. C’est sa force littéraire (voir sa fameuse "Ame de Napoléon", aussi géniale stylistiquement que creuse philosophiquement), c’est bien sûr sa faiblesse ontologique (cette faiblesse pour l’Apocalypse, Bonald en a très bien parlé). Il voudrait une révélation que les temps lui refusent, ces Temps qui sont ceux d’une Fin de l’Histoire qui n’a plus rien de chrétien.

    « On aurait eu, au moins l’illusion d’un renouveau de la Vie surnaturelle et les conséquences auraient pu être infinies. Mais nous sommes loin des Grégoire et des Innocent.

    Toute grandeur est exilée au fond de l’Histoire et si Dieu veut agir manifestement, il faudra bien qu’il agisse de Lui-même victorieusement comme il y a deux mille ans, lorsqu’il ressuscita d’entre les morts.

    J’attends les Cosaques et le Saint-Esprit. »

    C’est beau, c’est même grandiose. C’est en 1915. On a eu à la place les bolcheviques et le Traité de Versailles. Et Bloy est mort avant. C’est ça les prédictions. C’est comme Fatima et la conversion de la Russie...

    « History, Stephen said, is a nightmare from which I am trying to awake. »

    C’est dans Joyce. C’est aussi de 1915 : l’histoire comme cauchemar dont on tente de s’éveiller.

    Nicolas Bonnal  http://www.france-courtoise.info

  • L'acuité du regard de Jean Madiran

    Extrait de l’homélie prononcée lors des obsèques de Jean Madiran, le lundi 5 août à Notre-Dame des Armées à Versailles, par Dom Louis-Marie de Geyer d’Orth, père abbé du Barroux (intégralité dans Présent) :

    "Saint Bernard disait dans une homélie que les yeux sont ce qu’il y a de plus excellent dans le corps, malgré leur petitesse. Il disait cela en pensant à la vision béatifique. Mais il aurait pu le dire aussi en voyant les yeux de Jean Madiran, parce que Jean Madiran avait des yeux assez exceptionnels. Non seulement à cause de leur charme, joyeux et pétillant – un regard d’enfant – mais aussi à cause de cette crainte révérencielle que l’on ressentait devant l’acuité de son regard. Jean Madiran était fait pour la lumière, mais c’était aussi un homme qui faisait la lumière, sans compromis.

    Très tôt, il s’est tourné vers la lumière. Car, avant de devenir un maître, comme l’ont salué nombre d’hommages dont celui de Philippe Maxence, d’Yves Chiron et plusieurs autres dizaines, Jean Madiran fut un disciple attentif. D’abord de Maurras qu’il a lu tous les jours, à partir de ses quinze ans, et cela pendant sept années, jusqu’à ce qu’il rencontre le maître de Martigues.

    Puis ce fut l’autre maître intellectuel qu’il eut la grâce de rencontrer en la personne d’Henri Charlier. Il faudrait dire : les Charlier, la famille Charlier, à travers laquelle la tradition vivante de Péguy et du père Emmanuel du Mesnil-Saint-Loup est venue jusqu’à lui.

    Madiran disait : « C’est André Charlier qui m’a appris à lire Chesterton et Claudel et Pascal. C’est lui qui m’a appris ce qu’est le grégorien, qui m’a montré la France, qui m’a enseigné le silence. C’est lui qui m’a fait comprendre ce que je savais déjà et c’est lui qui m’a disposé à ce que je ne devais comprendre que plus tard. L’essentiel est l’éducation de la liberté. »

    Et si Jean Madiran a su et pu se mettre à l’école de ces géants, c’est que lui-même avait du génie.

    Maurras le lui a dit dans la préface de son livre sur La Philosophie politique de saint Thomas d’Aquin. André Charlier affirmait que seul Péguy avait poussé aussi loin et avec pareille finesse l’art de lire. Et si Jean Madiran a pu se jucher sur les épaules de géants, c’est qu’avec son intelligence il avait reçu de son éducation la piété filiale qui donne à la connaissance de la vérité une acuité spéciale, ce qui lui a permis d’interpréter en toute fidélité ce qu’il avait reçu, et de pouvoir à son tour ajouter de la lumière à la lumière. [...]

    Dans le domaine de l’engagement chrétien en politique, il accompagna l’aventure de la Cité catholique, participant activement et intervenant au premier Congrès de Lausanne, dénonçant dans certains écrits, tels La laïcité dans l’Eglise, la déviance envers notre action catholique.

    Dès le lendemain du Concile, Jean Madiran combattit contre la gabegie qui s’installait à divers niveaux dans l’Eglise universelle, mais notamment dans la portion qui en réside en France.

    Qui ne se souvient de cette constance, jusqu’à sa mort, contre la démobilisation des catholiques en matière d’engagement politique, ou contre certains de leurs engagements erronés.

    En matière religieuse, Jean Madiran a appliqué ce qu’enseigne le Catéchisme de l’Eglise Catholique au numéro 907, qui dit : « Selon le devoir, la compétence et le prestige dont ils jouissent, les fidèles laïques ont le droit et parfois le devoir de donner aux pasteurs sacrés leur opinion sur ce qui touche le bien de l’Eglise et de le faire connaître aux autres fidèles, restant sauve l’intégrité de la foi et des mœurs et la révérence due aux pasteurs, et tenant compte de l’utilité commune et de la dignité des personnes. »

    [...] Chose incroyable, avec des moyens extrêmement limités, Jean Madiran ose lancer avec quelques amis, en 1982, le quotidien Présent, sans l’appui d’aucune publicité, et dont il dirigera la publication. Il y écrira jusqu’à ses derniers jours contre le déferlement de l’immoralité, du laïcisme agressif, de l’impiété, du libéralisme, du relativisme maçonnique ou du marxisme militant, destructeurs de la civilisation chrétienne dans tous ses aspects. [...]"

    http://www.lesalonbeige.blogs.com/

  • L’économie est-elle une science exacte ?

    Par Oskar Morgenstern (avril 2000)

    L’économie jouit d’une situation particulière parmi les sciences : ses résultats sont quotidiennement utilisés dans l’action politique. Cette situation ne favorise pas toujours l’examen critique des mesures et des théories. Plutôt que d’examiner s’il est possible de donner un contenu expérimental et mesurable aux concepts de la science économique, les économistes – en France tout spécialement - se sont longtemps enfermés dans des débats entre « littéraires » et « scientifiques ».

    Ces querelles reflètent des conflits entre personnalités de formation différente. Elles n’apportent aucun élément de solution à la question : “L’économie est-elle une science expérimentale ?” Oskar Morgenstern, fondateur avec Von Neumann de la théorie des jeux, tente ici de répondre avec impartialité. S’il critique les économètres, ce n’est pas faute de connaitre leurs thèses ; s’il juge les faits sociaux difficilement mesurables, ce n’est, pas faute de s’être penché sur le problème. L’économie est une science, mais l’incertitude y joue un rôle fondamental, qu’il est vain de dissimuler.

    Lorsqu’on entreprit pour la première fois de recenser la population de la France, Laplace se rendit compte aussitôt qu’on n’arriverait jamais à dénombrer sans aucune erreur la totalité des habitants. Il demanda par conséquent que l’on calcule l’erreur probable et qu’on la fasse figurer dans le recensement publié. L’éminent mathématicien, qui apporta une contribution si décisive à la théorie de la probabilité, trouvait donc naturel, et même indispensable, pareille exigence de précision.

    Mais rien ne fut fait en ce sens, et même de nos jours, il n’y a pratiquement aucun pays au monde où la publication de données sociales et économiques s’accompagne de considérations sur l’erreur probable. On se contente, d’une façon ou d’une autre, de présumer qu’il n’y a pas d’erreur, bien qu’il soit facile à n’importe qui de constater que les erreurs abondent partout et qu’elles différent énormément d’une statistique à l’autre ; pourtant, il serait éminemment désirable de connaître exactement, l’importance de ces erreurs.

    Dans les sciences de la nature, il en va tout autrement. La nature, en général, ne présente pas ses données sous forme numérique ; c’est de façon qualitative, essentiellement, qu’elle est perçue, et il incombe à la théorie physique de créer des méthodes, souvent extrêmement compliquées, qui convertissent les données qualitatives en données quantitatives. Dans la vie en société, toutefois, beaucoup de données se présentent sous forme numérique, les prix, la quantité d’argent, la production des denrées, le nombre des naissances dans un pays, le nombre des travailleurs en activité et des chômeurs, etc.

    Dans les sciences physiques, comme les mesures numériques sont difficiles à effectuer et qu’il coûte cher de les raffiner, on traite avec le plus grand respect les chiffres obtenus et on se préoccupe, de savoir exactement, à quel genre de nombre on a affaire. En revanche, dans les sciences sociales, les chiffres sont livrés «tout faits», et il est donc assez naturel que les économistes ne se soucient pas outre mesure de leur qualité.

    Certes, ils s’efforcent d’être exacts, mais leur exactitude ne va pas plus loin, d’ordinaire, que de transcrire les chiffres avec soin, d’utiliser les documents originaux plutôt que des sources de seconde main, de surveiller la façon dont ils combinent, ou agrègent, les données, etc. Beaucoup de difficultés, évidemment, surviennent déjà à ce stade, comme par exemple, tous les problèmes de classification, et risquent donc de faire prendre à l’économiste des décisions arbitraires.

    Faudra-t-il, par exemple, classer avec les produits synthétiques ou avec les fibres naturelles, un tissu mi-coton mi-nylon ? Ici on adoptera l’une de ces classifications, ailleurs l’autre. C’est l’occasion de toutes sortes de décisions arbitraires.

    Vivre dans l’incertitude

    Les sciences de la nature ont accompli un grand pas en avant lorsqu’elles se sont aperçues, grâce aux implications philosophiques de la mécanique quantique, qu’il est impossible d’éliminer complètement l’erreur. L’erreur est irréductible. Cela fut très bien démontré par Brillouin. Il n’a pas été facile à la science d’accepter cette idée, et cela pour bien des raisons.

    L’une d’elles est qu’on éprouve une impression d’inconfort à vivre en permanence avec l’erreur ; on préférerait un monde dont tous les aspects puissent être déterminés. Désormais, le grand problème est : comment vivre avec l’erreur ; l’effort essentiel reste celui qui vise à la réduire de plus en plus sans perdre de vue, comme on la dit plus haut, que chaque réduction coûte des sommes d’argent et d’énergie toujours croissantes.

    Voici qui peut vous donner une idée d’ensemble du problème. Lorsque Newton élabora et démontra sa théorie de la gravitation, il utilisait des données entachées d’environ 4 % d’erreurs. Aujourd’hui, ce chiffre a été réduit à un dix-millième de 1 %, et pourtant Newton avait déjà pu formuler les traits essentiels d’une théorie très puissante, capable d’applications expérimentales.

    Plus tard, lorsque Einstein postula que dans certaines conditions la lumière devait s’incurver au lieu de se propager en ligne droite, les observations de l’époque comportaient un taux d erreur d’à peu près 20 %. Cela n’a pas empêché la théorie de la relativité de prendre le dessus. C’est seulement depuis quelques mois, grâce à l’utilisation de radiotélescopes, que cette marge d’erreur a été réduite à des valeurs pratiquement négligeables ; les instruments qui ont permis ce résultat n’étaient pourtant pas encore inventés à l’époque où Einstein élaborait sa théorie (voir la Recherche, n’ 9, février 1971, p. 164).

    Ce qui précède contient une leçon importante, à savoir que des théories puissantes peuvent être établies à partir de données assez peu satisfaisantes, et vérifiées au moyen de ces mêmes données de façon suffisamment probante. On ne risque donc guère, si l’on sait que les informations et les statistiques économiques et sociales fourmillent d’erreurs, de jeter lé bon grain avec l’ivraie ni de nier la possibilité de toute théorie : on souligne simplement que les théories doivent s’adapter au caractère des données et des renseignements disponibles.

    Il serait certainement injustifié de prétendre atteindre un haut degré de précision dans les données économiques ; on rencontre cependant cette prétention un peu partout, et elle est en particulier souvent revendiquée par les gouvernements qui ont la responsabilité de décisions économiques cruciales. On consent à admettre que nous ne savons pas tout de la nature, cependant assez bien connue ; mais en même temps on accepte sans broncher que nous puissions prétendre expliquer avec une grande précision le monde économique et social, dont la complication est incroyable.

    Ainsi, on donne sans indiquer la moindre marge d’erreur le chiffre du PNB produit national brut, déclaration qui sous-entend une précision de 1/10 ou même 1/100 de 1 %. Un tel chiffre est inacceptable, parce que le sens commun devrait suffire à nous faire voir qu’il est impossible de rendre compte sans aucune erreur du volume total des transactions en tous genres qui constituent l’économie d’un pays.

    Cela s’applique tout aussi bien aux pays développés qu’aux pays sous-développés. mais ces derniers, en outre, ne possèdent presque pas d’archives, le chiffre de leur population est inconnu, et dans leur cas les données « par tête d’habitant » n’ont donc aucun sens. On se livre pourtant à des débauches de comparaisons entre nations, même au sein des institutions les plus prestigieuses des organismes internationaux.

    Une illustration prise au hasard : il est impossible pour un observateur étranger de déterminer le prix de… disons de l’électricité fournie à une société privée dans certains pays. Certaines transactions internationales, comme l’exportation de produits importants d’un pays vers un autre, selon qu’on les évalue au moyen des statistiques d’exportation de ce pays ou des statistiques d’importation de l’autre, varient souvent de presque 100 % en quantité ou en valeur.

    Ce phénomène a été observé jusque dans les transactions portant sur l’or, produit de grande valeur qui bénéficie d’un luxe de soins pour son transport et son enregistrement, mais qui sont parfois couvertes par le secret ; les tarifs d’assurance de son transport enfin sont très élevés, mais sont souvent tournés grâce à diverses manipulations, etc. Pourtant on n’hésite pas à fonder sur de tels chiffres des décisions affectant de nombreuses nations et des millions de personnes, lorsqu’ils font ressortir excédents ou déficits pour certains pays.

    Dans un domaine où entrent en jeu des sommes considérables et où l’enregistrement des transactions est fait avec le plus grand soin, par exemple dans la détermination de la masse monétaire, des différences énormes ont été observées. L’an dernier, la masse monétaire des États-Unis est apparue entièrement différente de ce qu’on avait annoncé jusque-là.

    En août 1970, son taux d’accroissement avait d’abord été évalué à 6,8 %, mais se trouva être en réalité de 10 %. En septembre, on remplaça 1,2 % par 5,7 %, etc. Ainsi des variations énormes se manifestent, sans paraître influencer ni les hommes politiques ni les travaux scientifiques d’économétrie.

    Un observateur indépendant qui débarquerait de la planète Mars ne saurait pas quelles statistiques utiliser pour ses calculs. Même le dénombrement de la population, entrepris à grands frais par les gouvernements des pays développés, à l’aide de techniques évoluées et avec les outils statistiques les plus perfectionnés, laisse subsister des erreurs très importantes.

    Dans le recensement américain de 1950, par exemple, 5 millions de personnes n’ont pas été comptées, ainsi que l’ont démontré plus tard des investigations très attentives ; et même le dernier, celui dé 1970, comporte une erreur similaire, qui représente environ 3 à 4 % de la population totale.

    Nous avons vu plus haut qu’il ne s’agit pas là d’une erreur inacceptable ; mais c’est quand même bien une erreur, et il est parfaitement inadmissible qu’on agisse actuellement tout à fait comme si elle n’existait pas.

    On aimerait donc voir des statistiques économiques où chaque chiffre serait accompagné de l’indication de son écart type ; cette pratique n’a pas cours, et il n’est pas bien difficile. de trouver pourquoi. Les raisons sont fréquemment de nature politique. Le gouvernement reçoit de l’argent d’une assemblée, congrès ou parlement, et préfère ne pas montrer aux législateurs, qui tiennent les cordons de la bourse, qu’il entre une part d’incertitude dans ses calculs et dans ses mesures.

    Il n’y aurait pourtant point de honte à cela, car il serait facile de démontrer que la perfection n’est pas de ce monde. Il y a quelques années, en Allemagne, un organe consultatif du gouvernement, sorte de conseil économique, fit une tentative pour livrer des chiffres assortis de leur marge d’erreur, dans la mesure où elle pouvait être évaluée. Le gouvernement intervint pour mettre fin à cet étalage indécent.

    Une attitude comme la sienne, si elle continuait à prévaloir comme c’est le cas à présent, rendrait impossible tout progrès aussi bien dans le domaine politique que dans celui de la science économique, pour autant qu’elle se fonde sur une notion rigoureuse de ce que sont des données quantitatives. Quand on dévalue le dollar, quelqu’un décide qu’une dévaluation de tant pour cent, ni plus ni moins, constitue la dose requise, mais cet individu ne possède aucun renseignement qui permette de savoir si ce taux est bien le bon.

    Même si l’on s’est livré à des calculs préalables, ceux-ci sont fondés sur des chiffres censés exempts, d’erreur, et il est clair que si l’existence de ces erreurs était prise en considération dans les calculs, les déclarations politiques ne seraient pas formulées avec la belle assurance qui les caractérise aujourd’hui.

    Les pièges du produit national brut

    Je me suis référé jusqu’ici à des faits accessibles à l’observation directe, mais le mal est plus profond : il tient à quelques-uns des concepts mêmes qui sont à la base de certaines observations. Prenons par exemple le produit national brut, ou PNB : c’est une notion populaire dans le monde entier, et pourtant chargée d’absurdités et de difficultés incroyables. Le PNB prétend mesurer l’évolution de la production nationale par l’intermédiaire des variations du volume total des transactions.

    L’œil et l’attention des, gouvernements, des hommes d’affaires et du public sont fixés sur ce chiffre, sur lui seul. S’il augmente, c’est merveilleux ! Ne fût-ce que d’un demi pour cent, c’est mieux que rien. Une différence comme celle entre 1,5 et V % pendant le bref intervalle d’un trimestre sera considérée comme « significative ». Mais qu’y a-t-il derrière ? Il est impossible, on l’a dit plus haut, de mesurer aussi rapidement une masse d’événements aussi vaste que l’est l’ensemble de toutes les transactions ayant eu lieu dans un pays. Cela reste vrai même si l’on dispose d’ordinateurs, qui accélèrent le traitement des informations, et si l’on utilise à fond tous les autres moyens de renseignement. Mais non, on veut que ce chiffre à lui seul nous fasse savoir si le pays est en progrès ou en régression sur le plan économique.

    Ce chiffre est d’ailleurs un chiffre scalaire, et non pas même un vecteur dont les composantes correspondraient aux divers secteurs de l’économie. Tout ce qui a pour résultat un accroissement des dépenses est enregistré comme une «croissance». Ce qui est curieux, c’est que les pannes du système sont inscrites à son crédit.

    Si vous êtes immobilisé dans un embouteillage, vous consommez davantage d’essence, vous payez plus cher le kilomètre en taxi ; si des avions font la queue au-dessus des aéroports sans pouvoir atterrir tandis que d’autres attendant pour décoller, ou même s’il arrive une catastrophe qui entraîne des réparations, tout cela nous est comptabilisé comme un accroissement du PNB !

    L’économie est trop complexe pour pouvoir être représentée par un chiffre unique. C’est comme si la croissance d’un homme depuis le biberon jusqu’à l’âge adulte était représentée par un seul chiffre qui couvrirait sa croissance physique, sa taille, son poids, ses études, son intelligence, etc. ; si minime est l’effort de réflexion requis pour apercevoir toutes ces difficultés qu’on est parfois gêné, en tant qu’économiste, vis-à-vis de physiciens ou autres, d’avoir à révéler que cet état de choses est caractéristique de la situation des sciences sociales.

    Il est d’ailleurs assez curieux que la théorie des probabilités, sans laquelle la science moderne ne serait pas ce qu’elle est, tire son origine dans des phénomènes sociaux : l’étude des jeux de hasard, et l’observation de certains phénomènes économiques et mouvements de population. Après quoi cette théorie si puissante, et dont l’importance ne cesse de croître, a surtout été utilisée dans les sciences physiques, depuis le début du XIX’ siècle jusqu’à nos jours.

    Dans les sciences sociales, une attitude déterministe continue de prévaloir, et c’est tout juste si l’on commence aujourd’hui à percevoir quelques indices d’un changement de perspective et de point de vue. Il n’est pas encore tout à fait admis en bonne compagnie de mettre l’accent sur l’existence d’erreurs dans les observations économiques et sociales, dans, les statistiques et dans les mesures prises, de même que naguère encore il n’était pas poli de dire que quelqu’un était mort d’un cancer : à présent, on n’hésite pas à mentionner dans les nécrologies cette cause de décès.

    Si un déterminisme aussi marqué caractérise dans l’ensemble les sciences économiques, ce n’est pas seulement par crainte de regarder en face l’incertitude qui affecte leurs données, mais aussi, je crois, en grande partie pour des raisons politiques. Tout parti politique, qu’il soit marxiste ou capitaliste, tient à démontrer que ses conclusions sont définitives, que ses prévisions sur l’évolution de l’économie ou ses dithyrambes sur la façon admirable dont fonctionne le libre marché, sont solidement fondés et ne laissent pas prise au doute, ne souffrent aucune incertitude. Il va falloir changer tout cela, et l’on commence en effet à voir venir un changement.

    A l’avenir, il sera certainement impossible aux sciences sociales de se développer de façon différente des sciences physiques, en ce qui concerne les exigences de rigueur scientifique et les méthodes d’analyse. Si l’observation de la nature est elle-même chargée d’incertitude, comment le monde social et économique, dans toute sa complexité, pourrait- être observé valablement d’un point de vue plus déterministe, lui qui est véritablement encastré dans l’univers naturel ?

    La validité des prévisions varie évidemment selon qu’on se rend compte ou non de l’importance des incertitudes. Il est intéressant de noter que jusque dans un domaine économique où les données atteignent un maximum de précision, à savoir les cotes de la bourse, les prévisions restent notoirement incertaines. En fait, dans la plupart des situations, elles sont même impossibles.

    Il se peut que ce soit dû à la structure particulière de la bourse, mais si ce grand et important marché est sujet à des variations aléatoires, comment d’autres marchés, où les renseignements sont bien plus difficiles à obtenir et chargés de bien plus d’erreurs, pourraient-ils être mieux compris ? Comment les théories pourraient-elles y posséder un pouvoir de prévisions plus grand ?

    Sortir l’économétrie de son ghetto mathématique

    Les économistes se trouvent vraiment devant un étrange dilemme. D’un côté, la quantité d’informations économiques s’accroît selon un taux incroyable, surtout grâce aux ordinateurs, qui permettent d’enregistrer de nombreuses activités qui échappaient autrefois à l’observation numérique. En même temps, l’économétrie, science qui vise à faire des mesures économiques véritables et à les lier ou les combiner en vue de les incorporer à une théorie, devient de plus en plus mathématique et a besoin de subir de profonds rajustements.

    On a vu il y a quelques années un curieux débat : les mesures sans théorie, c’est-à-dire « impartiales », font-elles vraiment progresser la science économique, ou les théories doivent-elles précéder toute tentative de mesure ? Cela rappelait assez le vieux conflit entre l’économie comme science théorique et comme science historique, qui a débouché comme on sait sur la découverte que les deux choses ne sont pas contradictoires dans les faits : il est impossible de faire de la théorie économique sans mesures, et des mesures sans théorie ne veulent rien dire.

    On peut dire que tous les progrès, dans toutes les sciences, ont été accomplis grâce à l’introduction de concepts nouveaux, et ceux- ci à leur tour ne pouvaient naître que lorsque le chercheur avait sous les yeux un grand nombre de données empiriques. C’est ce qui s’est passé pour les découvertes de Kepler, fondées sur les prodigieuses observations et mesures de Tycho-Brahé ; et aussi pour Mendel, qui commença par accumuler de longues années d’expériences de génétique.

    De même, l’économétrie aujourd’hui doit relever un immense défi. Il s’agit d’élaborer une image du monde réel qui tienne compte de toutes les Incertitudes impliquées par les procédés de description. Pour ce faire, les chercheurs qui ont pour tâche d’organiser les divers aspects de cette image devront utiliser le sens commun, en même temps que certains concepts empruntés à la théorie économique devront servir de guide.

    La difficulté est que les économètres sont dispersés dans de nombreux pays dont les structures économiques et sociales sont très différentes : on doit donc émettre des réserves sur la valeur des comparaisons de leurs mesures. De plus, les économies changent, tandis que les lois de la nature sont stables, du moins dans le champ d’action qui est celui de la physique, et même de la biologie.

    Face à ces difficultés, il n’est pas étonnant que les économètres trouvent plus commode d’élaborer des méthodes abstraites et très raffinées que de les mettre en pratique. L’économétrie a produit un volume important d’ouvrages théoriques, mais rares sont les applications expérimentales qui permettraient d’en extraire ce dont on a, en fait, besoin : une Image de la façon dont fonctionnent réellement les systèmes économiques de différents pays.

    Notons aussi que les méthodes statistiques, potentiellement très puissantes, nécessitent un appareil de données et de théories économiques dont la structure soit très rigoureuse et ne laisse passer que des erreurs minimes. Cela souligne le fait qu’une grande précision des données et des mesures n’est vraiment nécessaire ou môme utile que pour des théories très puissantes, mais il se trouve justement que la plupart des données disponibles sont de mauvaise qualité et ne sauraient servir à travailler avec les concepts plutôt raffinés que l’on tente d’instaurer et d’utiliser en théorie économique.

    Il y a donc une dualité entre la structure – fine ou non – de la théorie, et la qualité des données correspondantes. Comme en physique, l’écart est considérable entre le degré de confiance qu’on peut accorder à telle information et à telle autre, entre le degré de précision d’une mesure et d’une autre. Par conséquent, les affirmations fondées sur des théories économiques sont de valeur très inégale. Malheureusement, de nos jours, et surtout dans les milieux gouvernementaux, on ne fait pas de telles distinctions, et dans les manuels scolaires pour débutants ou même pour les étudiants plus avancés, on ne trouve pas le moindre mot indiquant qu’il subsiste dans les sciences économiques des problèmes non résolus.

    Cependant, ces sciences sont pleines d’énigmes encore à résoudre. Il arrive certes que des prévisions correctes soient faites, ce qui semblerait renforcer la puissance et l’exactitude de la théorie sous-jacente ; mais ce sont là des faits dont on aurait tort d’exagérer l’importance.

    Même des théories fausses sont capables de prévisions exactes : témoin la théorie ptoléméenne, d’après laquelle nous pouvons calculer la date juste de la prochaine éclipse de lune tout en sachant parfaitement que la théorie est fausse. Ainsi, une prévision correcte ne prouve ni l’exactitude des observations qui l’ont précédée, ni la justesse de l’interprétation qu’on en a faite.

    L’ordinateur… et la mauvaise manière de s’en servir

    La découverte de l’ordinateur a évidemment une importance énorme pour les chercheurs en sciences sociales. C’est sans doute la plus grande découverte technologique de notre époque, plus importante même que la fission de l’atome. Comme, parmi les sciences économiques, il en est peu qui se prêtent à une expérimentation directe, la simulation rendue possible par l’ordinateur supplée au manque de procédés expérimentaux.

    La transformation des sciences économiques par l’ordinateur; ne fait que commencer, mais on peut déjà discerner quelques grandes lignes importantes ; quelques dangers méritent une mise en garde.

    Le grand mathématicien Gauss disait. « Le manque de réflexion. mathématique ne se fait jamais voir de façon aussi éclatante que dans l’excès de précision apporté à des calculs numériques. » Que dirait Gauss aujourd’hui, ou des informations insuffisamment analysées, de qualité très inégale, sont entrées pêle-mêle dans les ordinateurs pour subir des millions de multiplications, dans l’espoir qu’au bout du compte quelque résultat significatif apparaîtra ?

    Tout cela repose souvent sur un petit nombre d’équations qui prétendent refléter la réalité économique ; et, à partir des calculs on fait des prévisions, qui servent de base à des décisions politiques.

    Le champ des mathématiques numériques s’est énormément développé depuis l’avènement de l’ordinateur. Cependant, la plupart des ouvrages portent avant tout sur des techniques de calcul ou des procédés plus simples et plus sûrs pour résoudre les équations. Le problème qui nous occupe ici intéresse par contre la nature des relations entre les théories fondamentales d’une part, et les résultats numériques obtenue par des calculs fondés sur les modèles qu’elles ont construits d’autre part.

    La théorie économique s’est très tôt posée des questions de ce genre : on se souvient du fameux passage où Pareto, dans son Manuel d’économie politique 1907 démontre que, suivant sa théorie générale de l’équilibre, pour un système contenant seulement 100 personnes et 700 produits, il n’y aurait pas moins de 76990 équations à résoudre. Chiffre énorme, et pourtant il est clair que, par rapport à la population d’un pays, 100 personnes ne constituent qu’une fraction minime.

    Au lieu de résoudre les équations concernant un si petit nombre d’individus, on préfère travailler sur des agrégats, établie des modèles qui ne comprennent qu’un petit nombre de variables dont chacune couvre un grand nombre d’individus. On espère ,ainsi diminuer la difficulté, et dans un certain sans, évidemment, on y parvient. Hélas ! tout se paie, et l’évaluation des agrégats, loin d’être un procédé inoffensif, engendre à son tour des problèmes.

    De la modélisation au calcul

    Examinons comment envisager un calcul, quel qu’il soit, sur une grande échelle. Je me réfère ici à un ouvrage important de Von Neumann et Goldstine. Quoique leurs travaux datent d’il y a vingt-cinq ans, rien n’est venu affecter la validité de leurs résultats ni, je crois, ne pourrait le faire. Comme beaucoup de problèmes économiques sont représentés par des matrices d’un ordre élevé, comprenant plusieurs centaines de lignes et de colonnes, nous pouvons citer le problème que pose l’inversion des matrices, elle comporte quatre stades, qui occasionnent inévitablement des erreurs de types divers dont certaines, nous le verrons, d’importance primordiale.

    En voici la liste :

    Le problème économique, brut, à la base, ne peut être exprimé qu’au prix d’une idéalisation, d’une simplification et d’omissions. En d’autres termes, il faut construire un modèle mathématique, qui, comme les modèles dans toutes les sciences, constitue une simplification de la réalité. Je n’insiste pas sur ce point, car le problème est commun à toutes les sciences, et tout économiste est conscient qu’il simplifie, parfois de façon radicale. C’est un dilemme auquel on ne saurait échapper, et d’ailleurs une simplification n’est pas forcément néfaste.

    Étant donné le succès de théories physiques telles que la théorie newtonienne de la gravitation, on voit qu’il est possible d’aller très loin même avec des simplifications grossières.

    Si l’on accepte le modèle comme une image fidèle et cohérente de la réalité, on constatera que la description du phénomène choisi nécessitera des paramètres dont la valeur sera fixée par l’observation, directement ou indirectement c’est-à-dire par l’intermédiaire d’une autre théorie ou d’un calcul préalable. Ces paramètres vont donc comporter des erreurs qui, à leur tour, se retrouveront dans les résultats de tous les calculs. C’est là le point décisif. C’est à ce stade qu’interviennent les erreurs d’observation, et leur influence affecte les résultats plus gravement qu’aucune.

    La formulation mathématique stricte du modèle doit être remplacée par une formulation approximative. Cela veut dire que de nombreuses opérations transcendantes telles que celles qu’impliquent des fonctions comme le sinus ou le logarithme, ou des opérations telles que l’intégration et la différenciation, ainsi que les expressions implicites, etc., que l’on trouve inévitablement dans les divers modèles utilisés en théorie économique – tout cela devra être traité numériquement.

    Autrement dit, il faudra remplacer toutes ces opérations par des procédés élémentaires. De même, les processus qui convergent ou tendent vers une limite devront être interrompus à un certain endroit ou tronqués dès qu’on jugera atteindre un niveau d’approximation suffisant.

    Même si l’on ne se sent pas gêné par ces trois sources d’erreurs, qui influent sur la nature des calculs et leur validité, il en reste encore une très importante dont la présence est significative.

    C’est qu’aucun procédé ou moyen de calcul ne peut faire les opérations élémentaires – en tout cas pas toutes les opérations élémentaires – avec une rigueur absolue et sans fautes. Il ne s’agit pas ici des erreurs que peut commettre un ordinateur mal programmé ou qui souffre de déficiences mécaniques ou électriques. Non, c’est plus grave. Le processus de calcul lui-même comporte des traits inhérents qui lient l’exécution de toutes les opérations à l’introduction simultanée, inévitable et systématique de certains types d’erreurs.

    Considérons, pour illustrer les erreurs liées au fait d’arrondir un chiffre, un ordinateur ayant une limite de capacité lui permettant de retenir disons 8 chiffres : en multipliant deux nombres de 8 chiffres, on en obtient un de 16 chiffres qu’il faudra arrondir à 8. Répétez l’opération quelques millions de fois comme c’est nécessaire dans bien des inversions de matrices et demandez-vous si le résultat final est encore valide. C’est là un problème fondamental. Quelle que soit la capacité de l’ordinateur, il vient toujours très vite un moment où il faudra arrondir, sans quoi on finirait bientôt par avoir des nombres comprenant plus de chiffres qu’il n’y a de particules dans l’univers.

    En ajoutant cette difficulté au fait que les données comportent un assortiment d’erreurs diverses, on aura une idée de l’étendue du problème auquel se heurte la vulnérabilité relative de divers types de modèles à divers coefficients d’erreur. Des recherches ont démontré que certains des modèles les plus connus sont extrêmement vulnérables.

    Par exemple, dans un modèle a six équations, même si le coefficient représentant les salaires est le seul où se soit glissée une erreur, mettons de 10 %, le chiffre indiquant les profits sera affecté d’une erreur de 23,4 % en trop ou de 21 % en moins si l’erreur de base est négative. Quand toutes les variables sont sujettes à l’erreur, comme c’est toujours le cas, les résultats sont encore pires. Et ce n’est là qu’une seule illustration.

    Je termine ces réflexions par un simple exemple qui devrait nous inspirer à tous une salutaire prudence. Prenons le système de deux équations

    x-y = 1 et x-1,00001 y = 0

    Elles ont pour solution : x = 100.001, y = 100.000.

    Mais les deux équations suivantes presque identiques :

    x-y = 1 et x-0,999 99 y ont pour solution : x = -99 999, y = -100 000.

    Les coefficients diffèrent tout au plus de deux unités à la cinquième décimale, mais les solutions diffèrent de 200.000. Est-il nécessaire de ne rien ajouter ?

    La Recherche   http://fortune.fdesouche.com

  • Dieu ou l’éthique. Un débat entre Michel d’Urance et Guillaume de Tanoüarn

    Toute vie humaine rencontre le risque du nihilisme. Comment le surmonter ? Par une foi partagée par d’autres hommes ou par une éthique individuelle ? Michel d’Urance et l’abbé Guillaume de Tanoüarn en ont parlé. Et ont confronté leurs positions. L’un est rédacteur en chef de Nouvelle École, et ancien patron d’Éléments, l’autre est abbé traditionaliste, de quelque vingt ans son aîné, écrivain, longtemps directeur de la revue Certitudes, et animateur actuel du Centre Saint-Paul.

    Pour Michel d’Urance, la réponse au nihilisme est une éthique particulière pour chacun. Pour l’abbé, la réponse est une morale. Non pas une morale qui se réduise aux mœurs, mais une certaine idée du Bien qui puisse à la fois irriguer la vie de chacun et les rapports de tous entre tous dans une société donnée (car la morale n’est pas relativiste mais relative à une société particulière).

    Michel d’Urance refuse, tout comme Alain Badiou, ce qui serait une éthique pour tous, qui se rapprocherait alors d’une morale. À l’inverse, il plaide pour une éthique de la singularité, dans une veine nietzschéenne. De son côté, l’abbé assume totalement que le christianisme catholique soit, comme son nom l’indique, porteur d’universel, au-delà de l’Europe qui a accueilli cette religion, et au-delà du foyer originel oriental du christianisme.

    L’universalité du christianisme dépasse, selon l’abbé de Tanoüarn, les identités sans les nier. Elle les englobe sans les tuer (n’est-ce pas ce que fait l’idée d’Empire ?). Pour l’abbé, il n’y a d’éthique que provisoire, a fortiori si l’éthique est particulière à chacun, et c’est pourquoi il critique cette notion. « Donnez-moi un point fixe et je soulèverai le monde » aurait dit Archimède (cité par Pappus d’Alexandrie). L’abbé plaide pour ce point fixe – et on pourrait ajouter : pour ce levier collectif qu’est la morale.

    Pour Michel d’Urance au contraire il appartient à chacun de se créer et de construire ses propres repères. Il récuse toute morale universelle et soutient, se référant à Peter Sloterdijk, le projet de « sphères humaines fortement distinctes ».

    Le face-à-face a donc lieu entre deux positions irréconciliables, mais donne une conversation d’une rare richesse.

    Pierre Le Vigan http://www.europemaxima.com/

     

    • Guillaume de Tanoüarn et Michel d’Urance, Dieu ou l’éthique. Dialogue sur l’essentiel, L’Harmattan, 2013, 270 p., 28 €.

  • Le passé de la SNCF resurgit au Congrès américain

    Guerre du rail : quand un sénateur démocrate US instrumentalise le rôle de la SNCF dans la Shoah…
    Le groupe ferroviaire français est à nouveau mis en cause pour avoir déporté des dizaines de milliers de Juifs vers les camps d’extermination pendant la Seconde Guerre mondiale.
    Aux USA manifestement le retard accumulé du marché des lignes intérieures à grandes vitesses prouve que  l’ouverture à la concurrence des lignes aériennes ne plaît pas à tout le monde. D’abord un Train à grande vitesse fonctionne à l’électricité tandis qu’un avion consomme beaucoup de kérosène (donc du pétrole)… L’essentiel du trafic voyageur sur des lignes inter-city longues distances est absorbé par les compagnies aériennes intérieures en situation d’oligopole. Les enjeux économiques et financiers sont donc considérables à commencer par les investissements à réaliser à l’image du budget de plus de 43 milliards de dollars de la seule ligne Los Angeles-San Francisco.
    Dans ce contexte à la fois de surendettement des Etats américains, de crise économique et de guerre commerciale pour le maintien d’une position hégémonique, tous les freins pour interdire l’accès aux nouveaux entrants (essentiellement Européens, Japonais mais bientôt Coréens et Chinois) sont « bons ». Et c’est bien une offensive informationnelle qui est lancée contre l’image de la SNCF pour déstabiliser l’excellente réputation du TGV d’Alsthom.
    Dans ce genre de manœuvre tous les lobbies sont mobilisés pour user des trafics d’influence afin de relancer ici un sénateur démocrate dont la campagne a vraisemblablement été « soutenue » activement par les commanditaires de ces lobbies.
    De là à voir un lien avec le sabotage de l’éclisse de Brétigny- sur-Orge qui n’a fait dérailler qu’un « vulgaire train Corail », voire avec les autres accidents du rail en Espagne et en Suisse, ce serait excessif, bien sûr. Quoique pour désinformer l’opinion publique américaine si naïve sur les « dangers du rail à l’européenne » la tentation a dû être grande… sauf si les commanditaires s’étaient servis de ces compagnies aériennes pour blanchir les fruits de trafics illégaux. Mafia, non, ce serait excessif ! Je ne vais pas vous refaire l’article sur l’infiltration des mafias dans l’économie légale (de moins en moins) et les sphères du pouvoir américain.
    Bertrand Plas : qui renvoie le lecteur au site du journal L’Opinion dont on trouvera ci-après l’article.
    5/08/2013

    Les faits
    Pour la deuxième fois en deux ans, le sénateur démocrate Charles «Chuck» Schumer demande au Congrès d’autoriser des poursuites contre la SNCF pour son rôle pendant la Seconde guerre mondiale. Plusieurs procédures aux Etats-Unis n’ont pas abouti. En France non plus.
    Le temps presse pour les survivants de la Shoah réunis dans la Coalition for Holocaust Rail Justice aux Etats-Unis. L’une des plus jeunes, Rosette Goldstein, a 74 ans. Pendant qu’il est encore temps, le sénateur Chuck Schumer et un groupe de parlementaires ont donc relancé au Congrès leur combat contre la SNCF de manière à lui « faire rendre des comptes devant un tribunal pour avoir envoyé plus de 75 000 juifs à la mort durant la seconde guerre mondiale », explique l’élu démocrate de l’Etat de New York.
    Cela fait plus de dix ans que des accusateurs tentent, depuis les Etats-Unis, d’obtenir réparation de la compagnie ferroviaire française. En septembre 2000 puis en mars 2006, les plaignants Abrams et Freund sont déboutés par un tribunal en vertu d’une législation de 1976, la Foreign Sovereign Immunities Act (FSIA), qui assure l’immunité aux sociétés contrôlées par un Etat étranger. A l’automne 2010, le gouverneur de Californie, à l’époque Arnold Schwarzenegger, met son véto à une loi («Holocaust Bill») émanant du démocrate Bob Blumenfield. Elle visait à obliger les candidats à la construction du futur train à grande vitesse Los Angeles-San Francisco -un projet alors évalué à 43 milliards de dollars- à s’expliquer sur leur rôle éventuel dans la déportation de juifs en 1939-45. Le texte ne nomme pas la SNCF qui, pas dupe, décide de mettre ses archives à la disposition des Américains. En novembre de la même année Guillaume Pépy, le PDG du groupe en déplacement aux Etats-Unis pour présenter son projet pour la ligne Tampa-Orlando, fait part du « souhait de la SNCF d’exprimer sa profonde peine et son regret pour les conséquences de ses actes » réalisés sous la contrainte « de la réquisition ». Insuffisant, estime Chuck Schumer qui dépose en mars 2011 un premier Holocaust Rail Justice Act I, afin de reconnaître la compétence des tribunaux américains. Le texte n’est pas adopté par le Congrès, d’où sa nouvelle tentative aujourd’hui, que la SNCF se refuse à commenter ou à lier à une éventuelle guerre commerciale.
    Si l’immunité américaine du groupe repose sur son statut d’entreprise publique, en France la justice raisonne différemment, pour le même résultat. Saisi par l’ancien député européen écologiste Alain Lipietz, dont le père a été déporté en mai 1944 à Drancy, le tribunal administratif de Toulouse a condamné la SNCF en 2006, mais la sentence a été infirmée en appel pour « incompétence de la juridiction administrative ». Un jugement confirmé ensuite par le Conseil d’Etat, « la SNCF, personne privée, ne pouvant pas être regardée comme (…) ayant agi dans l’exercice de prérogatives de puissance publique ».
    Muriel Motte, L’Opinion.fr 04/08/2013

    http://www.polemia.com