Sous ce titre, Alain de Benoist publie à propos de la crise contemporaine une analyse incisive et peu complaisante du capitalisme. Les débouchés, dit-il, sont le problème éternel du capitalisme. Après la phase initiale qui a vu les salaires soumis à une très forte pression, au XIXe siècle surtout, ce problème a pu être résolu un temps par le fordisme : on a alors globalement et progressivement relevé le niveau des salaires de manière à soutenir la consommation. Mais…
Mais après la période des Trente Glorieuses est survenue une baisse tendancielle de la profitabilité des investissements et, d’une certaine manière, on a abandonné le fordisme pour revenir à la phase initiale se caractérisant par une pression sur les coûts salariaux propre à restaurer la profitabilité.
La question des débouchés s’est alors posée à nouveau de manière aiguë. L’auteur énumère trois moyens propres à y répondre : premièrement, augmenter la durée du travail (le lecteur rapprochera sans doute ce moyen de l’exhortation à « travailler plus pour gagner plus »), avec tous les effets pervers qui s’ensuivent sur la vie personnelle des salariés ; deuxièmement, rechercher une main-d’œuvre moins chère et « peu revendicative », ce qui incite à recourir à l’immigration et aux délocalisations ; et enfin troisièmement, faciliter le crédit dans des proportions éventuellement imprudentes pour favoriser la consommation.
On touche ici au risque fondamental : un excès déraisonnable de crédit. Alain de Benoist replace ainsi dans une perspective plus générale l’événement ponctuel qui a déclenché une crise mondiale dont le système était gros : l’endettement des ménages américains par les prêts hypothécaires et l’impossibilité où ils étaient de rembourser ces « crédits pourris ».
L’auteur retrace alors tous les facteurs qui ont concouru et concourent encore à l’endettement général, au premier rang desquels la dérégulation globale, souhaitée par la pensée libérale.
Sur le plan privé, l’énorme endettement des ménages américains finit par affecter les finances mondiales et les banques par le biais de la titrisation. Sur le plan public la surémission de monnaie par la FED qui facilite cet endettement a lui aussi des répercussions en raison de la prééminence du dollar. Celui-ci, en effet, est jusqu’à un certain point une monnaie mondiale dont la gestion dépend d’un seul pays (gestion qui, depuis 1971, échappe à la contrainte de la convertibilité). Les autres pays sont obligés d’acheter du dollar pour éviter des déséquilibres majeurs de sorte que les Etats-Unis peuvent mener une politique budgétaire acceptant des déficits eux-mêmes majeurs. Alain de Benoist évalue leur endettement total à 340% de leur PIB.
Et il montre comment la dette publique des Etats n’est pas seulement due à la légèreté de la gestion par les politiques, mais aussi aux plans de sauvetage des banques privées. « Au total, les quatre principales banques centrales mondiales (FED, BCE, Banque du Japon, Banque d’Angleterre) ont injecté 5.000 milliards de dollars dans l’économie mondiale entre 2008 et 2010… En s’endettant massivement pour sauver les banques, les Etats ont permis aux banques de se relancer dans les mêmes activités qui avaient abouti à les mettre en péril ».
On arrive ainsi à la formule de Maurice Allais qui prévoyait « l’effondrement général d’une économie mondiale reposant sur une pyramide de dettes ».
Alain de Benoist critique vivement les oligarchies financières qu’il accuse d’avoir conçu le moteur de la crise présente : l’excès de crédit, lui-même motivé par une âpreté extraordinaire au gain. Il traite aussi les autres aspects du sujet : les délocalisations, qui appauvrissent les pays émetteurs sans enrichir les pays recevant (sinon chez ceux-ci, une mince couche de privilégiés) ; l’immigration, qui est l’arme du capital, qui pèse sur les salaires et que les politiques encouragent sans se préoccuper outre mesure des conséquences sociologiques ; l’extraordinaire aggravation des inégalités sociales, qui voit les classes inférieure et moyenne pénalisées au profit d’une hyperclasse aux revenus « faramineux » et de sociétés aux bénéfices énormes.
Il faut enfin faire mention spéciale du libre-échangisme comme motif initial de la crise actuelle : l’auteur montre que le recours massif au crédit (qu’il situe dans les années 1980) fut une réponse du capitalisme à une baisse tendancielle du taux de profit. On peut ajouter que l’origine de cette baisse se situe dans les années 1970, époque où l’on voit avec un faible décalage dans le temps, d’une part, la mise en place du libre-échangisme mondial (la négociation Kennedy a pris fin en 1969) et, d’autre part, la fin de la prospérité des « Trente Glorieuses ». On notera que le libre-échange, âprement et à juste titre dénoncé par l’auteur, est lui-même fruit dans le domaine économique d’un mouvement de pensée plus général : l’idéologie cosmopolite devenue dominante à partir de 1945.
En conclusion, on peut tenir le livre Au bord du gouffre pour un ouvrage brillant et instructif, même si certains lecteurs y trouveront quelques excès.
Pierre Milloz , 29/06/2012 http://www.polemia.com
Note de la rédaction de Polémia :
Les points de vue d’Henry de Lesquen et d’Alain de Benoist sont généralement assez éloignés, notamment en matière économique. On observera toutefois une convergence d’analyse sur le rôle de l’excès de crédit comme amplificateur de la crise. Nos lecteurs peuvent utilement se reporter à ce texte d’Henry de Lesquen : Les raisons de la crise économique : les éclairages de l’école autrichienne.
En 1972, sous la signature de Michel Norey, la revue Nouvelle Ecole avait de son côté souligné l’importance de l’école autrichienne dans son numéro consacré aux théories économiques.
économie et finance - Page 745
-
« Au bord du gouffre / La faillite annoncée du système de l’argent » d’Alain de Benoist
-
En Europe, la gouvernance économique a surtout besoin d'une gouvernance politique
François Hollande a proposé l'instauration d'un gouvernement économique de la zone euro lors de la deuxième conférence de presse de son quinquennat, le 16 mai 2013. Pour Laurent Ozon, le problème de l'euro provient de notre incapacité à lui assigner une direction politique.
L'actuelle crise de l'euro est le résultat d'une opération d'instabilisation menée par le monde financier et le gouvernement profond US pour maintenir le statut du dollar comme monnaie de change internationale. Cet outil monétaire (le dollar) est ce qui permet aux USA de continuer à financer leur domination par une dette contractée sur le monde entier dans une unité de change qui n'a que la valeur du papier sur laquelle elle est imprimée. De fait, le problème de l'euro est celui de notre incapacité à lui assigner une direction politique et cette difficulté provient en premier lieu de la difficulté d'une organisation politique comme l'UE à définir les contours d'une volonté politique claire, tiraillée entre les volontés contradictoires de ses membres, les empiètements des multinationales, les tentatives répétées de sabotage des USA (via ses satellites) etc.
De fait, toute monnaie non adossée à une volonté politique est un outil problématique. Ceci est valable pour toutes les monnaies, qu'elles soient nationales ou européennes. La question fondamentale est donc bien de savoir où peut se constituer une volonté politique capable d'une direction économico-financière souveraine et conforme à ses intérêts. La seconde question qui découle immédiatement de la première est: quels seront ses moyens réels d'action (en matière monétaire et au delà) face à une hégémonie financiaro-militaire de plus en plus agressive.
La nation par son unité héritée de l'histoire, peut apparemment fournir un environnement de pouvoir mieux maîtrisé et donc un potentiel de volonté politique opérationnel plus simple à obtenir qu'une fédération d'États aux intérêts parfois contradictoires comme l'UE. En clair, la France, par exemple, peut imaginer se donner une monnaie et lier les conditions de sa politique monétaire à ses intérêts souverains. La question qui se posera secondairement sera: quel poids aura la France face à cette hégémonie, compte tenu de son niveau d'autonomie vivrière, énergétique, militaire, médiatico-culturelle, économique et financière ? Un poids faible à n'en pas douter. D'autant plus faible que le niveau d'intégration de la France dans l'économie mondiale ne repose pas seulement sur sa monnaie mais sur un dispositif d'imbrication beaucoup plus vaste et infiniment plus profond que ne le croient ceux qui rêvent d'un destin politique retrouvé, l'œil dans le rétroviseur. C'est un partisan du protectionnisme et de la relocalisation qui l'affirme, dans l'état actuel des choses, il faudra des efforts immenses et du temps à une France isolée des grands systèmes monétaires et des sphères d'influence correspondantes, pour pouvoir résister aux pressions du système financier et militaire de la première puissance mondiale, pour ne pas évoquer les autres.
Confrontée probablement dans les vingts années à venir à une crise civile grave, dépendante de ses importations, sans autonomie industrielle (pièces, technologies, etc.) et sans puissance militaire de premier ordre ni ressources capables d'impacter les rapports de forces géopolitiques mondiaux, la France ne profitera de sa liberté monétaire que bien peu de temps. Celui de s'enfoncer dans la guerre et la ruine, sort qu'elle ne pourra in fine conjurer qu'en passant sous contrôle total d'une puissance dont elle pensait s'affranchir.
De fait, je le pense, la France n'a pas les moyens de faire cavalier-seul. Adossée aux centaines de millions d'européens tournée vers la Russie, elle pourrait se donner dans l'UE, les moyens d'une politique monétaire conforme aux intérêts de son économie. Car ce qui peut être fait en France peut être fait en Europe, certes dans un premier temps plus difficilement, mais à la condition préalable d'une vigoureuse refondation des institutions communautaires qui permettrait à une Europe débarrassée du Royaume-Uni et autres satellites US, de retrouver les moyens de son retour à l'histoire dans un monde multipolaire et de défendre ses choix avec plus de poids que celui d'un pays en pré-guerre civile ne disposant pas des moyens de puissance pour maîtriser, isolé, les conséquences de ses coups de mentons monétaires.
En bref, évoquer la question de la sortie de l'euro sans évoquer celui des rapports de forces internationaux et des implications vitales induites relève au mieux de l'amateurisme politique. De ce point de vue, un gouvernement économique de la zone euro pourrait être une solution, si il n'associait pas les habituels porte-avions américains au sein de l'UE et si la France et l'Allemagne s'engageaient à ajouter une dorsale russe à l'axe Carolingien...C'est en tous cas le moment, à quelques mois des élections européennes d'ouvrir sérieusement le débat non ?
Laurent Ozonhttp://euro-synergies.hautetfort.com/archive/2013/08/11/zone-euro-5139199.html
-
Europe : En 2012, 5500 agences bancaires ont fermé
Les banques de l’Union européenne ont fermé 5500 agences l’an dernier, soit 2,5% de l’ensemble de leurs réseaux.
En 2012, 5500 agences bancaires ont fermé dans l’Union européenne (UE). Ces mesures portent à 20’000 le nombre des agences fermées dans le secteur depuis le début de la crise, en 2008.
Le chiffre de 2012 marque un ralentissement de ce mouvement après les 7200 fermetures enregistrées l’année précédente, montrent les statistiques de la Banque centrale européenne (BCE). Entre la fin 2008 et la fin 2012, les banques de l’UE ont fermé au total 8% de leurs agences, ramenant leur nombre à 218’687, soit une pour 2300 personnes. L’an dernier, les pays les plus concernés par les fermetures ont été ceux qui sont dits «périphériques», les plus en difficulté.
Grèce et Espagne
La Grèce a ainsi fermé 219 agences, soit 5,7% de son réseau, notamment en raison des fusions au sein des banques locales. Cette tendance devrait se maintenir en 2013, le groupe Piraeus devant baisser le rideau d’une partie des 312 agences reprises en mars à des groupes chypriotes.
En Espagne, ce sont 1963 agences qui ont mis la clé sous la porte en 2012, soit 4,9% du total. Et le chiffre des trois premiers mois de 2013 approche 700 selon les données publiées par la Banque d’Espagne.
Le réseau d’agences irlandais s’est, quant à lui, réduit de 3,3% en 2012, et l’italien de 3,1%. En France, les banques n’ont fermé au total que 79 agences l’année dernière et la baisse sur quatre ans ressort à moins de 3%, alors qu’elle atteint 5% au Royaume-Uni et plus de 8% en Allemagne.
Opinion publique
L’Hexagone est le pays de l’Union qui compte le plus d’agences bancaires, avec près de 38’450 à la fin 2012, soit une pour 1709 personnes, un ratio qui classe la France juste dernière l’Espagne et Chypre.
Certaines banques reconnaissent qu’elles ne ferment pas autant d’agences qu’elles le devraient, de peur de faire fuir certains clients d’une part, des retombées dans l’opinion d’autre part.
Au Danemark, le nombre d’agences bancaires a chuté d’un tiers en quatre ans et d’un quart aux Pays-Bas depuis le début de la crise.
Les seuls pays où les réseaux d’agences se sont développés l’an dernier sont la Pologne (4%), la République tchèque (2,3%) et la Lituanie (1,8%).
-
La dette de la France : une conséquence du capitalisme financier et de l'Euro
Un homme politique radical socialiste avait déclaré un jour : « il n'y a aucun problème qu'une absence de solutions ne résout pas ».
S'il est un domaine pour lequel cette phrase devient fausse est bien sûr le problème de la dette ou alors il faut accepter sans état d'âme de faire défaut avec toutes les conséquences de non crédibilité qui en résulteraient pour la France. Jacques Attali a écrit un livre sur ce thème. On a affaire à une œuvre savante où en conclusion il revient à son obsession pour ne pas dire fanatisme européiste cher aux « élites» qui conçoivent l'avenir pour les autres. On a d'ailleurs inventé l'expression en ce qui concerne l'Europe « sortir par le haut ». Il est vrai que cela résonne mieux que de dire « sortir par le bas ». On retrouve le moteur à deux temps de la pensée européiste. Quand cela va bien, c'est grâce à l'Europe. Quand cela va mal, il faut plus d'Europe. La certitude européiste ne connaît pas le doute. Avant toute chose, il faut relativiser une dette publique qui n'est qu'une circulation d'argent de ceux qui en ont trop. Quand l'Etat rembourse on enrichit les créanciers qui peuvent de nouveau relancer l'économie (surtout quand les créanciers sont des nationaux). De plus, il existe un chassé-croisé entre les dettes nationales. La France est débitrice pour certaines et créancière pour d'autres dettes.
Nous allons maintenant expliquer pourquoi la dette actuelle est due essentiellement au capitalisme financier (système économique de la mondialisation actuelle) et à la mise en place de l'Euro.
Il existe plusieurs façons de rembourser une dette : l'inflation (toujours au bénéfice des débiteurs au détriment des créanciers), la croissance, les impôts, la création monétaire, l'arme atomique étant faire défaut (ce qui a existé de nombreuses fois dans l'histoire économique), l'emprunt étant moins un financement puisqu'il peut même alourdir la dette, d'autant plus que le taux d'intérêt est supérieur au taux de croissance.
Ces sources de financement ont été très fortement contrariées par le capitalisme financier et la mise en place de l'Euro. La mondialisation a de façon prodigieuse fait diminuer les recettes par impôts : les délocalisations sont autant d'emplois détruits, donc de salariés ne payant plus d'impôts et qu'il faut de plus indemniser par des allocations. Le capitalisme financier a créé une répartition du PIB au désavantage des salaires. Ces derniers, comprimés, ne peuvent donc dégager des recettes fiscales suffisantes. Les contribuables les plus riches quant à eux sont protégés par le bouclier fiscal quand ils ne pratiquent pas l'évasion fiscale (en partant à l'étranger par exemple). Le capitalisme financier crée donc un cadre institutionnel guère favorable au remboursement d'une dette aussi bien privée que publique. Il a de plus généré une croissance très faible dans les pays européens dont la France.
L'Euro n'a fait qu'accentuer les effets néfastes de la mondialisation. La BCE n'a fait que lutter contre l'inflation (propice pour rembourser une dette) avec comme outil un taux d'intérêt élevé néfaste pour la croissance. Le politique de l'Euro fort sous le diktat allemand n'a fait qu'accélérer les délocalisations (donc moins de recettes) tout en comprimant les exportations et favorisant les importations (allemandes ou autres). Lorsque les européistes expliquent qu'on ne peut sortir de l'Euro car cela ferait monter les taux d'intérêt pour l'emprunt, ils font fi de tous les autres aspects négatifs de la mise en place de l'Euro.
De plus, sous le diktat allemand de la BCE et sa phobie de l'inflation, on ne peut plus monétiser la dette, c'est-à-dire financer par création monétaire. De toute façon, en sortant de l'Euro, le recours à l'emprunt sur les marchés internationaux sera moins une nécessité et la France serait à l'abri de l'augmentation des taux d'intérêt. La France a toujours eu un taux d'épargne élevé et le mieux sera de faire appel aux nationaux. En remboursant la dette, on enrichit les nationaux. On ne fait que se rembourser soi-même. On revient donc à cette idée énoncée au début de l'article : une dette n'est qu'une circulation d'argent entre différents agents. Il n'y a donc pas d'appauvrissement général.
Nous donnerons donc à propos de la dette de la France la même réponse que propose Alain Cotta pour l'économie de la France : « sortir de l'Euro ou mourir à petit feu ». Il faut aussi sortir du capitalisme financier actuel pour redéfinir un capitalisme social de nouveau favorable à la croissance des pays européens et à la ré-industrialisation de la France.
Patrice GROS-SUAUDEAU 2010
Statisticien-économiste -
LE DELUGE MEURTRIER DES LOIS
Dans l'état actuel des choses telles qu'on ne voudrait pas qu'elles fussent la déferlante des lois ne s'arrête jamais. L'information coutumière, après les catastrophes ferroviaires ou autres énumérées, passe à la politique et c'est pour entendre que le gouvernement prépare des lois que l'on appelle aussi des textes.
La publicité dans toutes ses formes est, d'ores et déjà, règlementée d'une façon épouvantable comme dans un corset. Cela ne suffit pas. La dernière nouveauté est que la publicité télévisée pourrait s'ouvrir à de nouveaux secteurs. Cette formulation est, en soi, un aveu terrible car cela signifie bien qu'avant elle ne pouvait pas s'exercer partout. Il y a eu des assises de l'audiovisuel en juin. Il est fréquent qu'un nouveau paquet de lois se prépare dans une telle parlotte ; les discoureurs verraient d'un mauvais œil que des textes compliqués ne viennent pas couronner la fête. Les nouveaux secteurs à ouvrir seraient les opérations de promotion des distributeurs ou les films. Cela rapportera 150 millions aux chaines. Toutefois, rien de pressé car le gouvernement arbitrera à la rentrée.
L'on aperçoit très vite deux calamités venants de l'avalanche. A la rentrée le pouvoir arbitrera. D'ici là incertitudes et pannes dans tout projet : l'incertitude est le pire ennemi de la richesse. Et puis, il y a des transferts d'argent prévus ; on va déshabiller Pierre au bénéfice de Paul : bonjour les combines.
LES AMVAP
Un autre exemple dramatique et actuel de la nuisance des lois est celui de la loi du 12 juillet 2010. Elle fait suite au deuxième Grenelle de l'environnement. Cette appellation pompeuse désigne des parlottes célèbres ayant acquis un statut quasi officiel. À leur suite de multiples lois apparaissent faisant déferler la ruine dans tout le corps social.
Il existait les ZPPAUP qui sur d'immenses parties du territoire empêchaient de construire librement sauf à se soumettre à des exigences compliquées. Elles sont remplacées par les AMVAP : ou « aires de mise en valeur du patrimoine ».
Mais la loi n'a aucune valeur s'il n'y a pas les décrets d'application et aux toutes récentes nouvelles ces décrets d'application sont parus. C'est une vraie jungle d'usines à gaz à pénétrer. En outre un décret d’application implique des circulaires, voire du contentieux. J'avoue ne pas savoir ou cela en est. Les projets ne peuvent se réaliser que si l'AMVAP est mise en place par la totalité des communes concernées : on imagine les formalités absurdes et nécessaires. Combien de projets ainsi gelés en France ? Mystère.
LA PAUPERISATION
Cette paupérisation est bien installée, tellement qu'avec l'habitude on finit par ne plus la voir. Mes lecteurs habituels savent qu'elle est due à l'action persistante des gouvernements de toutes tendances. Parmi les causes se trouve la déferlante des lois.
Le sujet étant immense, citons seulement quelques aspects.
Le manque de sécurité juridique, déjà dénoncé, est un obstacle considérable à la création de richesse et de ce fait un facteur de pauvreté. Les entrepreneurs seuls véritables auteurs de cette richesse sont particulièrement touchés. Il existe 61 codes avec 10 millions de mots et ces codes bougent à chaque instant. Certains d'entre eux comme le code du travail sont remplis d'interdictions de travailler. La jungle des lois est bourrée de contradictions. Les lois quelles qu'elles soient ne sont pas stables. Une foule d'organisations, notamment au niveau européen, peut les annuler ou les modifier. Certaines lois sont en conséquence dans une sorte de coma avancé.
Et puis, pour couronner, l'arsenal est composé d'une vraie pyramide d'usines à gaz administratives. Les textes sont si obscurs qu'il faut s'accrocher pour comprendre. La ruine vient par le temps consacré à saisir. Elle s'invite aussi par les délais engendrés pour réaliser un projet, alors que la concurrence oblige à aller vite.
EN FAIT POURQUOI ?
D'ou vient ce vrai tsunami ?
Nous sommes obligés de manger le pain amer de la démocratie frelatée que nous connaissons. L'élection présidentielle de 2012 s'est jouée à la marge comme souvent. Pour emporter le butin, les deux candidats se sont livrés à un festival de promesses. Toutes ces promesses aboutissaient à des « textes », terme qui devrait être banni du langage politique.
Nous arrivons enfin au nombre des ministres. Les 40 personnages qui siègent autour de la table n'ont qu'un rêve : laisser une trace par un ou plusieurs beaux textes.
In fine ,saluons les assemblées parlementaires. Les élus trouvent leurs légitimité et leur gloire à pondre des lois. Ils infligent à leurs concitoyens une double ruine. A leur propre et insolente richesse, s'ajoute l'activité qu'ils déploient pour la justifier.
OÙ EST L'ISSUE
Elle existe. Lors d'une élection présidentielle un candidat crédible s'engagerait à nommer 8 ministres pas plus : exit les sous ministres et secrétaires d'état. Parallèlement il promettrait l'arrêt du déluge des lois ; cela veut dire que le pouvoir appliquerait simplement les lois existantes qui suffisent à tout. Ce programme avec une communication adaptée ne pourrait que remporter les voix.
En Suisse, les conseillers fédéraux qui sont les ministres ne dépassent jamais le nombre de sept. Il n'y a chaque année que très peu de lois nouvelles. Alors ?
MICHEL de PONCINS http://libeco.net -
L’économie est-elle une science exacte ?
Par Oskar Morgenstern (avril 2000)
L’économie jouit d’une situation particulière parmi les sciences : ses résultats sont quotidiennement utilisés dans l’action politique. Cette situation ne favorise pas toujours l’examen critique des mesures et des théories. Plutôt que d’examiner s’il est possible de donner un contenu expérimental et mesurable aux concepts de la science économique, les économistes – en France tout spécialement - se sont longtemps enfermés dans des débats entre « littéraires » et « scientifiques ».
Ces querelles reflètent des conflits entre personnalités de formation différente. Elles n’apportent aucun élément de solution à la question : “L’économie est-elle une science expérimentale ?” Oskar Morgenstern, fondateur avec Von Neumann de la théorie des jeux, tente ici de répondre avec impartialité. S’il critique les économètres, ce n’est pas faute de connaitre leurs thèses ; s’il juge les faits sociaux difficilement mesurables, ce n’est, pas faute de s’être penché sur le problème. L’économie est une science, mais l’incertitude y joue un rôle fondamental, qu’il est vain de dissimuler.
Lorsqu’on entreprit pour la première fois de recenser la population de la France, Laplace se rendit compte aussitôt qu’on n’arriverait jamais à dénombrer sans aucune erreur la totalité des habitants. Il demanda par conséquent que l’on calcule l’erreur probable et qu’on la fasse figurer dans le recensement publié. L’éminent mathématicien, qui apporta une contribution si décisive à la théorie de la probabilité, trouvait donc naturel, et même indispensable, pareille exigence de précision.
Mais rien ne fut fait en ce sens, et même de nos jours, il n’y a pratiquement aucun pays au monde où la publication de données sociales et économiques s’accompagne de considérations sur l’erreur probable. On se contente, d’une façon ou d’une autre, de présumer qu’il n’y a pas d’erreur, bien qu’il soit facile à n’importe qui de constater que les erreurs abondent partout et qu’elles différent énormément d’une statistique à l’autre ; pourtant, il serait éminemment désirable de connaître exactement, l’importance de ces erreurs.
Dans les sciences de la nature, il en va tout autrement. La nature, en général, ne présente pas ses données sous forme numérique ; c’est de façon qualitative, essentiellement, qu’elle est perçue, et il incombe à la théorie physique de créer des méthodes, souvent extrêmement compliquées, qui convertissent les données qualitatives en données quantitatives. Dans la vie en société, toutefois, beaucoup de données se présentent sous forme numérique, les prix, la quantité d’argent, la production des denrées, le nombre des naissances dans un pays, le nombre des travailleurs en activité et des chômeurs, etc.
Dans les sciences physiques, comme les mesures numériques sont difficiles à effectuer et qu’il coûte cher de les raffiner, on traite avec le plus grand respect les chiffres obtenus et on se préoccupe, de savoir exactement, à quel genre de nombre on a affaire. En revanche, dans les sciences sociales, les chiffres sont livrés «tout faits», et il est donc assez naturel que les économistes ne se soucient pas outre mesure de leur qualité.
Certes, ils s’efforcent d’être exacts, mais leur exactitude ne va pas plus loin, d’ordinaire, que de transcrire les chiffres avec soin, d’utiliser les documents originaux plutôt que des sources de seconde main, de surveiller la façon dont ils combinent, ou agrègent, les données, etc. Beaucoup de difficultés, évidemment, surviennent déjà à ce stade, comme par exemple, tous les problèmes de classification, et risquent donc de faire prendre à l’économiste des décisions arbitraires.
Faudra-t-il, par exemple, classer avec les produits synthétiques ou avec les fibres naturelles, un tissu mi-coton mi-nylon ? Ici on adoptera l’une de ces classifications, ailleurs l’autre. C’est l’occasion de toutes sortes de décisions arbitraires.
Vivre dans l’incertitude
Les sciences de la nature ont accompli un grand pas en avant lorsqu’elles se sont aperçues, grâce aux implications philosophiques de la mécanique quantique, qu’il est impossible d’éliminer complètement l’erreur. L’erreur est irréductible. Cela fut très bien démontré par Brillouin. Il n’a pas été facile à la science d’accepter cette idée, et cela pour bien des raisons.
L’une d’elles est qu’on éprouve une impression d’inconfort à vivre en permanence avec l’erreur ; on préférerait un monde dont tous les aspects puissent être déterminés. Désormais, le grand problème est : comment vivre avec l’erreur ; l’effort essentiel reste celui qui vise à la réduire de plus en plus sans perdre de vue, comme on la dit plus haut, que chaque réduction coûte des sommes d’argent et d’énergie toujours croissantes.
Voici qui peut vous donner une idée d’ensemble du problème. Lorsque Newton élabora et démontra sa théorie de la gravitation, il utilisait des données entachées d’environ 4 % d’erreurs. Aujourd’hui, ce chiffre a été réduit à un dix-millième de 1 %, et pourtant Newton avait déjà pu formuler les traits essentiels d’une théorie très puissante, capable d’applications expérimentales.
Plus tard, lorsque Einstein postula que dans certaines conditions la lumière devait s’incurver au lieu de se propager en ligne droite, les observations de l’époque comportaient un taux d erreur d’à peu près 20 %. Cela n’a pas empêché la théorie de la relativité de prendre le dessus. C’est seulement depuis quelques mois, grâce à l’utilisation de radiotélescopes, que cette marge d’erreur a été réduite à des valeurs pratiquement négligeables ; les instruments qui ont permis ce résultat n’étaient pourtant pas encore inventés à l’époque où Einstein élaborait sa théorie (voir la Recherche, n’ 9, février 1971, p. 164).
Ce qui précède contient une leçon importante, à savoir que des théories puissantes peuvent être établies à partir de données assez peu satisfaisantes, et vérifiées au moyen de ces mêmes données de façon suffisamment probante. On ne risque donc guère, si l’on sait que les informations et les statistiques économiques et sociales fourmillent d’erreurs, de jeter lé bon grain avec l’ivraie ni de nier la possibilité de toute théorie : on souligne simplement que les théories doivent s’adapter au caractère des données et des renseignements disponibles.
Il serait certainement injustifié de prétendre atteindre un haut degré de précision dans les données économiques ; on rencontre cependant cette prétention un peu partout, et elle est en particulier souvent revendiquée par les gouvernements qui ont la responsabilité de décisions économiques cruciales. On consent à admettre que nous ne savons pas tout de la nature, cependant assez bien connue ; mais en même temps on accepte sans broncher que nous puissions prétendre expliquer avec une grande précision le monde économique et social, dont la complication est incroyable.
Ainsi, on donne sans indiquer la moindre marge d’erreur le chiffre du PNB produit national brut, déclaration qui sous-entend une précision de 1/10 ou même 1/100 de 1 %. Un tel chiffre est inacceptable, parce que le sens commun devrait suffire à nous faire voir qu’il est impossible de rendre compte sans aucune erreur du volume total des transactions en tous genres qui constituent l’économie d’un pays.
Cela s’applique tout aussi bien aux pays développés qu’aux pays sous-développés. mais ces derniers, en outre, ne possèdent presque pas d’archives, le chiffre de leur population est inconnu, et dans leur cas les données « par tête d’habitant » n’ont donc aucun sens. On se livre pourtant à des débauches de comparaisons entre nations, même au sein des institutions les plus prestigieuses des organismes internationaux.
Une illustration prise au hasard : il est impossible pour un observateur étranger de déterminer le prix de… disons de l’électricité fournie à une société privée dans certains pays. Certaines transactions internationales, comme l’exportation de produits importants d’un pays vers un autre, selon qu’on les évalue au moyen des statistiques d’exportation de ce pays ou des statistiques d’importation de l’autre, varient souvent de presque 100 % en quantité ou en valeur.
Ce phénomène a été observé jusque dans les transactions portant sur l’or, produit de grande valeur qui bénéficie d’un luxe de soins pour son transport et son enregistrement, mais qui sont parfois couvertes par le secret ; les tarifs d’assurance de son transport enfin sont très élevés, mais sont souvent tournés grâce à diverses manipulations, etc. Pourtant on n’hésite pas à fonder sur de tels chiffres des décisions affectant de nombreuses nations et des millions de personnes, lorsqu’ils font ressortir excédents ou déficits pour certains pays.
Dans un domaine où entrent en jeu des sommes considérables et où l’enregistrement des transactions est fait avec le plus grand soin, par exemple dans la détermination de la masse monétaire, des différences énormes ont été observées. L’an dernier, la masse monétaire des États-Unis est apparue entièrement différente de ce qu’on avait annoncé jusque-là.
En août 1970, son taux d’accroissement avait d’abord été évalué à 6,8 %, mais se trouva être en réalité de 10 %. En septembre, on remplaça 1,2 % par 5,7 %, etc. Ainsi des variations énormes se manifestent, sans paraître influencer ni les hommes politiques ni les travaux scientifiques d’économétrie.
Un observateur indépendant qui débarquerait de la planète Mars ne saurait pas quelles statistiques utiliser pour ses calculs. Même le dénombrement de la population, entrepris à grands frais par les gouvernements des pays développés, à l’aide de techniques évoluées et avec les outils statistiques les plus perfectionnés, laisse subsister des erreurs très importantes.
Dans le recensement américain de 1950, par exemple, 5 millions de personnes n’ont pas été comptées, ainsi que l’ont démontré plus tard des investigations très attentives ; et même le dernier, celui dé 1970, comporte une erreur similaire, qui représente environ 3 à 4 % de la population totale.
Nous avons vu plus haut qu’il ne s’agit pas là d’une erreur inacceptable ; mais c’est quand même bien une erreur, et il est parfaitement inadmissible qu’on agisse actuellement tout à fait comme si elle n’existait pas.
On aimerait donc voir des statistiques économiques où chaque chiffre serait accompagné de l’indication de son écart type ; cette pratique n’a pas cours, et il n’est pas bien difficile. de trouver pourquoi. Les raisons sont fréquemment de nature politique. Le gouvernement reçoit de l’argent d’une assemblée, congrès ou parlement, et préfère ne pas montrer aux législateurs, qui tiennent les cordons de la bourse, qu’il entre une part d’incertitude dans ses calculs et dans ses mesures.
Il n’y aurait pourtant point de honte à cela, car il serait facile de démontrer que la perfection n’est pas de ce monde. Il y a quelques années, en Allemagne, un organe consultatif du gouvernement, sorte de conseil économique, fit une tentative pour livrer des chiffres assortis de leur marge d’erreur, dans la mesure où elle pouvait être évaluée. Le gouvernement intervint pour mettre fin à cet étalage indécent.
Une attitude comme la sienne, si elle continuait à prévaloir comme c’est le cas à présent, rendrait impossible tout progrès aussi bien dans le domaine politique que dans celui de la science économique, pour autant qu’elle se fonde sur une notion rigoureuse de ce que sont des données quantitatives. Quand on dévalue le dollar, quelqu’un décide qu’une dévaluation de tant pour cent, ni plus ni moins, constitue la dose requise, mais cet individu ne possède aucun renseignement qui permette de savoir si ce taux est bien le bon.
Même si l’on s’est livré à des calculs préalables, ceux-ci sont fondés sur des chiffres censés exempts, d’erreur, et il est clair que si l’existence de ces erreurs était prise en considération dans les calculs, les déclarations politiques ne seraient pas formulées avec la belle assurance qui les caractérise aujourd’hui.
Les pièges du produit national brut
Je me suis référé jusqu’ici à des faits accessibles à l’observation directe, mais le mal est plus profond : il tient à quelques-uns des concepts mêmes qui sont à la base de certaines observations. Prenons par exemple le produit national brut, ou PNB : c’est une notion populaire dans le monde entier, et pourtant chargée d’absurdités et de difficultés incroyables. Le PNB prétend mesurer l’évolution de la production nationale par l’intermédiaire des variations du volume total des transactions.
L’œil et l’attention des, gouvernements, des hommes d’affaires et du public sont fixés sur ce chiffre, sur lui seul. S’il augmente, c’est merveilleux ! Ne fût-ce que d’un demi pour cent, c’est mieux que rien. Une différence comme celle entre 1,5 et V % pendant le bref intervalle d’un trimestre sera considérée comme « significative ». Mais qu’y a-t-il derrière ? Il est impossible, on l’a dit plus haut, de mesurer aussi rapidement une masse d’événements aussi vaste que l’est l’ensemble de toutes les transactions ayant eu lieu dans un pays. Cela reste vrai même si l’on dispose d’ordinateurs, qui accélèrent le traitement des informations, et si l’on utilise à fond tous les autres moyens de renseignement. Mais non, on veut que ce chiffre à lui seul nous fasse savoir si le pays est en progrès ou en régression sur le plan économique.
Ce chiffre est d’ailleurs un chiffre scalaire, et non pas même un vecteur dont les composantes correspondraient aux divers secteurs de l’économie. Tout ce qui a pour résultat un accroissement des dépenses est enregistré comme une «croissance». Ce qui est curieux, c’est que les pannes du système sont inscrites à son crédit.
Si vous êtes immobilisé dans un embouteillage, vous consommez davantage d’essence, vous payez plus cher le kilomètre en taxi ; si des avions font la queue au-dessus des aéroports sans pouvoir atterrir tandis que d’autres attendant pour décoller, ou même s’il arrive une catastrophe qui entraîne des réparations, tout cela nous est comptabilisé comme un accroissement du PNB !
L’économie est trop complexe pour pouvoir être représentée par un chiffre unique. C’est comme si la croissance d’un homme depuis le biberon jusqu’à l’âge adulte était représentée par un seul chiffre qui couvrirait sa croissance physique, sa taille, son poids, ses études, son intelligence, etc. ; si minime est l’effort de réflexion requis pour apercevoir toutes ces difficultés qu’on est parfois gêné, en tant qu’économiste, vis-à-vis de physiciens ou autres, d’avoir à révéler que cet état de choses est caractéristique de la situation des sciences sociales.
Il est d’ailleurs assez curieux que la théorie des probabilités, sans laquelle la science moderne ne serait pas ce qu’elle est, tire son origine dans des phénomènes sociaux : l’étude des jeux de hasard, et l’observation de certains phénomènes économiques et mouvements de population. Après quoi cette théorie si puissante, et dont l’importance ne cesse de croître, a surtout été utilisée dans les sciences physiques, depuis le début du XIX’ siècle jusqu’à nos jours.
Dans les sciences sociales, une attitude déterministe continue de prévaloir, et c’est tout juste si l’on commence aujourd’hui à percevoir quelques indices d’un changement de perspective et de point de vue. Il n’est pas encore tout à fait admis en bonne compagnie de mettre l’accent sur l’existence d’erreurs dans les observations économiques et sociales, dans, les statistiques et dans les mesures prises, de même que naguère encore il n’était pas poli de dire que quelqu’un était mort d’un cancer : à présent, on n’hésite pas à mentionner dans les nécrologies cette cause de décès.
Si un déterminisme aussi marqué caractérise dans l’ensemble les sciences économiques, ce n’est pas seulement par crainte de regarder en face l’incertitude qui affecte leurs données, mais aussi, je crois, en grande partie pour des raisons politiques. Tout parti politique, qu’il soit marxiste ou capitaliste, tient à démontrer que ses conclusions sont définitives, que ses prévisions sur l’évolution de l’économie ou ses dithyrambes sur la façon admirable dont fonctionne le libre marché, sont solidement fondés et ne laissent pas prise au doute, ne souffrent aucune incertitude. Il va falloir changer tout cela, et l’on commence en effet à voir venir un changement.
A l’avenir, il sera certainement impossible aux sciences sociales de se développer de façon différente des sciences physiques, en ce qui concerne les exigences de rigueur scientifique et les méthodes d’analyse. Si l’observation de la nature est elle-même chargée d’incertitude, comment le monde social et économique, dans toute sa complexité, pourrait- être observé valablement d’un point de vue plus déterministe, lui qui est véritablement encastré dans l’univers naturel ?
La validité des prévisions varie évidemment selon qu’on se rend compte ou non de l’importance des incertitudes. Il est intéressant de noter que jusque dans un domaine économique où les données atteignent un maximum de précision, à savoir les cotes de la bourse, les prévisions restent notoirement incertaines. En fait, dans la plupart des situations, elles sont même impossibles.
Il se peut que ce soit dû à la structure particulière de la bourse, mais si ce grand et important marché est sujet à des variations aléatoires, comment d’autres marchés, où les renseignements sont bien plus difficiles à obtenir et chargés de bien plus d’erreurs, pourraient-ils être mieux compris ? Comment les théories pourraient-elles y posséder un pouvoir de prévisions plus grand ?
Sortir l’économétrie de son ghetto mathématique
Les économistes se trouvent vraiment devant un étrange dilemme. D’un côté, la quantité d’informations économiques s’accroît selon un taux incroyable, surtout grâce aux ordinateurs, qui permettent d’enregistrer de nombreuses activités qui échappaient autrefois à l’observation numérique. En même temps, l’économétrie, science qui vise à faire des mesures économiques véritables et à les lier ou les combiner en vue de les incorporer à une théorie, devient de plus en plus mathématique et a besoin de subir de profonds rajustements.
On a vu il y a quelques années un curieux débat : les mesures sans théorie, c’est-à-dire « impartiales », font-elles vraiment progresser la science économique, ou les théories doivent-elles précéder toute tentative de mesure ? Cela rappelait assez le vieux conflit entre l’économie comme science théorique et comme science historique, qui a débouché comme on sait sur la découverte que les deux choses ne sont pas contradictoires dans les faits : il est impossible de faire de la théorie économique sans mesures, et des mesures sans théorie ne veulent rien dire.
On peut dire que tous les progrès, dans toutes les sciences, ont été accomplis grâce à l’introduction de concepts nouveaux, et ceux- ci à leur tour ne pouvaient naître que lorsque le chercheur avait sous les yeux un grand nombre de données empiriques. C’est ce qui s’est passé pour les découvertes de Kepler, fondées sur les prodigieuses observations et mesures de Tycho-Brahé ; et aussi pour Mendel, qui commença par accumuler de longues années d’expériences de génétique.
De même, l’économétrie aujourd’hui doit relever un immense défi. Il s’agit d’élaborer une image du monde réel qui tienne compte de toutes les Incertitudes impliquées par les procédés de description. Pour ce faire, les chercheurs qui ont pour tâche d’organiser les divers aspects de cette image devront utiliser le sens commun, en même temps que certains concepts empruntés à la théorie économique devront servir de guide.
La difficulté est que les économètres sont dispersés dans de nombreux pays dont les structures économiques et sociales sont très différentes : on doit donc émettre des réserves sur la valeur des comparaisons de leurs mesures. De plus, les économies changent, tandis que les lois de la nature sont stables, du moins dans le champ d’action qui est celui de la physique, et même de la biologie.
Face à ces difficultés, il n’est pas étonnant que les économètres trouvent plus commode d’élaborer des méthodes abstraites et très raffinées que de les mettre en pratique. L’économétrie a produit un volume important d’ouvrages théoriques, mais rares sont les applications expérimentales qui permettraient d’en extraire ce dont on a, en fait, besoin : une Image de la façon dont fonctionnent réellement les systèmes économiques de différents pays.
Notons aussi que les méthodes statistiques, potentiellement très puissantes, nécessitent un appareil de données et de théories économiques dont la structure soit très rigoureuse et ne laisse passer que des erreurs minimes. Cela souligne le fait qu’une grande précision des données et des mesures n’est vraiment nécessaire ou môme utile que pour des théories très puissantes, mais il se trouve justement que la plupart des données disponibles sont de mauvaise qualité et ne sauraient servir à travailler avec les concepts plutôt raffinés que l’on tente d’instaurer et d’utiliser en théorie économique.
Il y a donc une dualité entre la structure – fine ou non – de la théorie, et la qualité des données correspondantes. Comme en physique, l’écart est considérable entre le degré de confiance qu’on peut accorder à telle information et à telle autre, entre le degré de précision d’une mesure et d’une autre. Par conséquent, les affirmations fondées sur des théories économiques sont de valeur très inégale. Malheureusement, de nos jours, et surtout dans les milieux gouvernementaux, on ne fait pas de telles distinctions, et dans les manuels scolaires pour débutants ou même pour les étudiants plus avancés, on ne trouve pas le moindre mot indiquant qu’il subsiste dans les sciences économiques des problèmes non résolus.
Cependant, ces sciences sont pleines d’énigmes encore à résoudre. Il arrive certes que des prévisions correctes soient faites, ce qui semblerait renforcer la puissance et l’exactitude de la théorie sous-jacente ; mais ce sont là des faits dont on aurait tort d’exagérer l’importance.
Même des théories fausses sont capables de prévisions exactes : témoin la théorie ptoléméenne, d’après laquelle nous pouvons calculer la date juste de la prochaine éclipse de lune tout en sachant parfaitement que la théorie est fausse. Ainsi, une prévision correcte ne prouve ni l’exactitude des observations qui l’ont précédée, ni la justesse de l’interprétation qu’on en a faite.
L’ordinateur… et la mauvaise manière de s’en servir
La découverte de l’ordinateur a évidemment une importance énorme pour les chercheurs en sciences sociales. C’est sans doute la plus grande découverte technologique de notre époque, plus importante même que la fission de l’atome. Comme, parmi les sciences économiques, il en est peu qui se prêtent à une expérimentation directe, la simulation rendue possible par l’ordinateur supplée au manque de procédés expérimentaux.
La transformation des sciences économiques par l’ordinateur; ne fait que commencer, mais on peut déjà discerner quelques grandes lignes importantes ; quelques dangers méritent une mise en garde.
Le grand mathématicien Gauss disait. « Le manque de réflexion. mathématique ne se fait jamais voir de façon aussi éclatante que dans l’excès de précision apporté à des calculs numériques. » Que dirait Gauss aujourd’hui, ou des informations insuffisamment analysées, de qualité très inégale, sont entrées pêle-mêle dans les ordinateurs pour subir des millions de multiplications, dans l’espoir qu’au bout du compte quelque résultat significatif apparaîtra ?
Tout cela repose souvent sur un petit nombre d’équations qui prétendent refléter la réalité économique ; et, à partir des calculs on fait des prévisions, qui servent de base à des décisions politiques.
Le champ des mathématiques numériques s’est énormément développé depuis l’avènement de l’ordinateur. Cependant, la plupart des ouvrages portent avant tout sur des techniques de calcul ou des procédés plus simples et plus sûrs pour résoudre les équations. Le problème qui nous occupe ici intéresse par contre la nature des relations entre les théories fondamentales d’une part, et les résultats numériques obtenue par des calculs fondés sur les modèles qu’elles ont construits d’autre part.
La théorie économique s’est très tôt posée des questions de ce genre : on se souvient du fameux passage où Pareto, dans son Manuel d’économie politique 1907 démontre que, suivant sa théorie générale de l’équilibre, pour un système contenant seulement 100 personnes et 700 produits, il n’y aurait pas moins de 76990 équations à résoudre. Chiffre énorme, et pourtant il est clair que, par rapport à la population d’un pays, 100 personnes ne constituent qu’une fraction minime.
Au lieu de résoudre les équations concernant un si petit nombre d’individus, on préfère travailler sur des agrégats, établie des modèles qui ne comprennent qu’un petit nombre de variables dont chacune couvre un grand nombre d’individus. On espère ,ainsi diminuer la difficulté, et dans un certain sans, évidemment, on y parvient. Hélas ! tout se paie, et l’évaluation des agrégats, loin d’être un procédé inoffensif, engendre à son tour des problèmes.
De la modélisation au calcul
Examinons comment envisager un calcul, quel qu’il soit, sur une grande échelle. Je me réfère ici à un ouvrage important de Von Neumann et Goldstine. Quoique leurs travaux datent d’il y a vingt-cinq ans, rien n’est venu affecter la validité de leurs résultats ni, je crois, ne pourrait le faire. Comme beaucoup de problèmes économiques sont représentés par des matrices d’un ordre élevé, comprenant plusieurs centaines de lignes et de colonnes, nous pouvons citer le problème que pose l’inversion des matrices, elle comporte quatre stades, qui occasionnent inévitablement des erreurs de types divers dont certaines, nous le verrons, d’importance primordiale.
En voici la liste :
Le problème économique, brut, à la base, ne peut être exprimé qu’au prix d’une idéalisation, d’une simplification et d’omissions. En d’autres termes, il faut construire un modèle mathématique, qui, comme les modèles dans toutes les sciences, constitue une simplification de la réalité. Je n’insiste pas sur ce point, car le problème est commun à toutes les sciences, et tout économiste est conscient qu’il simplifie, parfois de façon radicale. C’est un dilemme auquel on ne saurait échapper, et d’ailleurs une simplification n’est pas forcément néfaste.
Étant donné le succès de théories physiques telles que la théorie newtonienne de la gravitation, on voit qu’il est possible d’aller très loin même avec des simplifications grossières.
Si l’on accepte le modèle comme une image fidèle et cohérente de la réalité, on constatera que la description du phénomène choisi nécessitera des paramètres dont la valeur sera fixée par l’observation, directement ou indirectement c’est-à-dire par l’intermédiaire d’une autre théorie ou d’un calcul préalable. Ces paramètres vont donc comporter des erreurs qui, à leur tour, se retrouveront dans les résultats de tous les calculs. C’est là le point décisif. C’est à ce stade qu’interviennent les erreurs d’observation, et leur influence affecte les résultats plus gravement qu’aucune.
La formulation mathématique stricte du modèle doit être remplacée par une formulation approximative. Cela veut dire que de nombreuses opérations transcendantes telles que celles qu’impliquent des fonctions comme le sinus ou le logarithme, ou des opérations telles que l’intégration et la différenciation, ainsi que les expressions implicites, etc., que l’on trouve inévitablement dans les divers modèles utilisés en théorie économique – tout cela devra être traité numériquement.
Autrement dit, il faudra remplacer toutes ces opérations par des procédés élémentaires. De même, les processus qui convergent ou tendent vers une limite devront être interrompus à un certain endroit ou tronqués dès qu’on jugera atteindre un niveau d’approximation suffisant.
Même si l’on ne se sent pas gêné par ces trois sources d’erreurs, qui influent sur la nature des calculs et leur validité, il en reste encore une très importante dont la présence est significative.
C’est qu’aucun procédé ou moyen de calcul ne peut faire les opérations élémentaires – en tout cas pas toutes les opérations élémentaires – avec une rigueur absolue et sans fautes. Il ne s’agit pas ici des erreurs que peut commettre un ordinateur mal programmé ou qui souffre de déficiences mécaniques ou électriques. Non, c’est plus grave. Le processus de calcul lui-même comporte des traits inhérents qui lient l’exécution de toutes les opérations à l’introduction simultanée, inévitable et systématique de certains types d’erreurs.
Considérons, pour illustrer les erreurs liées au fait d’arrondir un chiffre, un ordinateur ayant une limite de capacité lui permettant de retenir disons 8 chiffres : en multipliant deux nombres de 8 chiffres, on en obtient un de 16 chiffres qu’il faudra arrondir à 8. Répétez l’opération quelques millions de fois comme c’est nécessaire dans bien des inversions de matrices et demandez-vous si le résultat final est encore valide. C’est là un problème fondamental. Quelle que soit la capacité de l’ordinateur, il vient toujours très vite un moment où il faudra arrondir, sans quoi on finirait bientôt par avoir des nombres comprenant plus de chiffres qu’il n’y a de particules dans l’univers.
En ajoutant cette difficulté au fait que les données comportent un assortiment d’erreurs diverses, on aura une idée de l’étendue du problème auquel se heurte la vulnérabilité relative de divers types de modèles à divers coefficients d’erreur. Des recherches ont démontré que certains des modèles les plus connus sont extrêmement vulnérables.
Par exemple, dans un modèle a six équations, même si le coefficient représentant les salaires est le seul où se soit glissée une erreur, mettons de 10 %, le chiffre indiquant les profits sera affecté d’une erreur de 23,4 % en trop ou de 21 % en moins si l’erreur de base est négative. Quand toutes les variables sont sujettes à l’erreur, comme c’est toujours le cas, les résultats sont encore pires. Et ce n’est là qu’une seule illustration.
Je termine ces réflexions par un simple exemple qui devrait nous inspirer à tous une salutaire prudence. Prenons le système de deux équations
x-y = 1 et x-1,00001 y = 0
Elles ont pour solution : x = 100.001, y = 100.000.
Mais les deux équations suivantes presque identiques :
x-y = 1 et x-0,999 99 y ont pour solution : x = -99 999, y = -100 000.
Les coefficients diffèrent tout au plus de deux unités à la cinquième décimale, mais les solutions diffèrent de 200.000. Est-il nécessaire de ne rien ajouter ?
-
Le passé de la SNCF resurgit au Congrès américain
Guerre du rail : quand un sénateur démocrate US instrumentalise le rôle de la SNCF dans la Shoah…
Le groupe ferroviaire français est à nouveau mis en cause pour avoir déporté des dizaines de milliers de Juifs vers les camps d’extermination pendant la Seconde Guerre mondiale.
Aux USA manifestement le retard accumulé du marché des lignes intérieures à grandes vitesses prouve que l’ouverture à la concurrence des lignes aériennes ne plaît pas à tout le monde. D’abord un Train à grande vitesse fonctionne à l’électricité tandis qu’un avion consomme beaucoup de kérosène (donc du pétrole)… L’essentiel du trafic voyageur sur des lignes inter-city longues distances est absorbé par les compagnies aériennes intérieures en situation d’oligopole. Les enjeux économiques et financiers sont donc considérables à commencer par les investissements à réaliser à l’image du budget de plus de 43 milliards de dollars de la seule ligne Los Angeles-San Francisco.
Dans ce contexte à la fois de surendettement des Etats américains, de crise économique et de guerre commerciale pour le maintien d’une position hégémonique, tous les freins pour interdire l’accès aux nouveaux entrants (essentiellement Européens, Japonais mais bientôt Coréens et Chinois) sont « bons ». Et c’est bien une offensive informationnelle qui est lancée contre l’image de la SNCF pour déstabiliser l’excellente réputation du TGV d’Alsthom.
Dans ce genre de manœuvre tous les lobbies sont mobilisés pour user des trafics d’influence afin de relancer ici un sénateur démocrate dont la campagne a vraisemblablement été « soutenue » activement par les commanditaires de ces lobbies.
De là à voir un lien avec le sabotage de l’éclisse de Brétigny- sur-Orge qui n’a fait dérailler qu’un « vulgaire train Corail », voire avec les autres accidents du rail en Espagne et en Suisse, ce serait excessif, bien sûr. Quoique pour désinformer l’opinion publique américaine si naïve sur les « dangers du rail à l’européenne » la tentation a dû être grande… sauf si les commanditaires s’étaient servis de ces compagnies aériennes pour blanchir les fruits de trafics illégaux. Mafia, non, ce serait excessif ! Je ne vais pas vous refaire l’article sur l’infiltration des mafias dans l’économie légale (de moins en moins) et les sphères du pouvoir américain.
Bertrand Plas : qui renvoie le lecteur au site du journal L’Opinion dont on trouvera ci-après l’article.
5/08/2013
Les faits
Pour la deuxième fois en deux ans, le sénateur démocrate Charles «Chuck» Schumer demande au Congrès d’autoriser des poursuites contre la SNCF pour son rôle pendant la Seconde guerre mondiale. Plusieurs procédures aux Etats-Unis n’ont pas abouti. En France non plus.
Le temps presse pour les survivants de la Shoah réunis dans la Coalition for Holocaust Rail Justice aux Etats-Unis. L’une des plus jeunes, Rosette Goldstein, a 74 ans. Pendant qu’il est encore temps, le sénateur Chuck Schumer et un groupe de parlementaires ont donc relancé au Congrès leur combat contre la SNCF de manière à lui « faire rendre des comptes devant un tribunal pour avoir envoyé plus de 75 000 juifs à la mort durant la seconde guerre mondiale », explique l’élu démocrate de l’Etat de New York.
Cela fait plus de dix ans que des accusateurs tentent, depuis les Etats-Unis, d’obtenir réparation de la compagnie ferroviaire française. En septembre 2000 puis en mars 2006, les plaignants Abrams et Freund sont déboutés par un tribunal en vertu d’une législation de 1976, la Foreign Sovereign Immunities Act (FSIA), qui assure l’immunité aux sociétés contrôlées par un Etat étranger. A l’automne 2010, le gouverneur de Californie, à l’époque Arnold Schwarzenegger, met son véto à une loi («Holocaust Bill») émanant du démocrate Bob Blumenfield. Elle visait à obliger les candidats à la construction du futur train à grande vitesse Los Angeles-San Francisco -un projet alors évalué à 43 milliards de dollars- à s’expliquer sur leur rôle éventuel dans la déportation de juifs en 1939-45. Le texte ne nomme pas la SNCF qui, pas dupe, décide de mettre ses archives à la disposition des Américains. En novembre de la même année Guillaume Pépy, le PDG du groupe en déplacement aux Etats-Unis pour présenter son projet pour la ligne Tampa-Orlando, fait part du « souhait de la SNCF d’exprimer sa profonde peine et son regret pour les conséquences de ses actes » réalisés sous la contrainte « de la réquisition ». Insuffisant, estime Chuck Schumer qui dépose en mars 2011 un premier Holocaust Rail Justice Act I, afin de reconnaître la compétence des tribunaux américains. Le texte n’est pas adopté par le Congrès, d’où sa nouvelle tentative aujourd’hui, que la SNCF se refuse à commenter ou à lier à une éventuelle guerre commerciale.
Si l’immunité américaine du groupe repose sur son statut d’entreprise publique, en France la justice raisonne différemment, pour le même résultat. Saisi par l’ancien député européen écologiste Alain Lipietz, dont le père a été déporté en mai 1944 à Drancy, le tribunal administratif de Toulouse a condamné la SNCF en 2006, mais la sentence a été infirmée en appel pour « incompétence de la juridiction administrative ». Un jugement confirmé ensuite par le Conseil d’Etat, « la SNCF, personne privée, ne pouvant pas être regardée comme (…) ayant agi dans l’exercice de prérogatives de puissance publique ».
Muriel Motte, L’Opinion.fr 04/08/2013 -
De la fiction à la dure réalité des chiffres : la France est-elle vraiment à l’abri de la faillite ?
De François Fillon à Michel Sapin, les politiques aux affaires n’hésitent pas à parler d’un état de faillite. Mais s’ils évoquent, c’est en théorie, tant l’idée leur paraît saugrenue que la France puisse dans les faits en être réduite à faire défaut. Un scénario que Gaspard Koenig n’a pourtant pas hésité à explorer dans son dernier roman, « La nuit de la faillite ». Avec un certain réalisme… et des arguments.
Atlantico : En septembre 2007, François Fillon, alors Premier ministre, déclarait déjà : « Je suis à la tête d’un État en faillite ». La situation économique actuelle du pays est-elle encore plus préoccupante qu’il n’y paraît ?
Gaspard Koenig : Ce qui est amusant, c’est que Michel Sapin a dit la même chose en janvier de cette année : « Il y a un État, mais c’est un État totalement en faillite ». Comme si en arrivant au pouvoir, les gouvernants découvraient l’étendue des dégâts : l’Etat doit rembourser autour de 150 Milliards d’euros par an (son « besoin de financement »). Pour rappel, les recettes du même Etat sont d’un peu plus de 300 Milliards d’euros par an… Même si ces chiffres ne sont pas strictement comparables, cela donne une idée de la pression qui pèse sur la France pour rembourser la dette publique, et sans cesse réemprunter pour rembourser puisque le déficit est structurel. L’Etat est en roll-over permanent, sur la brèche. Pire encore, la dette ne finance pas l’avenir, mais à 95% les dépenses de fonctionnement. On ne s’endette pas pour investir, mais pour payer nos fournisseurs… en demandant à nos enfants de régler la facture finale.
Gérard Thoris : Lorsqu’une entreprise est incapable d’honorer l’une de ses échéances, elle est obligée de déposer son bilan. Vient alors une période intermédiaire où un administrateur judiciaire examine les comptes de l’entreprise pour savoir si elle a un avenir. Lorsque la valeur des actifs est inférieure aux dettes accumulées, l’entreprise peut être déclarée en faillite. Selon la législation en vigueur, les dirigeants en place ou un repreneur extérieur peuvent faire une offre de reprise. Leur démarche est fondée sur le fait que les actifs sont susceptibles de créer de la valeur ajoutée profitable sous réserve que tout ou partie des créanciers renoncent à leur dette.
On voit donc clairement qu’il faut distinguer les flux et les stocks. C’est parce que les flux de revenus sont inférieurs aux décaissements qu’une entreprise dépose son bilan. Mais c’est parce que les stocks d’actifs ont une valeur inférieure au stock de dettes que l’entreprise est mise en faillite.
En 2007, il n’y avait aucun problème ni de flux, ni de stocks. Certes, le budget de l’État était déficitaire mais le stock de dettes publiques était parfaitement gérable. François Fillon extrapolait à partir de l’idée que l’État « n’avait jamais voté un budget en équilibre en 25 ans ». Cependant, tant que la croissance économique nominale est supérieure au taux d’intérêt nominal, les flux de revenus (impôts et cotisations sociales) permettent d’honorer facilement les intérêts de la dette. Cela suffit pour que le stock de dettes ne s’accroisse pas et il n’y a aucun problème ni de cessation de paiement, ni de faillite.
Par contre, il était clair dès cette époque que, depuis 1996, les comptes sociaux allaient à la dérive.
Les comptes publics sont-ils fiables ? Quelles sont les bombes à retardement ?
Gaspard Koenig : Instinctivement, je dirais oui, l’administration fait bien son travail pour recycler la dette et l’Agence France Trésor (AFT) qui émet la dette souveraine. Ce sont les politiques qui sont collectivement coupables de n’avoir pas entendu les multiples rappels à l’ordre (dont le fameux de Michel Pébereau en 2004) et de ne jamais avoir considéré le sujet comme une priorité (la France n’a pas eu un budget à l’équilibre depuis quarante ans). A force de mettre la poussière sous le tapis, le tapis va s’envoler.
Notons néanmoins une vraie limite à la fiabilité des comptes : les engagements « hors bilan » ne sont pas comptabilisés (garanties souveraines, régimes sociaux, retraites, etc.). Ainsi le besoin de financement annuel réel monte à 350 Milliards d’eruros selon le FMI, en prenant en compte l’ensemble des administrations publiques et de la dette sociale.
Gérard Thoris :Le bilan le plus inquiétant est aussi le bilan le mieux caché. Il s’agit du déséquilibre des comptes sociaux. En 1996, Alain Juppé invente la Caisse d’amortissement de la dette sociale (CADES). A l’époque, tout le monde fut content car il s’agissait de faire payer le déficit de la Sécurité sociale par les générations futures. Pas besoin d’augmenter les charges sociales et de jouer une nouvelle fois le psychodrame de savoir si ce sont les salariés ou les employeurs qui devraient en supporter la charge. On devrait savoir une fois pour toutes que ce sont toujours les salariés qui paient, sous la forme de perte de pouvoir d’achat s’ils ont un emploi, sous la forme du chômage s’ils le perdent du fait de coûts salariaux unitaires supérieurs à ceux des concurrents étrangers.Mais, rétrospectivement, la création de la CADES est le premier moratoire de la France, organisé par elle-même pour elle-même. Lorsqu’une entreprise dépose le bilan, l’une des solutions possibles consiste en effet à obtenir des banquiers qu’ils allongent la durée des prêts pour diminuer le poids présent de l’amortissement de la dette. C’est bien ainsi que fonctionne la CADES. D’où l’intérêt de voir où l’on en est. Crée en 1996 pour 13 ans, la CADES sera théoriquement éteinte en 2025. A l’origine, elle devait amortir 44,7 Milliards d’euros en 13 ans ; aujourd’hui, sa capacité d’endettement a été portée à 234,6 Milliards d’euros (1).
Il ne s’agit pas, à proprement parler, de hors bilan puisque la dette portée par la CADES est intégrée dans la dette publique. Mais il s’agit d’un exemple prototypique de dette sans collatéral. Normalement, une dette sert à acquérir des actifs qui permettent d’assurer l’amortissement du prêt. Ici, la dette est constituée pour payer des dépenses courantes (soins de santé, prestations de retraite) dont le potentiel de croissance disparaît dans l’acte même de la prestation de service. A ce titre, la réforme des retraites vise d’abord à arrêter la création de dettes sans collatéraux.
Par contre, un bilan bien construit devrait constituer des provisions pour des risques futurs de dépréciation d’actifs. C’est le sens de l’exercice d’évaluation de la soutenabilité de la dette publique auquel la Commission européenne se livre régulièrement. L’exercice réalisé en 2009, avant que la crise économique ne produise ses effets en termes de croissance économique, supposait que la France fasse un effort budgétaire de 5,5 points de PIB pour financer les dépenses liées au vieillissement de la population tout en stabilisant la dette à horizon 2060. Cet exercice d’école n’est plus de mise, on s’en doute bien !
La France a tendance à considérer que la faillite est impossible. Les arguments généralement avancés en ce sens tiennent-ils ?
Gaspard Koenig : De quelles réserves insoupçonnées la France disposerait-elle ? Le gaz de schiste ? Cette illusion de l’infaillibilité est peut-être ce qu’il y a de plus grave et de plus impardonnable. On ne s’imagine jamais, faute d’imagination, que la digue du barrage peut céder. Et quand elle cède, ce sont des populations entières qui sont englouties.
N’oublions pas que notre dette est détenue à 2/3 par des étrangers, ce qui nous a permis de bénéficier de taux d’intérêt très avantageux. L’État n’a pratiquement aucun moyen de pression sur eux. Ils sont libres d’acheter aujourd’hui… et de vendre demain. L’État ne pourra pas, lui, brader du jour au lendemain ses actifs.
Suite de l’interview sur Atlantico.fr
-
Notes secrètes de Thatcher : Kohl a voulu réduire de moitié le nombre des Turcs en Allemagne
Des documents confidentiels britanniques déclassifiés révèlent que, en 1982, le chancelier allemand Helmut Kohl avait essayé de réaliser un projet radical. Il voulait réduire de 50% en quatre ans le nombre de Turcs vivant en Allemagne.
Claus Hecking, journaliste à Spiegel online international, rappelle cette tentative sans lendemain.
En haut du document, d’une dactylographie très serrée, on lit «Secret». En dessous, un fonctionnaire a ajouté une note manuscrite : « À ne pas diffuser »
Il s’agissait d’un projet controversé que le chancelier allemand nouvellement élu, Helmut Kohl, avait confié au premier ministre britannique Margaret Thatcher lors de la visite de cette dernière à Bonn, alors capitale ouest-allemande. « Le chancelier Kohl a dit (…) qu’au cours des quatre prochaines années il serait nécessaire de réduire le nombre de Turcs en Allemagne de 50% – mais il ne pouvait pas encore le proclamer publiquement », lit-on dans les minutes secrètes de la réunion du 28 octobre 1982.
On lit encore : « Il est impossible pour l’Allemagne d’assimiler les Turcs dans leurs effectifs actuels. » Seules quatre personnes se trouvaient dans la pièce à l’époque : Kohl, son conseiller de longue date Horst Teltschik, Thatcher et son secrétaire particulier AJ Coles, auteur du document.
Le dossier, étiqueté « PREM 19/1036 », a des odeurs de moisi. Pendant trois décennies, les comptes rendus des réunions de 1982 et de 1983 entre Kohl et Thatcher ont été mis sous scellés, inaccessibles au commun des mortels. Mais maintenant que la période de confidentialité a expiré, les Archives nationales britanniques les a rendus accessibles au public.
Les minutes de la réunion avec Thatcher montrent comment Kohl prévoyait de faire quitter l’Allemagne à des centaines de milliers de Turcs. Mais elles révèlent également combien les rapports entre les Allemands et leurs compatriotes turcs se sont améliorés au cours de ces trois dernières décennies. Car aux yeux des Allemands d’aujourd’hui, le consensus social, dans l’Allemagne de l’Ouest de Kohl, semblait apparemment bien ancré à droite.
« Pas de problèmes avec les Portugais »
D’après le document, Kohl voulait voir partir les Turcs. « L’Allemagne n’avait aucun problème avec les Portugais, les Italiens et même les Asiatiques du Sud-Est, parce que ces communautés s’étaient bien intégrées », écrivait Coles, secrétaire du chancelier et rédacteur du compte rendu, qui n’était en fonction que depuis quatre semaines. « Mais les Turcs sont issus d’une culture très particulière et ne s’intègrent pas bien. […] L’Allemagne a intégré quelque 11 millions d’Allemands provenant des pays d’Europe de l’Est. Mais c’étaient des Européens et ils ne posaient donc aucun problème. »
Kohl voyait, dans les mariages forcés et les emplois illégaux des Turcs, des exemples de « choc de deux cultures différentes ». Une personne sur deux doit partir, disait le chancelier, et pour ceux qui restent il faudra leur fournir une scolarisation spéciale. « Ceux qui devaient être intégrés devront apprendre l’allemand. »
Ce natif de Rhénanie n’avait apparemment pas une trop bonne opinion des immigrants en provenance de l’Anatolie turque, qui constituaient la plus grande partie de ce qu’on appelle les travailleurs invités. À l’époque où Kohl n’était qu’un chef de parti d’opposition (Union chrétienne-démocrate – centre-droit) – aujourd’hui parti de la chancelière Angela Merkel – il les décrivait comme « incapables de s’intégrer et, d’ailleurs, ne voulant pas s’intégrer. » Et dans son premier discours de politique générale, deux semaines avant la rencontre avec Thatcher, il avait dit : « L’intégration n’est possible que si le nombre d’étrangers vivant parmi nous n’augmente pas. » Mais Kohl avait dissimulé son projet spécifique consistant à se débarrasser d’un Turc sur deux dans les quatre ans, bien que le scandale dans le public eût probablement été limité à l’époque.
La peur d’être submergés
« À l’époque, le consensus social en Allemagne était que les Turcs étaient des travailleurs invités et qu’ils devraient retourner chez eux », a déclaré au SPIEGEL ONLINE l’historien et auteur de Freiburg Ulrich Herbert. Cette opinion ne se limitait pas aux partis politiques de droite comme le CDU de Kohl, mais « elle avait profondément pénétré le SPD », a-t-il ajouté, faisant référence au Parti social-démocrate de centre-gauche. Holger Börner, membre du SPD, qui à l’époque était gouverneur de l’Etat central de la Hesse, avait déclaré que l’afflux des étrangers devait être « purement et simplement stoppé ». Le prédécesseur de Kohl, le social-démocrate Helmut Schmidt, aurait dit, à l’été 1982 : « Plus aucun Turc ne franchira la frontière ». Son chef de cabinet, Hans-Jürgen Wischnewski, se moquait des musulmans qui « débitaient leurs moutons dans leur baignoire ».
Bien des Allemands commençaient à en avoir assez d’avoir une telle population de travailleurs invités. En 1973, 12 ans seulement après la signature de l’accord sur l’immigration avec Ankara, le gouvernement de coalition s’est mis d’accord sur l’arrêt des recrutements en Turquie. Pourtant, le nombre de Turcs en Allemagne a continué d’augmenter, car les femmes et les enfants ont rejoint leurs hommes chefs de famille et, après le coup d’État à Ankara, il y eut de plus en plus de demandes d’asile. En 1982, environ 1,5 million de Turcs vivaient en Allemagne. Et le pays avait ses propres problèmes à traiter : après le deuxième choc pétrolier du début des années 1980, l’économie allemande a commencé à s’effondrer à un rythme sans précédent depuis la Seconde Guerre mondiale. En 1982, 1,8 million de personnes étaient au chômage – six fois plus qu’en 1973.
Beaucoup de citoyens allemands ont commencé à considérer les immigrés comme des lourdes charges sur le système de protection sociale et comme des concurrents pour les emplois qui leur revenaient. Une enquête de 1982 menée par l’institut de sondage Infas a révélé que 58% des Allemands voulaient réduire le nombre d’étrangers dans le pays. « Les politiciens de Bonn ont été submergés », a déclaré Herbert. « Ils avaient peur d’être submergés par les Turcs et voulaient se débarrasser d’eux. Mais ils ne savaient pas comment. »
Kohl a tenté de s’en tirer en usant de son outil politique préféré : l’argent. « Il projeta de capitaliser les paiements d’assurance (sociaux) que les travailleurs turcs avaient versés et de leur donner une somme forfaitaire », lit-on dans le journal de Thatcher. En effet, en 1983, le gouvernement de centre droit a approuvé une loi prévoyant une aide limitée aux étrangers pour qu’ils retournent dans leur pays d’origine. Bonn espérait qu’un paiement unique de 10.500 marks et le remboursement de leurs prestations d’assurance-retraite inciteraient les Turcs à rentrer chez eux. Mais le programme fit un fiasco. « Environ 100.000 Turcs seulement partirent », a déclaré Herbert. Dans le même temps, des dizaines de milliers de demandeurs d’asile ont continué à venir en Allemagne.
Évolution radicale de Kohl
Au fil des années, les relations entre Allemands et Turcs s’améliorèrent.Une nouvelle génération de Turcs avait grandi en Allemagne, beaucoup d’entre eux parlant couramment l’allemand et s’intégrant bien à la culture dominante. Après avoir assisté à la brutalité des émeutes xénophobes dans les années 1990 à Rostock, Solingen et Hoyerswerda, de nombreux Allemands ont développé un sens de solidarité avec les étrangers, ce qui favorisa l’intégration tout autant que les réformes en politique d’mmigration du gouvernement de centre-gauche qui succéda, a déclaré Herbert. « Le consensus sociétal avait changé. »
Kohl, lui-même, modifia ses positions de façon encore plus radicale. En 1993, il s’opposa à bien des membres de son propre parti en se prononçant en faveur de l’octroi automatique de la nationalité allemande à des « étrangers » de la troisième génération – les enfants nés en Allemagne, dont les grands-parents avaient immigré. Les immigrants avaient contribué « énormément au bien-être des Allemands et avaient participé à assurer leur retraite », déclarera plus tard le chancelier. En 2000, Kohl se rendit à Istanbul pour assister au mariage de son fils Peter à une banquière turque. Toutefois, il a toujours du mal à voir la Turquie comme membre à part entière de l’Union européenne. Tout comme c’est le cas pour la Dame de fer d’aujourd’hui, Angela Merkel.
Claus Hecking, Spiegel Online International, 1/08/2013
Traduction de l’anglais pour Polémia : René Schleiter
Titre original : Secret Thatcher Notes: Kohl Wanted Half of Turks Out of Germany -
Mineurs étrangers en France : l’alerte de Jean Arthuis
LAVAL (NOVOpress) – Jean Arthuis, le président du conseil général de Mayenne (UDI) veut mettre fin à tout nouvel accueil de mineurs isolés étrangers dans le département. Un arrêté du 24 juillet signé par le sénateur et ancien ministre met fin « à tout nouvel accueil de jeunes étrangers isolés par le service de l’aide sociale à l’enfance » dans la Mayenne. Pour Jean Arthuis, cet arrêté est « une alerte adressée au gouvernement car nous sommes arrivés à saturation » en matière d’accueil d’étrangers.
« Le problème rencontré ici est la saturation des lieux d’hébergement. Il y a 5 ans, j’en recevais cinq par an, aujourd’hui 57 », a déclaré Jean Arthuis à l’Express. Le président du conseil général de Mayenne précise les coûts aux frais du contribuable : « La prise en charge coûte entre 130 et 150 euros par jour. Pendant les 5 premiers jours, l’État rembourse à hauteur de 250 euros ». Selon lui, face à ce déferlement de déracinés « l’État refuse de s’attaquer au problème par le bon bout. Il s’évertue à s’attaquer à la répartition entre les départements, alors que selon moi, le problème, c’est plutôt le contrôle de l’immigration ».
Les ministres de la Justice, Christiane Taubira et de l’Intérieur, Manuel Valls, ont « déploré » mardi la décision « illégale » de Jean Arthuis. « L’Etat ne saurait accepter de distinguer les mineurs accueillis en fonction de leur nationalité », affirment les ministres. Une prise de position de nouveau en faveur de l’invasion migratoire alors que les Français, au nom du respect de leur identité, de leur sécurité et d’une grave crise économique, ne peuvent accueillir toute la détresse du monde.