Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

économie et finance - Page 814

  • Argent, privilèges : révélations sur le train de vie des députés (vidéo)

    Les députés touchent 23 600 € brut/mois, salaire et indemnités confondus.
      Àcela il faut encore ajouter la prise en charge intégrale des déplacements en train et taxi par l’Assemblée nationale.

    • Sommes en brut
    • Salaire : 7 100 € / mois
    • IRFM (loyer, réception, habillement, coiffeur) : 6 412 €/mois
    • Communications téléphoniques : 416 € max / mois
    • Rémunération des collaborateurs : 9 138 €/ mois
    • Déplacements en train et taxi pris en charge par l’Assemblée.

    L’IRFM coûte 45 millions par an aux Français. Elle permet également aux députés de financer un bien immobilier et d’en devenir propriétaire à la fin de leur mandat.

    http://www.fdesouche.com

  • États-Unis : La pauvreté montre majoritairement un visage blanc

    Traduction exclusive d’un article du Daily Mail publié le 28 juillet. L’intégralité de cette traduction a été réalisée par nos lecteurs: France Forever, Petokask, wisewhite et Yarr. Tous nos remerciements pour leur excellent et très rapide travail.

    Certaines zones rurales ont des taux de pauvreté avoisinant les 99% La pauvreté chez les Blancs est en augmentation. 63% des Blancs pensent que le niveau économique dans lequel ils vivent est “faible”. Aux alentours de 2030, près de 85% de toute la population en âge de travailler aux États-Unis vivra l’insécurité économique sous un aspect ou un autre.

    Quatre adultes américains sur cinq font face au chômage, à la précarité ou comptent sur les aides sociales pour les dernières parties de leurs vies, c’est le signe de la détérioration de la sécurité économique et de l’érosion du “Rêve Américain”.

    Les difficultés de vie augmentent particulièrement chez les Blancs, c’est ce qu’établissent plusieurs indicateurs. Le pessimisme au sein de ce groupe racial à propos de l’avenir économique de leurs familles a grimpé à son plus haut depuis 1987.

    Ce sondage exclusif de The Associated Press pointe une économie américaine en état de mondialisation permanente, un fossé qui se creuse entre les riches et les pauvres, et la disparition des emplois manufacturiers bien rémunérés comme causes à cette tendance générale.

    Ces nouvelles surviennent alors que le Président Barack Obama œuvre à raviver l’enthousiasme de son administration sur l’économie, affirmant dans de récents discours que sa plus haute priorité est de “rebâtir les cordées de l’emploi”, et de réduire les inégalités de revenus.

    Au moment où les non-Blancs approchent de la majorité numérique aux États-Unis, une des questions est de savoir comment faire pour que les programmes publics d’aides aux plus désavantagés soient mieux ciblés sur la discrimination positive, qui a depuis ses débuts visé à éliminer les barrières raciales, considérées comme le principal obstacle à l’égalité économique, ou simplement sur l’amélioration du statut socio-économique pour tous, sans tenir compte de la race.

    Je pense que cela ne va faire qu’empirer” affirme Irene Salyers, 52 ans, du Comté de Buchanan, en Virginie, une région productrice de charbon dans les Appalaches qui est en plein déclin. Mariée et divorcée trois fois, Salyers s’emploie maintenant à faire tourner un commerce de fruits et légumes avec son compagnon, mais cette activité ne génère guère de revenus.

    Ils vivent principalement de l’aide gouvernementale aux défavorisés. “Si vous vous mettez à la recherche d’un emploi, il n’y a plus de recruteurs, et ils ne payent même pas assez pour pouvoir se rendre au travail. Dans un contexte pareil les enfants, précise-t-elle, n’ont rien d’autre à faire que de tomber dans la drogue.

    Alors que les minorités ethno-raciales sont plus susceptibles de vivre dans la pauvreté, des données de recensement montrent que les disparités raciales dans le taux de pauvreté se sont substantiellement réduites depuis les années 1970.

    L’insécurité économique chez les Blancs est également plus répandue que ce qu’en montrent les chiffres de la pauvreté du gouvernement, touchant plus de 76% des adultes blancs arrivant vers 60 ans, à en croire une à nouvelle étude qui sera publiée l’année prochaine par l’Oxford University Press.

    Selon cet indicateur, la définition de l’”insécurité économique” correspond à : un an ou plus de chômage périodique, le recours aux aides gouvernementales telles que les ticket de rationnement (ou nourriture), un revenu au-dessous de 150% du seuil de pauvreté. Mesuré sur toutes les races, le risque d’insécurité économique atteint 79%.

    Les mariages sont en baisse dans tous les groupes raciaux, et chez les Blancs, le nombre de familles monoparentales gérées par la mère est désormais au même niveau que celui des Noirs.

    Il est temps pour l’Amérique de comprendre que beaucoup des plus grandes disparités de la nation, de l’éducation et l’espérance de vie à la pauvreté, sont de plus en plus dues au niveau de classe économique” indique William Julius Wilson, professeur à Harvard, spécialisé dans les races et la pauvreté.

    Il note que malgré des difficultés économiques soutenues, les minorités sont plus optimistes sur leur avenir après l’élection d’Obama, alors que les Blancs vivant dans la précarité n’en font rien.

    Il y a un vrai risque que l’aliénation des Blancs augmente si des mesures ne sont pas prises pour mener la lutte contre les inégalités sur un front commun“, affirme Wilson.

    À l’échelle nationale, le nombre des Américains pauvres atteint un record : 46.2 millions de personnes, soit 15% de la population, chiffre en partie dû à un chômage élevé persistant qui suit la récession. Bien que les taux de pauvreté chez les Noirs et les Hispaniques soient près de trois fois plus hauts, en chiffres absolus la pauvreté aux États-Unis montre majoritairement un visage blanc.

    Plus de 19 millions de Blancs sont en-dessous du seuil de pauvreté de 23,021$ (17.367€) pour une famille de quatre, ce qui fait plus de 41% des déshérités de la nation, près du double du nombre que l’on obtient chez les Noirs.

    Parfois appelés ‘les pauvres invisibles’ par les démographes, les Blancs disposant de faibles revenus sont dans l’ensemble dispersés aussi bien dans les banlieues [note du traducteur : aux États-Unis, la banlieue est l’inverse de chez nous, en matière d’attractivité et de dotations] que dans les petites villes rurales, où plus de 60% des pauvres sont blancs.

    Concentrés dans les Appalaches à l’Est, ils sont nombreux dans le Mid-Ouest industriel et s’étendent à travers tout le cœur de l’Amérique, du Missouri, de l’Arkansas et de l’Oklahoma jusqu’aux Grandes Plaines.

    Le Comté de Buchanan, dans le Sud-Ouest de la Virginie, compte parmi les Comtés les plus déshérités du pays d’après le revenu moyen, avec une pauvreté culminant à 24%. Le Comté est majoritairement blanc, tout comme le sont 99% de ses pauvres.

    Plus de 90% des habitants du Comté de Buchanan sont des travailleurs blancs non-titulaires d’une Licence (College Degree). L’enseignement supérieur n’a pendant longtemps pas été considéré comme essentiel à l’obtention d’un emploi, car les emplois miniers, bien payés, et ceux entourant ce domaine d’activité étaient autrefois abondants. Aujourd’hui, nombre des résidents du Comté vivent de petits boulots et d’aides gouvernementales.

    La fille de Salyers, Renee Adams, 28 ans, qui a grandi dans cette région, a deux enfants. Mère célibataire sans emploi, elle s’appuie pour vivre sur les pensions d’invalidité de son compagnon, avec lequel elle vit. Salyers raconte qu’il lui a été ardu d’élever ses enfants, tout comme ça l’est pour sa fille actuellement, et ne veut même pas imaginer ce qu’il en sera pour ses petits-enfants, âgés de 4 et 5 ans.

    Fumant une cigarette devant son magasin, Renee Adams finit par exprimer son souhait de voir les employeurs regarder au-delà de sa condamnation, il y a quelques années, pour avoir vendu des anesthésiants prescrits, afin qu’elle puisse obtenir un emploi et gagner de l’argent pour pouvoir ‘acheter aux enfants tout ce dont ils ont besoin.’

    C’est dur de vivre“, dit-elle. ‘Une fois qu’on a payé les factures, il doit nous rester 10$ en tout.’

    Les chiffres du recensement fournissent une mesure officielle de la pauvreté, mais ils ne sont qu’un cliché (au sens photographique du terme, qui me semble le mieux refléter le terme “snapshot”) temporaire, qui ne prend pas en compte ceux qui se débattent avec la pauvreté et y entrent ou en sortent à différents moments de leurs vies. Comme les banlieusards, par exemple, ou ceux qui ont un travail, mais sont pauvres, ou les licenciés.

    En 2011, cet instantané montrait que 12,6% des adultes en âge de travailler, entre 25 et 60 ans, vivaient dans la pauvreté. Mais, mesuré à l’échelle de la prise de risque d’une vie humaine, c’est un nombre beaucoup plus grand – 4 adultes sur 10 – qui bascule dans la pauvreté pendant au moins un an de sa vie.

    Les risques de pauvreté ont également augmenté au cours des dernières décennies, particulièrement pour les personnes âgées entre 35 et 55 ans, statistique coïncidant avec un élargissement des inégalités de revenus. En illustration, dans la période 1969-1989, les personnes âgées entre 35 et 45 ans avaient un risque de tomber dans la pauvreté de 17% ; ce risque s’est élevé jusqu’à 23% dans la période 1989-2009. Pour les personnes âgées entre 45 et 55, le risque de pauvreté a bondi de 11.8% à 17.7%.

    Et les nouveaux chiffres du chômage, toujours en augmentation, signifient que le risque de vivre dans l’insécurité économique au cours de sa vie est à présent encore plus grand : 79%, soit 4 adultes sur 5, jusqu’à 60 ans.

    Si l’on examine les chiffres en fonction de la race, les non-Blancs ont toujours un risque plus haut de vivre dans l’insécurité économique, 90%. Mais comparés avec le taux officiel de pauvreté, les plus grandes chutes sous la nouvelle mesure [du seuil de pauvreté] se font parmi les Blancs, avec plus de 76% d’entre eux endurant des périodes de chômage, de dépendance aux aides sociales ou de précarité.

    Aux alentours de 2030, si l’on se base sur la tendance actuelle de creusement des inégalités de revenu, près de 85% des adultes de tous âges aux États-Unis vivront une insécurité économique sous l’un de ses aspects à un moment ou à un autre.

    La pauvreté n’est plus uniquement un problème qui `les’ concerne, mais un problème qui `nous’,” déclare Mark Rank, professeur à la Washington University de St. Louis, qui a calculé ces chiffres. “Ce n’est que lorsque la pauvreté est pensée comme un phénomène public, plutôt que comme un phénomène marginal qui n’affecte que les Noirs et les Hispaniques, que l’on peut véritablement commencer à construire un vaste mouvement en faveur des programmes qui soutiennent les gens qui sont dans le besoin.

    Les chiffres découlant de l’analyse Rank sont ceux qui seront publiés par l’Oxford University Press. Ils seront complétés par des interviews et des statistiques fournies à l’AP par Tom Hirschl, professeur à l’Université de Cornell ; John Iceland, professeur de sociologie à l’Institut Carsey de l’Université du New Hampshire ; le Bureau du Recensement des États-Unis ; et le Bureau de Référence de la Population.

    Parmi les découvertes :

    -Pour a première fois depuis 1975, le nombre des foyers blancs gérés par des mères seules vivant dans la pauvreté et avec des enfants a surpassé ou égalé celui des foyers noirs durant la dernière décennie, aiguillonné par les pertes d’emploi et les taux en augmentation de naissances hors-mariage chez les Blancs. Les familles blanches gérées par la mère seule dans un état de pauvreté se sont hissées à presque 1.5 millions en 2011, un chiffre comparable à celui des Noirs. Les familles pauvres hispaniques gérées par la mère seule viennent derrière à 1.2 millions.

    -Depuis 2000, le taux de pauvreté dans les classes actives blanches a augmenté plus vite que dans les classes actives non-blanches, montant de 3 points pour atteindre 11% en même temps que la récession présentait un bilan plus lourd parmi les travailleurs à bas salaire. Malgré cela, la pauvreté chez les travailleurs non-blancs reste la plus haute, à 23%.

    -La part des enfants vivant dans les quartiers très pauvres – ceux où la pauvreté atteint 30% ou plus – a augmenté de 1 à 10, les mettant face à un risque plus grand de grossesse juvénile ou d’expulsion de leur école. Les Blancs non-hispaniques comptent pour 17% de la population infantile (ou enfantine, je ne suis pas sûr du terme exact) dans de tels quartiers, elle était de 13% en 2000, même si la proportion globale d’enfants blancs dans les États-Unis a baissé.

    La part des enfants noirs dans les quartiers très pauvres a baissé de 43% à 37%, pendant que la part d’enfants latinos passait de 38% à 39%.

    -Les disparités raciales dans la santé et l’éducation se sont réduites depuis les années 1960. Bien que la ségrégation résidentielle demeure élevée, une personne noire typique habite aujourd’hui dans un quartier dont la population n’est pas à majorité noire.

    De précédentes études avaient montré que la richesse est un indicateur à la réussite aux tests standardisés plus important que la race ; le fossé des résultats audit test entre les étudiants riches et ceux à faible revenus est à présent presque le double de celui entre les Blancs et les Noirs.

    Depuis années 1980, les Blancs n’ont jamais été aussi pessimistes quant à leur avenir, à en croire General Social Survey (Sondage Général Social, en français), un sondage biannuel mené par le NORC (National Opinion Research Center) à l’Université de Chicago. Seuls 45% pensent que leur famille a de bonnes chances d’améliorer sa situation économique au train où vont les choses aux États-Unis.

    Cette division est particulièrement évidente parmi ceux des Blancs qui s’identifient comme des travailleurs. 49% disent qu’ils pensent que leurs enfants feront mieux qu’eux dans la vie, à comparer aux 67% de non-Blancs qui se considèrent comme étant des travailleurs, même si la situation des minorités empire.

    Bien qu’ils soient un groupe numériquement en diminution, les travailleurs blancs – définis comme ceux ne possédant pas de Licence – demeurent le plus gros bloc démographique de la population active. En 2012, des sondages organisés à la sortie de l’Election Day (jour dévolu aux élections à toutes les charges publiques, du shériff au Président en passant par le Maire et les Représentants) ont montré que les travailleurs blancs constituaient 36% de l’électorat, même avec une baisse notable de la mobilisation électorale chez les Blancs.

    En novembre dernier, Obama n’a gagné les votes que de 36% de ces Blancs non-diplômés, le pire résultat enregistré dans ce groupe par un candidat démocrate depuis la victoire en raz-de-marée électoral du républicain Ronald Reagan sur Walter Mondale en 1984.

    Certains analystes démocrates ont exhorté à faire des efforts en faveur de ces travailleurs blancs afin de les ramener dans leur giron électoral, les appelant un “pivot électoral de votants” potentiel, si la participation des minorités et des jeunes devait baisser aux prochaines élections.

    En 2016 la communication du GOP (Grand Old Party, le Parti Républicain) sera bien davantage axée sur les préoccupations concernant la `classe moyenne’ et les `Américains moyens,’” écrivaient récemment Andrew Levison et Ruy Teixeira dans The New Republic.

    Ils ne font pas confiance au gouvernement, mais cela ne veut pas dire qu’ils ne veulent pas de gouvernement“, affirme le sondeur électoral républicain Ed Goeas, qui pense lui aussi que les travailleurs blancs demeureront un groupe électoral important.

    *Son étude a montré que nombre d’entre eux soutiendraient des programmes anti-pauvreté à condition qu’on les dirige sur l’apprentissage et les investissements dans les infrastructures. La semaine dernière, Obama a renouvelé son engagement à aider les manufactures à ramener les emplois aux États-Unis et à créer des emplois dans les secteurs énergétiques du solaire, de l’éolien et du gaz naturel.

    Ils ont l’impression que les politiciens prennent soin des autres et pas d’eux“, ajoute Goeas.

    Daily Mail  http://fortune.fdesouche.com

  • « Au bord du gouffre / La faillite annoncée du système de l’argent » d’Alain de Benoist

    Sous ce titre, Alain de Benoist publie à propos de la crise contemporaine une analyse incisive et peu complaisante du capitalisme. Les débouchés, dit-il, sont le problème éternel du capitalisme. Après la phase initiale qui a vu les salaires soumis à une très forte pression, au XIXe siècle surtout, ce problème a pu être résolu un temps par le fordisme : on a alors globalement et progressivement relevé le niveau des salaires de manière à soutenir la consommation. Mais…
    Mais après la période des Trente Glorieuses est survenue une baisse tendancielle de la profitabilité des investissements et, d’une certaine manière, on a abandonné le fordisme pour revenir à la phase initiale se caractérisant par une pression sur les coûts salariaux propre à restaurer la profitabilité.
    La question des débouchés s’est alors posée à nouveau de manière aiguë. L’auteur énumère trois moyens propres à y répondre : premièrement, augmenter la durée du travail (le lecteur rapprochera sans doute ce moyen de l’exhortation à « travailler plus pour gagner plus »), avec tous les effets pervers qui s’ensuivent sur la vie personnelle des salariés ; deuxièmement, rechercher une main-d’œuvre moins chère et « peu revendicative », ce qui incite à recourir à l’immigration et aux délocalisations ; et enfin troisièmement, faciliter le crédit dans des proportions éventuellement imprudentes pour favoriser la consommation.
    On touche ici au risque fondamental : un excès déraisonnable de crédit. Alain de Benoist replace ainsi dans une perspective plus générale l’événement ponctuel qui a déclenché une crise mondiale dont le système était gros : l’endettement des ménages américains par les prêts hypothécaires et l’impossibilité où ils étaient de rembourser ces « crédits pourris ».
    L’auteur retrace alors tous les facteurs qui ont concouru et concourent encore à l’endettement général, au premier rang desquels la dérégulation globale, souhaitée par la pensée libérale.
    Sur le plan privé, l’énorme endettement des ménages américains finit par affecter les finances mondiales et les banques par le biais de la titrisation. Sur le plan public la surémission de monnaie par la FED qui facilite cet endettement a lui aussi des répercussions en raison de la prééminence du dollar. Celui-ci, en effet, est jusqu’à un certain point une monnaie mondiale dont la gestion dépend d’un seul pays (gestion qui, depuis 1971, échappe à la contrainte de la convertibilité). Les autres pays sont obligés d’acheter du dollar pour éviter des déséquilibres majeurs de sorte que les Etats-Unis peuvent mener une politique budgétaire acceptant des déficits eux-mêmes majeurs. Alain de Benoist évalue leur endettement total à 340% de leur PIB.
    Et il montre comment la dette publique des Etats n’est pas seulement due à la légèreté de la gestion par les politiques, mais aussi aux plans de sauvetage des banques privées. « Au total, les quatre principales banques centrales mondiales (FED, BCE, Banque du Japon, Banque d’Angleterre) ont injecté 5.000 milliards de dollars dans l’économie mondiale entre 2008 et 2010… En s’endettant massivement pour sauver les banques, les Etats ont permis aux banques de se relancer dans les mêmes activités qui avaient abouti à les mettre en péril ».
    On arrive ainsi à la formule de Maurice Allais qui prévoyait « l’effondrement général d’une économie mondiale reposant sur une pyramide de dettes ».
    Alain de Benoist critique vivement les oligarchies financières qu’il accuse d’avoir conçu le moteur de la crise présente : l’excès de crédit, lui-même motivé par une âpreté extraordinaire au gain. Il traite aussi les autres aspects du sujet : les délocalisations, qui appauvrissent les pays émetteurs sans enrichir les pays recevant (sinon chez ceux-ci, une mince couche de privilégiés) ; l’immigration, qui est l’arme du capital, qui pèse sur les salaires et que les politiques encouragent sans se préoccuper outre mesure des conséquences sociologiques ; l’extraordinaire aggravation des inégalités sociales, qui voit les classes inférieure et moyenne pénalisées au profit d’une hyperclasse aux revenus « faramineux » et de sociétés aux bénéfices énormes.
    Il faut enfin faire mention spéciale du libre-échangisme comme motif initial de la crise actuelle : l’auteur montre que le recours massif au crédit (qu’il situe dans les années 1980) fut une réponse du capitalisme à une baisse tendancielle du taux de profit. On peut ajouter que l’origine de cette baisse se situe dans les années 1970, époque où l’on voit avec un faible décalage dans le temps, d’une part, la mise en place du libre-échangisme mondial (la négociation Kennedy a pris fin en 1969) et, d’autre part, la fin de la prospérité des « Trente Glorieuses ». On notera que le libre-échange, âprement et à juste titre dénoncé par l’auteur, est lui-même fruit dans le domaine économique d’un mouvement de pensée plus général : l’idéologie cosmopolite devenue dominante à partir de 1945.
    En conclusion, on peut tenir le livre Au bord du gouffre pour un ouvrage brillant et instructif, même si certains lecteurs y trouveront quelques excès.
    Pierre Milloz , 29/06/2012 http://www.polemia.com
    Note de la rédaction de Polémia :
    Les points de vue d’Henry de Lesquen et d’Alain de Benoist sont généralement assez éloignés, notamment en matière économique. On observera toutefois une convergence d’analyse sur le rôle de l’excès de crédit comme amplificateur de la crise. Nos lecteurs peuvent utilement se reporter à ce texte d’Henry de Lesquen : Les raisons de la crise économique : les éclairages de l’école autrichienne.
    En 1972, sous la signature de Michel Norey, la revue Nouvelle Ecole avait de son côté souligné l’importance de l’école autrichienne dans son numéro consacré aux théories économiques.

  • En Europe, la gouvernance économique a surtout besoin d'une gouvernance politique

    Ex: http://www.newsring.fr/

    François Hollande a proposé l'instauration d'un gouvernement économique de la zone euro lors de la deuxième conférence de presse de son quinquennat, le 16 mai 2013. Pour Laurent Ozon, le problème de l'euro provient de notre incapacité à lui assigner une direction politique.

    L'actuelle crise de l'euro est le résultat d'une opération d'instabilisation menée par le monde financier et le gouvernement profond US pour maintenir le statut du dollar comme monnaie de change internationale. Cet outil monétaire (le dollar) est ce qui permet aux USA de continuer à financer leur domination par une dette contractée sur le monde entier dans une unité de change qui n'a que la valeur du papier sur laquelle elle est imprimée. De fait, le problème de l'euro est celui de notre incapacité à lui assigner une direction politique et cette difficulté provient en premier lieu de la difficulté d'une organisation politique comme l'UE à définir les contours d'une volonté politique claire, tiraillée entre les volontés contradictoires de ses membres, les empiètements des multinationales, les tentatives répétées de sabotage des USA (via ses satellites) etc.

    De fait, toute monnaie non adossée à une volonté politique est un outil problématique. Ceci est valable pour toutes les monnaies, qu'elles soient nationales ou européennes. La question fondamentale est donc bien de savoir où peut se constituer une volonté politique capable d'une direction économico-financière souveraine et conforme à ses intérêts. La seconde question qui découle immédiatement de la première est: quels seront ses moyens réels d'action (en matière monétaire et au delà) face à une hégémonie financiaro-militaire de plus en plus agressive.

    La nation par son unité héritée de l'histoire, peut apparemment fournir un environnement de pouvoir mieux maîtrisé et donc un potentiel de volonté politique opérationnel plus simple à obtenir qu'une fédération d'États aux intérêts parfois contradictoires comme l'UE. En clair, la France, par exemple, peut imaginer se donner une monnaie et lier les conditions de sa politique monétaire à ses intérêts souverains. La question qui se posera secondairement sera: quel poids aura la France face à cette hégémonie, compte tenu de son niveau d'autonomie vivrière, énergétique, militaire, médiatico-culturelle, économique et financière ? Un poids faible à n'en pas douter. D'autant plus faible que le niveau d'intégration de la France dans l'économie mondiale ne repose pas seulement sur sa monnaie mais sur un dispositif d'imbrication beaucoup plus vaste et infiniment plus profond que ne le croient ceux qui rêvent d'un destin politique retrouvé, l'œil dans le rétroviseur. C'est un partisan du protectionnisme et de la relocalisation qui l'affirme, dans l'état actuel des choses, il faudra des efforts immenses et du temps à une France isolée des grands systèmes monétaires et des sphères d'influence correspondantes, pour pouvoir résister aux pressions du système financier et militaire de la première puissance mondiale, pour ne pas évoquer les autres.

    Confrontée probablement dans les vingts années à venir à une crise civile grave, dépendante de ses importations, sans autonomie industrielle (pièces, technologies, etc.) et sans puissance militaire de premier ordre ni ressources capables d'impacter les rapports de forces géopolitiques mondiaux, la France ne profitera de sa liberté monétaire que bien peu de temps. Celui de s'enfoncer dans la guerre et la ruine, sort qu'elle ne pourra in fine conjurer qu'en passant sous contrôle total d'une puissance dont elle pensait s'affranchir.

    De fait, je le pense, la France n'a pas les moyens de faire cavalier-seul. Adossée aux centaines de millions d'européens tournée vers la Russie, elle pourrait se donner dans l'UE, les moyens d'une politique monétaire conforme aux intérêts de son économie. Car ce qui peut être fait en France peut être fait en Europe, certes dans un premier temps plus difficilement, mais à la condition préalable d'une vigoureuse refondation des institutions communautaires qui permettrait à une Europe débarrassée du Royaume-Uni et autres satellites US, de retrouver les moyens de son retour à l'histoire dans un monde multipolaire et de défendre ses choix avec plus de poids que celui d'un pays en pré-guerre civile ne disposant pas des moyens de puissance pour maîtriser, isolé, les conséquences de ses coups de mentons monétaires.

    En bref, évoquer la question de la sortie de l'euro sans évoquer celui des rapports de forces internationaux et des implications vitales induites relève au mieux de l'amateurisme politique. De ce point de vue, un gouvernement économique de la zone euro pourrait être une solution, si il n'associait pas les habituels porte-avions américains au sein de l'UE et si la France et l'Allemagne s'engageaient à ajouter une dorsale russe à l'axe Carolingien... 

    C'est en tous cas le moment, à quelques mois des élections européennes d'ouvrir sérieusement le débat non ?
    Laurent Ozon

    http://euro-synergies.hautetfort.com/archive/2013/08/11/zone-euro-5139199.html

  • Europe : En 2012, 5500 agences bancaires ont fermé

    Les banques de l’Union européenne ont fermé 5500 agences l’an dernier, soit 2,5% de l’ensemble de leurs réseaux.

    En 2012, 5500 agences bancaires ont fermé dans l’Union européenne (UE). Ces mesures portent à 20’000 le nombre des agences fermées dans le secteur depuis le début de la crise, en 2008.

    Le chiffre de 2012 marque un ralentissement de ce mouvement après les 7200 fermetures enregistrées l’année précédente, montrent les statistiques de la Banque centrale européenne (BCE). Entre la fin 2008 et la fin 2012, les banques de l’UE ont fermé au total 8% de leurs agences, ramenant leur nombre à 218’687, soit une pour 2300 personnes. L’an dernier, les pays les plus concernés par les fermetures ont été ceux qui sont dits «périphériques», les plus en difficulté.

    Grèce et Espagne

    La Grèce a ainsi fermé 219 agences, soit 5,7% de son réseau, notamment en raison des fusions au sein des banques locales. Cette tendance devrait se maintenir en 2013, le groupe Piraeus devant baisser le rideau d’une partie des 312 agences reprises en mars à des groupes chypriotes.

    En Espagne, ce sont 1963 agences qui ont mis la clé sous la porte en 2012, soit 4,9% du total. Et le chiffre des trois premiers mois de 2013 approche 700 selon les données publiées par la Banque d’Espagne.

    Le réseau d’agences irlandais s’est, quant à lui, réduit de 3,3% en 2012, et l’italien de 3,1%. En France, les banques n’ont fermé au total que 79 agences l’année dernière et la baisse sur quatre ans ressort à moins de 3%, alors qu’elle atteint 5% au Royaume-Uni et plus de 8% en Allemagne.

    Opinion publique

    L’Hexagone est le pays de l’Union qui compte le plus d’agences bancaires, avec près de 38’450 à la fin 2012, soit une pour 1709 personnes, un ratio qui classe la France juste dernière l’Espagne et Chypre.

    Certaines banques reconnaissent qu’elles ne ferment pas autant d’agences qu’elles le devraient, de peur de faire fuir certains clients d’une part, des retombées dans l’opinion d’autre part.

    Au Danemark, le nombre d’agences bancaires a chuté d’un tiers en quatre ans et d’un quart aux Pays-Bas depuis le début de la crise.

    Les seuls pays où les réseaux d’agences se sont développés l’an dernier sont la Pologne (4%), la République tchèque (2,3%) et la Lituanie (1,8%).

    BILAN   http://fortune.fdesouche.com/

  • La dette de la France : une conséquence du capitalisme financier et de l'Euro

    Un homme politique radical socialiste avait déclaré un jour : « il n'y a aucun problème qu'une absence de solutions ne résout pas ».
    S'il est un domaine pour lequel cette phrase devient fausse est bien sûr le problème de la dette ou alors il faut accepter sans état d'âme de faire défaut avec toutes les conséquences de non crédibilité qui en résulteraient pour la France. Jacques Attali a écrit un livre sur ce thème. On a affaire à une œuvre savante où en conclusion il revient à son obsession pour ne pas dire fanatisme européiste cher aux « élites» qui conçoivent l'avenir pour les autres. On a d'ailleurs inventé l'expression en ce qui concerne l'Europe « sortir par le haut ». Il est vrai que cela résonne mieux que de dire « sortir par le bas ». On retrouve le moteur à deux temps de la pensée européiste. Quand cela va bien, c'est grâce à l'Europe. Quand cela va mal, il faut plus d'Europe. La certitude européiste ne connaît pas le doute. Avant toute chose, il faut relativiser une dette publique qui n'est qu'une circulation d'argent de ceux qui en ont trop. Quand l'Etat rembourse on enrichit les créanciers qui peuvent de nouveau relancer l'économie (surtout quand les créanciers sont des nationaux). De plus, il existe un chassé-croisé entre les dettes nationales. La France est débitrice pour certaines et créancière pour d'autres dettes.
    Nous allons maintenant expliquer pourquoi la dette actuelle est due essentiellement au capitalisme financier (système économique de la mondialisation actuelle) et à la mise en place de l'Euro.
    Il existe plusieurs façons de rembourser une dette : l'inflation (toujours au bénéfice des débiteurs au détriment des créanciers), la croissance, les impôts, la création monétaire, l'arme atomique étant faire défaut (ce qui a existé de nombreuses fois dans l'histoire économique), l'emprunt étant moins un financement puisqu'il peut même alourdir la dette, d'autant plus que le taux d'intérêt est supérieur au taux de croissance.
    Ces sources de financement ont été très fortement contrariées par le capitalisme financier et la mise en place de l'Euro. La mondialisation a de façon prodigieuse fait diminuer les recettes par impôts : les délocalisations sont autant d'emplois détruits, donc de salariés ne payant plus d'impôts et qu'il faut de plus indemniser par des allocations. Le capitalisme financier a créé une répartition du PIB au désavantage des salaires. Ces derniers, comprimés, ne peuvent donc dégager des recettes fiscales suffisantes. Les contribuables les plus riches quant à eux sont protégés par le bouclier fiscal quand ils ne pratiquent pas l'évasion fiscale (en partant à l'étranger par exemple). Le capitalisme financier crée donc un cadre institutionnel guère favorable au remboursement d'une dette aussi bien privée que publique. Il a de plus généré une croissance très faible dans les pays européens dont la France.
    L'Euro n'a fait qu'accentuer les effets néfastes de la mondialisation. La BCE n'a fait que lutter contre l'inflation (propice pour rembourser une dette) avec comme outil un taux d'intérêt élevé néfaste pour la croissance. Le politique de l'Euro fort sous le diktat allemand n'a fait qu'accélérer les délocalisations (donc moins de recettes) tout en comprimant les exportations et favorisant les importations (allemandes ou autres). Lorsque les européistes expliquent qu'on ne peut sortir de l'Euro car cela ferait monter les taux d'intérêt pour l'emprunt, ils font fi de tous les autres aspects négatifs de la mise en place de l'Euro.
    De plus, sous le diktat allemand de la BCE et sa phobie de l'inflation, on ne peut plus monétiser la dette, c'est-à-dire financer par création monétaire. De toute façon, en sortant de l'Euro, le recours à l'emprunt sur les marchés internationaux sera moins une nécessité et la France serait à l'abri de l'augmentation des taux d'intérêt. La France a toujours eu un taux d'épargne élevé et le mieux sera de faire appel aux nationaux. En remboursant la dette, on enrichit les nationaux. On ne fait que se rembourser soi-même. On revient donc à cette idée énoncée au début de l'article : une dette n'est qu'une circulation d'argent entre différents agents. Il n'y a donc pas d'appauvrissement général.
    Nous donnerons donc à propos de la dette de la France la même réponse que propose Alain Cotta pour l'économie de la France : « sortir de l'Euro ou mourir à petit feu ». Il faut aussi sortir du capitalisme financier actuel pour redéfinir un capitalisme social de nouveau favorable à la croissance des pays européens et à la ré-industrialisation de la France.
    Patrice GROS-SUAUDEAU 2010
    Statisticien-économiste

  • LE DELUGE MEURTRIER DES LOIS

    Dans l'état actuel des choses telles qu'on ne voudrait pas qu'elles fussent la déferlante des lois ne s'arrête jamais. L'information coutumière, après les catastrophes ferroviaires ou autres énumérées, passe à la politique et c'est pour entendre que le gouvernement prépare des lois que l'on appelle aussi des textes.
    La publicité dans toutes ses formes est, d'ores et déjà, règlementée d'une façon épouvantable comme dans un corset. Cela ne suffit pas. La dernière nouveauté est que la publicité télévisée pourrait s'ouvrir à de nouveaux secteurs. Cette formulation est, en soi, un aveu terrible car cela signifie bien qu'avant elle ne pouvait pas s'exercer partout. Il y a eu des assises de l'audiovisuel en juin. Il est fréquent qu'un nouveau paquet de lois se prépare dans une telle parlotte ; les discoureurs verraient d'un mauvais œil que des textes compliqués ne viennent pas couronner la fête. Les nouveaux secteurs à ouvrir seraient les opérations de promotion des distributeurs ou les films. Cela rapportera 150 millions aux chaines. Toutefois, rien de pressé car le gouvernement arbitrera à la rentrée.
    L'on aperçoit très vite deux calamités venants de l'avalanche. A la rentrée le pouvoir arbitrera. D'ici là incertitudes et pannes dans tout projet  : l'incertitude est le pire ennemi de la richesse. Et puis, il y a des transferts d'argent prévus ; on va déshabiller Pierre au bénéfice de Paul : bonjour les combines.
    LES AMVAP
    Un autre exemple dramatique et actuel de la nuisance des lois est celui de la loi du 12 juillet 2010. Elle fait suite au deuxième Grenelle de l'environnement. Cette appellation pompeuse désigne des parlottes célèbres ayant acquis un statut quasi officiel. À leur suite de multiples lois apparaissent faisant déferler la ruine dans tout le corps social.
    Il existait les ZPPAUP qui sur d'immenses parties du territoire empêchaient de construire librement sauf à se soumettre à des exigences compliquées. Elles sont remplacées par les AMVAP : ou « aires de mise en valeur du patrimoine ».
    Mais la loi n'a aucune valeur s'il n'y a pas les décrets d'application et aux toutes récentes nouvelles ces décrets d'application sont parus. C'est une vraie jungle d'usines à gaz à pénétrer. En outre un décret d’application implique des circulaires, voire du contentieux. J'avoue ne pas savoir ou cela en est. Les projets ne peuvent se réaliser que si l'AMVAP est mise en place par la totalité des communes concernées : on imagine les formalités absurdes et nécessaires. Combien de projets ainsi gelés en France ? Mystère.
    LA PAUPERISATION
    Cette paupérisation est bien installée, tellement qu'avec l'habitude on finit par ne plus la voir. Mes lecteurs habituels savent qu'elle est due à l'action persistante des gouvernements de toutes tendances. Parmi les causes se trouve la déferlante des lois.
    Le sujet étant immense, citons seulement quelques aspects.
    Le manque de sécurité juridique, déjà dénoncé, est un obstacle considérable à la création de richesse et de ce fait un facteur de pauvreté. Les entrepreneurs seuls véritables auteurs de cette richesse sont particulièrement touchés. Il existe 61 codes avec 10 millions de mots et ces codes bougent à chaque instant. Certains d'entre eux comme le code du travail sont remplis d'interdictions de travailler. La jungle des lois est bourrée de contradictions. Les lois quelles qu'elles soient ne sont pas stables. Une foule d'organisations, notamment au niveau européen, peut les annuler ou les modifier. Certaines lois sont en conséquence dans une sorte de coma avancé.
    Et puis, pour couronner, l'arsenal est composé d'une vraie pyramide d'usines à gaz administratives. Les textes sont si obscurs qu'il faut s'accrocher pour comprendre. La ruine vient par le temps consacré à saisir. Elle s'invite aussi par les délais engendrés pour réaliser un projet, alors que la concurrence oblige à aller vite.
    EN FAIT POURQUOI ?
    D'ou vient ce vrai tsunami ?
    Nous sommes obligés de manger le pain amer de la démocratie frelatée que nous connaissons. L'élection présidentielle de 2012 s'est jouée à la marge comme souvent. Pour emporter le butin, les deux candidats se sont livrés à un festival de promesses. Toutes ces promesses aboutissaient à des « textes », terme qui devrait être banni du langage politique.
    Nous arrivons enfin au nombre des ministres. Les 40 personnages qui siègent autour de la table n'ont qu'un rêve : laisser une trace par un ou plusieurs beaux textes.
    In fine ,saluons les assemblées parlementaires. Les élus trouvent leurs légitimité et leur gloire à pondre des lois. Ils infligent à leurs concitoyens une double ruine. A leur propre et insolente richesse, s'ajoute l'activité qu'ils déploient pour la justifier.
    OÙ EST L'ISSUE
    Elle existe. Lors d'une élection présidentielle un candidat crédible s'engagerait à nommer 8 ministres pas plus : exit les sous ministres et secrétaires d'état. Parallèlement il promettrait l'arrêt du déluge des lois ; cela veut dire que le pouvoir appliquerait simplement les lois existantes qui suffisent à tout. Ce programme avec une communication adaptée ne pourrait que remporter les voix.
    En Suisse, les conseillers fédéraux qui sont les ministres ne dépassent jamais le nombre de sept. Il n'y a chaque année que très peu de lois nouvelles. Alors ?
    MICHEL de PONCINS  http://libeco.net

  • L’économie est-elle une science exacte ?

    Par Oskar Morgenstern (avril 2000)

    L’économie jouit d’une situation particulière parmi les sciences : ses résultats sont quotidiennement utilisés dans l’action politique. Cette situation ne favorise pas toujours l’examen critique des mesures et des théories. Plutôt que d’examiner s’il est possible de donner un contenu expérimental et mesurable aux concepts de la science économique, les économistes – en France tout spécialement - se sont longtemps enfermés dans des débats entre « littéraires » et « scientifiques ».

    Ces querelles reflètent des conflits entre personnalités de formation différente. Elles n’apportent aucun élément de solution à la question : “L’économie est-elle une science expérimentale ?” Oskar Morgenstern, fondateur avec Von Neumann de la théorie des jeux, tente ici de répondre avec impartialité. S’il critique les économètres, ce n’est pas faute de connaitre leurs thèses ; s’il juge les faits sociaux difficilement mesurables, ce n’est, pas faute de s’être penché sur le problème. L’économie est une science, mais l’incertitude y joue un rôle fondamental, qu’il est vain de dissimuler.

    Lorsqu’on entreprit pour la première fois de recenser la population de la France, Laplace se rendit compte aussitôt qu’on n’arriverait jamais à dénombrer sans aucune erreur la totalité des habitants. Il demanda par conséquent que l’on calcule l’erreur probable et qu’on la fasse figurer dans le recensement publié. L’éminent mathématicien, qui apporta une contribution si décisive à la théorie de la probabilité, trouvait donc naturel, et même indispensable, pareille exigence de précision.

    Mais rien ne fut fait en ce sens, et même de nos jours, il n’y a pratiquement aucun pays au monde où la publication de données sociales et économiques s’accompagne de considérations sur l’erreur probable. On se contente, d’une façon ou d’une autre, de présumer qu’il n’y a pas d’erreur, bien qu’il soit facile à n’importe qui de constater que les erreurs abondent partout et qu’elles différent énormément d’une statistique à l’autre ; pourtant, il serait éminemment désirable de connaître exactement, l’importance de ces erreurs.

    Dans les sciences de la nature, il en va tout autrement. La nature, en général, ne présente pas ses données sous forme numérique ; c’est de façon qualitative, essentiellement, qu’elle est perçue, et il incombe à la théorie physique de créer des méthodes, souvent extrêmement compliquées, qui convertissent les données qualitatives en données quantitatives. Dans la vie en société, toutefois, beaucoup de données se présentent sous forme numérique, les prix, la quantité d’argent, la production des denrées, le nombre des naissances dans un pays, le nombre des travailleurs en activité et des chômeurs, etc.

    Dans les sciences physiques, comme les mesures numériques sont difficiles à effectuer et qu’il coûte cher de les raffiner, on traite avec le plus grand respect les chiffres obtenus et on se préoccupe, de savoir exactement, à quel genre de nombre on a affaire. En revanche, dans les sciences sociales, les chiffres sont livrés «tout faits», et il est donc assez naturel que les économistes ne se soucient pas outre mesure de leur qualité.

    Certes, ils s’efforcent d’être exacts, mais leur exactitude ne va pas plus loin, d’ordinaire, que de transcrire les chiffres avec soin, d’utiliser les documents originaux plutôt que des sources de seconde main, de surveiller la façon dont ils combinent, ou agrègent, les données, etc. Beaucoup de difficultés, évidemment, surviennent déjà à ce stade, comme par exemple, tous les problèmes de classification, et risquent donc de faire prendre à l’économiste des décisions arbitraires.

    Faudra-t-il, par exemple, classer avec les produits synthétiques ou avec les fibres naturelles, un tissu mi-coton mi-nylon ? Ici on adoptera l’une de ces classifications, ailleurs l’autre. C’est l’occasion de toutes sortes de décisions arbitraires.

    Vivre dans l’incertitude

    Les sciences de la nature ont accompli un grand pas en avant lorsqu’elles se sont aperçues, grâce aux implications philosophiques de la mécanique quantique, qu’il est impossible d’éliminer complètement l’erreur. L’erreur est irréductible. Cela fut très bien démontré par Brillouin. Il n’a pas été facile à la science d’accepter cette idée, et cela pour bien des raisons.

    L’une d’elles est qu’on éprouve une impression d’inconfort à vivre en permanence avec l’erreur ; on préférerait un monde dont tous les aspects puissent être déterminés. Désormais, le grand problème est : comment vivre avec l’erreur ; l’effort essentiel reste celui qui vise à la réduire de plus en plus sans perdre de vue, comme on la dit plus haut, que chaque réduction coûte des sommes d’argent et d’énergie toujours croissantes.

    Voici qui peut vous donner une idée d’ensemble du problème. Lorsque Newton élabora et démontra sa théorie de la gravitation, il utilisait des données entachées d’environ 4 % d’erreurs. Aujourd’hui, ce chiffre a été réduit à un dix-millième de 1 %, et pourtant Newton avait déjà pu formuler les traits essentiels d’une théorie très puissante, capable d’applications expérimentales.

    Plus tard, lorsque Einstein postula que dans certaines conditions la lumière devait s’incurver au lieu de se propager en ligne droite, les observations de l’époque comportaient un taux d erreur d’à peu près 20 %. Cela n’a pas empêché la théorie de la relativité de prendre le dessus. C’est seulement depuis quelques mois, grâce à l’utilisation de radiotélescopes, que cette marge d’erreur a été réduite à des valeurs pratiquement négligeables ; les instruments qui ont permis ce résultat n’étaient pourtant pas encore inventés à l’époque où Einstein élaborait sa théorie (voir la Recherche, n’ 9, février 1971, p. 164).

    Ce qui précède contient une leçon importante, à savoir que des théories puissantes peuvent être établies à partir de données assez peu satisfaisantes, et vérifiées au moyen de ces mêmes données de façon suffisamment probante. On ne risque donc guère, si l’on sait que les informations et les statistiques économiques et sociales fourmillent d’erreurs, de jeter lé bon grain avec l’ivraie ni de nier la possibilité de toute théorie : on souligne simplement que les théories doivent s’adapter au caractère des données et des renseignements disponibles.

    Il serait certainement injustifié de prétendre atteindre un haut degré de précision dans les données économiques ; on rencontre cependant cette prétention un peu partout, et elle est en particulier souvent revendiquée par les gouvernements qui ont la responsabilité de décisions économiques cruciales. On consent à admettre que nous ne savons pas tout de la nature, cependant assez bien connue ; mais en même temps on accepte sans broncher que nous puissions prétendre expliquer avec une grande précision le monde économique et social, dont la complication est incroyable.

    Ainsi, on donne sans indiquer la moindre marge d’erreur le chiffre du PNB produit national brut, déclaration qui sous-entend une précision de 1/10 ou même 1/100 de 1 %. Un tel chiffre est inacceptable, parce que le sens commun devrait suffire à nous faire voir qu’il est impossible de rendre compte sans aucune erreur du volume total des transactions en tous genres qui constituent l’économie d’un pays.

    Cela s’applique tout aussi bien aux pays développés qu’aux pays sous-développés. mais ces derniers, en outre, ne possèdent presque pas d’archives, le chiffre de leur population est inconnu, et dans leur cas les données « par tête d’habitant » n’ont donc aucun sens. On se livre pourtant à des débauches de comparaisons entre nations, même au sein des institutions les plus prestigieuses des organismes internationaux.

    Une illustration prise au hasard : il est impossible pour un observateur étranger de déterminer le prix de… disons de l’électricité fournie à une société privée dans certains pays. Certaines transactions internationales, comme l’exportation de produits importants d’un pays vers un autre, selon qu’on les évalue au moyen des statistiques d’exportation de ce pays ou des statistiques d’importation de l’autre, varient souvent de presque 100 % en quantité ou en valeur.

    Ce phénomène a été observé jusque dans les transactions portant sur l’or, produit de grande valeur qui bénéficie d’un luxe de soins pour son transport et son enregistrement, mais qui sont parfois couvertes par le secret ; les tarifs d’assurance de son transport enfin sont très élevés, mais sont souvent tournés grâce à diverses manipulations, etc. Pourtant on n’hésite pas à fonder sur de tels chiffres des décisions affectant de nombreuses nations et des millions de personnes, lorsqu’ils font ressortir excédents ou déficits pour certains pays.

    Dans un domaine où entrent en jeu des sommes considérables et où l’enregistrement des transactions est fait avec le plus grand soin, par exemple dans la détermination de la masse monétaire, des différences énormes ont été observées. L’an dernier, la masse monétaire des États-Unis est apparue entièrement différente de ce qu’on avait annoncé jusque-là.

    En août 1970, son taux d’accroissement avait d’abord été évalué à 6,8 %, mais se trouva être en réalité de 10 %. En septembre, on remplaça 1,2 % par 5,7 %, etc. Ainsi des variations énormes se manifestent, sans paraître influencer ni les hommes politiques ni les travaux scientifiques d’économétrie.

    Un observateur indépendant qui débarquerait de la planète Mars ne saurait pas quelles statistiques utiliser pour ses calculs. Même le dénombrement de la population, entrepris à grands frais par les gouvernements des pays développés, à l’aide de techniques évoluées et avec les outils statistiques les plus perfectionnés, laisse subsister des erreurs très importantes.

    Dans le recensement américain de 1950, par exemple, 5 millions de personnes n’ont pas été comptées, ainsi que l’ont démontré plus tard des investigations très attentives ; et même le dernier, celui dé 1970, comporte une erreur similaire, qui représente environ 3 à 4 % de la population totale.

    Nous avons vu plus haut qu’il ne s’agit pas là d’une erreur inacceptable ; mais c’est quand même bien une erreur, et il est parfaitement inadmissible qu’on agisse actuellement tout à fait comme si elle n’existait pas.

    On aimerait donc voir des statistiques économiques où chaque chiffre serait accompagné de l’indication de son écart type ; cette pratique n’a pas cours, et il n’est pas bien difficile. de trouver pourquoi. Les raisons sont fréquemment de nature politique. Le gouvernement reçoit de l’argent d’une assemblée, congrès ou parlement, et préfère ne pas montrer aux législateurs, qui tiennent les cordons de la bourse, qu’il entre une part d’incertitude dans ses calculs et dans ses mesures.

    Il n’y aurait pourtant point de honte à cela, car il serait facile de démontrer que la perfection n’est pas de ce monde. Il y a quelques années, en Allemagne, un organe consultatif du gouvernement, sorte de conseil économique, fit une tentative pour livrer des chiffres assortis de leur marge d’erreur, dans la mesure où elle pouvait être évaluée. Le gouvernement intervint pour mettre fin à cet étalage indécent.

    Une attitude comme la sienne, si elle continuait à prévaloir comme c’est le cas à présent, rendrait impossible tout progrès aussi bien dans le domaine politique que dans celui de la science économique, pour autant qu’elle se fonde sur une notion rigoureuse de ce que sont des données quantitatives. Quand on dévalue le dollar, quelqu’un décide qu’une dévaluation de tant pour cent, ni plus ni moins, constitue la dose requise, mais cet individu ne possède aucun renseignement qui permette de savoir si ce taux est bien le bon.

    Même si l’on s’est livré à des calculs préalables, ceux-ci sont fondés sur des chiffres censés exempts, d’erreur, et il est clair que si l’existence de ces erreurs était prise en considération dans les calculs, les déclarations politiques ne seraient pas formulées avec la belle assurance qui les caractérise aujourd’hui.

    Les pièges du produit national brut

    Je me suis référé jusqu’ici à des faits accessibles à l’observation directe, mais le mal est plus profond : il tient à quelques-uns des concepts mêmes qui sont à la base de certaines observations. Prenons par exemple le produit national brut, ou PNB : c’est une notion populaire dans le monde entier, et pourtant chargée d’absurdités et de difficultés incroyables. Le PNB prétend mesurer l’évolution de la production nationale par l’intermédiaire des variations du volume total des transactions.

    L’œil et l’attention des, gouvernements, des hommes d’affaires et du public sont fixés sur ce chiffre, sur lui seul. S’il augmente, c’est merveilleux ! Ne fût-ce que d’un demi pour cent, c’est mieux que rien. Une différence comme celle entre 1,5 et V % pendant le bref intervalle d’un trimestre sera considérée comme « significative ». Mais qu’y a-t-il derrière ? Il est impossible, on l’a dit plus haut, de mesurer aussi rapidement une masse d’événements aussi vaste que l’est l’ensemble de toutes les transactions ayant eu lieu dans un pays. Cela reste vrai même si l’on dispose d’ordinateurs, qui accélèrent le traitement des informations, et si l’on utilise à fond tous les autres moyens de renseignement. Mais non, on veut que ce chiffre à lui seul nous fasse savoir si le pays est en progrès ou en régression sur le plan économique.

    Ce chiffre est d’ailleurs un chiffre scalaire, et non pas même un vecteur dont les composantes correspondraient aux divers secteurs de l’économie. Tout ce qui a pour résultat un accroissement des dépenses est enregistré comme une «croissance». Ce qui est curieux, c’est que les pannes du système sont inscrites à son crédit.

    Si vous êtes immobilisé dans un embouteillage, vous consommez davantage d’essence, vous payez plus cher le kilomètre en taxi ; si des avions font la queue au-dessus des aéroports sans pouvoir atterrir tandis que d’autres attendant pour décoller, ou même s’il arrive une catastrophe qui entraîne des réparations, tout cela nous est comptabilisé comme un accroissement du PNB !

    L’économie est trop complexe pour pouvoir être représentée par un chiffre unique. C’est comme si la croissance d’un homme depuis le biberon jusqu’à l’âge adulte était représentée par un seul chiffre qui couvrirait sa croissance physique, sa taille, son poids, ses études, son intelligence, etc. ; si minime est l’effort de réflexion requis pour apercevoir toutes ces difficultés qu’on est parfois gêné, en tant qu’économiste, vis-à-vis de physiciens ou autres, d’avoir à révéler que cet état de choses est caractéristique de la situation des sciences sociales.

    Il est d’ailleurs assez curieux que la théorie des probabilités, sans laquelle la science moderne ne serait pas ce qu’elle est, tire son origine dans des phénomènes sociaux : l’étude des jeux de hasard, et l’observation de certains phénomènes économiques et mouvements de population. Après quoi cette théorie si puissante, et dont l’importance ne cesse de croître, a surtout été utilisée dans les sciences physiques, depuis le début du XIX’ siècle jusqu’à nos jours.

    Dans les sciences sociales, une attitude déterministe continue de prévaloir, et c’est tout juste si l’on commence aujourd’hui à percevoir quelques indices d’un changement de perspective et de point de vue. Il n’est pas encore tout à fait admis en bonne compagnie de mettre l’accent sur l’existence d’erreurs dans les observations économiques et sociales, dans, les statistiques et dans les mesures prises, de même que naguère encore il n’était pas poli de dire que quelqu’un était mort d’un cancer : à présent, on n’hésite pas à mentionner dans les nécrologies cette cause de décès.

    Si un déterminisme aussi marqué caractérise dans l’ensemble les sciences économiques, ce n’est pas seulement par crainte de regarder en face l’incertitude qui affecte leurs données, mais aussi, je crois, en grande partie pour des raisons politiques. Tout parti politique, qu’il soit marxiste ou capitaliste, tient à démontrer que ses conclusions sont définitives, que ses prévisions sur l’évolution de l’économie ou ses dithyrambes sur la façon admirable dont fonctionne le libre marché, sont solidement fondés et ne laissent pas prise au doute, ne souffrent aucune incertitude. Il va falloir changer tout cela, et l’on commence en effet à voir venir un changement.

    A l’avenir, il sera certainement impossible aux sciences sociales de se développer de façon différente des sciences physiques, en ce qui concerne les exigences de rigueur scientifique et les méthodes d’analyse. Si l’observation de la nature est elle-même chargée d’incertitude, comment le monde social et économique, dans toute sa complexité, pourrait- être observé valablement d’un point de vue plus déterministe, lui qui est véritablement encastré dans l’univers naturel ?

    La validité des prévisions varie évidemment selon qu’on se rend compte ou non de l’importance des incertitudes. Il est intéressant de noter que jusque dans un domaine économique où les données atteignent un maximum de précision, à savoir les cotes de la bourse, les prévisions restent notoirement incertaines. En fait, dans la plupart des situations, elles sont même impossibles.

    Il se peut que ce soit dû à la structure particulière de la bourse, mais si ce grand et important marché est sujet à des variations aléatoires, comment d’autres marchés, où les renseignements sont bien plus difficiles à obtenir et chargés de bien plus d’erreurs, pourraient-ils être mieux compris ? Comment les théories pourraient-elles y posséder un pouvoir de prévisions plus grand ?

    Sortir l’économétrie de son ghetto mathématique

    Les économistes se trouvent vraiment devant un étrange dilemme. D’un côté, la quantité d’informations économiques s’accroît selon un taux incroyable, surtout grâce aux ordinateurs, qui permettent d’enregistrer de nombreuses activités qui échappaient autrefois à l’observation numérique. En même temps, l’économétrie, science qui vise à faire des mesures économiques véritables et à les lier ou les combiner en vue de les incorporer à une théorie, devient de plus en plus mathématique et a besoin de subir de profonds rajustements.

    On a vu il y a quelques années un curieux débat : les mesures sans théorie, c’est-à-dire « impartiales », font-elles vraiment progresser la science économique, ou les théories doivent-elles précéder toute tentative de mesure ? Cela rappelait assez le vieux conflit entre l’économie comme science théorique et comme science historique, qui a débouché comme on sait sur la découverte que les deux choses ne sont pas contradictoires dans les faits : il est impossible de faire de la théorie économique sans mesures, et des mesures sans théorie ne veulent rien dire.

    On peut dire que tous les progrès, dans toutes les sciences, ont été accomplis grâce à l’introduction de concepts nouveaux, et ceux- ci à leur tour ne pouvaient naître que lorsque le chercheur avait sous les yeux un grand nombre de données empiriques. C’est ce qui s’est passé pour les découvertes de Kepler, fondées sur les prodigieuses observations et mesures de Tycho-Brahé ; et aussi pour Mendel, qui commença par accumuler de longues années d’expériences de génétique.

    De même, l’économétrie aujourd’hui doit relever un immense défi. Il s’agit d’élaborer une image du monde réel qui tienne compte de toutes les Incertitudes impliquées par les procédés de description. Pour ce faire, les chercheurs qui ont pour tâche d’organiser les divers aspects de cette image devront utiliser le sens commun, en même temps que certains concepts empruntés à la théorie économique devront servir de guide.

    La difficulté est que les économètres sont dispersés dans de nombreux pays dont les structures économiques et sociales sont très différentes : on doit donc émettre des réserves sur la valeur des comparaisons de leurs mesures. De plus, les économies changent, tandis que les lois de la nature sont stables, du moins dans le champ d’action qui est celui de la physique, et même de la biologie.

    Face à ces difficultés, il n’est pas étonnant que les économètres trouvent plus commode d’élaborer des méthodes abstraites et très raffinées que de les mettre en pratique. L’économétrie a produit un volume important d’ouvrages théoriques, mais rares sont les applications expérimentales qui permettraient d’en extraire ce dont on a, en fait, besoin : une Image de la façon dont fonctionnent réellement les systèmes économiques de différents pays.

    Notons aussi que les méthodes statistiques, potentiellement très puissantes, nécessitent un appareil de données et de théories économiques dont la structure soit très rigoureuse et ne laisse passer que des erreurs minimes. Cela souligne le fait qu’une grande précision des données et des mesures n’est vraiment nécessaire ou môme utile que pour des théories très puissantes, mais il se trouve justement que la plupart des données disponibles sont de mauvaise qualité et ne sauraient servir à travailler avec les concepts plutôt raffinés que l’on tente d’instaurer et d’utiliser en théorie économique.

    Il y a donc une dualité entre la structure – fine ou non – de la théorie, et la qualité des données correspondantes. Comme en physique, l’écart est considérable entre le degré de confiance qu’on peut accorder à telle information et à telle autre, entre le degré de précision d’une mesure et d’une autre. Par conséquent, les affirmations fondées sur des théories économiques sont de valeur très inégale. Malheureusement, de nos jours, et surtout dans les milieux gouvernementaux, on ne fait pas de telles distinctions, et dans les manuels scolaires pour débutants ou même pour les étudiants plus avancés, on ne trouve pas le moindre mot indiquant qu’il subsiste dans les sciences économiques des problèmes non résolus.

    Cependant, ces sciences sont pleines d’énigmes encore à résoudre. Il arrive certes que des prévisions correctes soient faites, ce qui semblerait renforcer la puissance et l’exactitude de la théorie sous-jacente ; mais ce sont là des faits dont on aurait tort d’exagérer l’importance.

    Même des théories fausses sont capables de prévisions exactes : témoin la théorie ptoléméenne, d’après laquelle nous pouvons calculer la date juste de la prochaine éclipse de lune tout en sachant parfaitement que la théorie est fausse. Ainsi, une prévision correcte ne prouve ni l’exactitude des observations qui l’ont précédée, ni la justesse de l’interprétation qu’on en a faite.

    L’ordinateur… et la mauvaise manière de s’en servir

    La découverte de l’ordinateur a évidemment une importance énorme pour les chercheurs en sciences sociales. C’est sans doute la plus grande découverte technologique de notre époque, plus importante même que la fission de l’atome. Comme, parmi les sciences économiques, il en est peu qui se prêtent à une expérimentation directe, la simulation rendue possible par l’ordinateur supplée au manque de procédés expérimentaux.

    La transformation des sciences économiques par l’ordinateur; ne fait que commencer, mais on peut déjà discerner quelques grandes lignes importantes ; quelques dangers méritent une mise en garde.

    Le grand mathématicien Gauss disait. « Le manque de réflexion. mathématique ne se fait jamais voir de façon aussi éclatante que dans l’excès de précision apporté à des calculs numériques. » Que dirait Gauss aujourd’hui, ou des informations insuffisamment analysées, de qualité très inégale, sont entrées pêle-mêle dans les ordinateurs pour subir des millions de multiplications, dans l’espoir qu’au bout du compte quelque résultat significatif apparaîtra ?

    Tout cela repose souvent sur un petit nombre d’équations qui prétendent refléter la réalité économique ; et, à partir des calculs on fait des prévisions, qui servent de base à des décisions politiques.

    Le champ des mathématiques numériques s’est énormément développé depuis l’avènement de l’ordinateur. Cependant, la plupart des ouvrages portent avant tout sur des techniques de calcul ou des procédés plus simples et plus sûrs pour résoudre les équations. Le problème qui nous occupe ici intéresse par contre la nature des relations entre les théories fondamentales d’une part, et les résultats numériques obtenue par des calculs fondés sur les modèles qu’elles ont construits d’autre part.

    La théorie économique s’est très tôt posée des questions de ce genre : on se souvient du fameux passage où Pareto, dans son Manuel d’économie politique 1907 démontre que, suivant sa théorie générale de l’équilibre, pour un système contenant seulement 100 personnes et 700 produits, il n’y aurait pas moins de 76990 équations à résoudre. Chiffre énorme, et pourtant il est clair que, par rapport à la population d’un pays, 100 personnes ne constituent qu’une fraction minime.

    Au lieu de résoudre les équations concernant un si petit nombre d’individus, on préfère travailler sur des agrégats, établie des modèles qui ne comprennent qu’un petit nombre de variables dont chacune couvre un grand nombre d’individus. On espère ,ainsi diminuer la difficulté, et dans un certain sans, évidemment, on y parvient. Hélas ! tout se paie, et l’évaluation des agrégats, loin d’être un procédé inoffensif, engendre à son tour des problèmes.

    De la modélisation au calcul

    Examinons comment envisager un calcul, quel qu’il soit, sur une grande échelle. Je me réfère ici à un ouvrage important de Von Neumann et Goldstine. Quoique leurs travaux datent d’il y a vingt-cinq ans, rien n’est venu affecter la validité de leurs résultats ni, je crois, ne pourrait le faire. Comme beaucoup de problèmes économiques sont représentés par des matrices d’un ordre élevé, comprenant plusieurs centaines de lignes et de colonnes, nous pouvons citer le problème que pose l’inversion des matrices, elle comporte quatre stades, qui occasionnent inévitablement des erreurs de types divers dont certaines, nous le verrons, d’importance primordiale.

    En voici la liste :

    Le problème économique, brut, à la base, ne peut être exprimé qu’au prix d’une idéalisation, d’une simplification et d’omissions. En d’autres termes, il faut construire un modèle mathématique, qui, comme les modèles dans toutes les sciences, constitue une simplification de la réalité. Je n’insiste pas sur ce point, car le problème est commun à toutes les sciences, et tout économiste est conscient qu’il simplifie, parfois de façon radicale. C’est un dilemme auquel on ne saurait échapper, et d’ailleurs une simplification n’est pas forcément néfaste.

    Étant donné le succès de théories physiques telles que la théorie newtonienne de la gravitation, on voit qu’il est possible d’aller très loin même avec des simplifications grossières.

    Si l’on accepte le modèle comme une image fidèle et cohérente de la réalité, on constatera que la description du phénomène choisi nécessitera des paramètres dont la valeur sera fixée par l’observation, directement ou indirectement c’est-à-dire par l’intermédiaire d’une autre théorie ou d’un calcul préalable. Ces paramètres vont donc comporter des erreurs qui, à leur tour, se retrouveront dans les résultats de tous les calculs. C’est là le point décisif. C’est à ce stade qu’interviennent les erreurs d’observation, et leur influence affecte les résultats plus gravement qu’aucune.

    La formulation mathématique stricte du modèle doit être remplacée par une formulation approximative. Cela veut dire que de nombreuses opérations transcendantes telles que celles qu’impliquent des fonctions comme le sinus ou le logarithme, ou des opérations telles que l’intégration et la différenciation, ainsi que les expressions implicites, etc., que l’on trouve inévitablement dans les divers modèles utilisés en théorie économique – tout cela devra être traité numériquement.

    Autrement dit, il faudra remplacer toutes ces opérations par des procédés élémentaires. De même, les processus qui convergent ou tendent vers une limite devront être interrompus à un certain endroit ou tronqués dès qu’on jugera atteindre un niveau d’approximation suffisant.

    Même si l’on ne se sent pas gêné par ces trois sources d’erreurs, qui influent sur la nature des calculs et leur validité, il en reste encore une très importante dont la présence est significative.

    C’est qu’aucun procédé ou moyen de calcul ne peut faire les opérations élémentaires – en tout cas pas toutes les opérations élémentaires – avec une rigueur absolue et sans fautes. Il ne s’agit pas ici des erreurs que peut commettre un ordinateur mal programmé ou qui souffre de déficiences mécaniques ou électriques. Non, c’est plus grave. Le processus de calcul lui-même comporte des traits inhérents qui lient l’exécution de toutes les opérations à l’introduction simultanée, inévitable et systématique de certains types d’erreurs.

    Considérons, pour illustrer les erreurs liées au fait d’arrondir un chiffre, un ordinateur ayant une limite de capacité lui permettant de retenir disons 8 chiffres : en multipliant deux nombres de 8 chiffres, on en obtient un de 16 chiffres qu’il faudra arrondir à 8. Répétez l’opération quelques millions de fois comme c’est nécessaire dans bien des inversions de matrices et demandez-vous si le résultat final est encore valide. C’est là un problème fondamental. Quelle que soit la capacité de l’ordinateur, il vient toujours très vite un moment où il faudra arrondir, sans quoi on finirait bientôt par avoir des nombres comprenant plus de chiffres qu’il n’y a de particules dans l’univers.

    En ajoutant cette difficulté au fait que les données comportent un assortiment d’erreurs diverses, on aura une idée de l’étendue du problème auquel se heurte la vulnérabilité relative de divers types de modèles à divers coefficients d’erreur. Des recherches ont démontré que certains des modèles les plus connus sont extrêmement vulnérables.

    Par exemple, dans un modèle a six équations, même si le coefficient représentant les salaires est le seul où se soit glissée une erreur, mettons de 10 %, le chiffre indiquant les profits sera affecté d’une erreur de 23,4 % en trop ou de 21 % en moins si l’erreur de base est négative. Quand toutes les variables sont sujettes à l’erreur, comme c’est toujours le cas, les résultats sont encore pires. Et ce n’est là qu’une seule illustration.

    Je termine ces réflexions par un simple exemple qui devrait nous inspirer à tous une salutaire prudence. Prenons le système de deux équations

    x-y = 1 et x-1,00001 y = 0

    Elles ont pour solution : x = 100.001, y = 100.000.

    Mais les deux équations suivantes presque identiques :

    x-y = 1 et x-0,999 99 y ont pour solution : x = -99 999, y = -100 000.

    Les coefficients diffèrent tout au plus de deux unités à la cinquième décimale, mais les solutions diffèrent de 200.000. Est-il nécessaire de ne rien ajouter ?

    La Recherche   http://fortune.fdesouche.com

  • Le passé de la SNCF resurgit au Congrès américain

    Guerre du rail : quand un sénateur démocrate US instrumentalise le rôle de la SNCF dans la Shoah…
    Le groupe ferroviaire français est à nouveau mis en cause pour avoir déporté des dizaines de milliers de Juifs vers les camps d’extermination pendant la Seconde Guerre mondiale.
    Aux USA manifestement le retard accumulé du marché des lignes intérieures à grandes vitesses prouve que  l’ouverture à la concurrence des lignes aériennes ne plaît pas à tout le monde. D’abord un Train à grande vitesse fonctionne à l’électricité tandis qu’un avion consomme beaucoup de kérosène (donc du pétrole)… L’essentiel du trafic voyageur sur des lignes inter-city longues distances est absorbé par les compagnies aériennes intérieures en situation d’oligopole. Les enjeux économiques et financiers sont donc considérables à commencer par les investissements à réaliser à l’image du budget de plus de 43 milliards de dollars de la seule ligne Los Angeles-San Francisco.
    Dans ce contexte à la fois de surendettement des Etats américains, de crise économique et de guerre commerciale pour le maintien d’une position hégémonique, tous les freins pour interdire l’accès aux nouveaux entrants (essentiellement Européens, Japonais mais bientôt Coréens et Chinois) sont « bons ». Et c’est bien une offensive informationnelle qui est lancée contre l’image de la SNCF pour déstabiliser l’excellente réputation du TGV d’Alsthom.
    Dans ce genre de manœuvre tous les lobbies sont mobilisés pour user des trafics d’influence afin de relancer ici un sénateur démocrate dont la campagne a vraisemblablement été « soutenue » activement par les commanditaires de ces lobbies.
    De là à voir un lien avec le sabotage de l’éclisse de Brétigny- sur-Orge qui n’a fait dérailler qu’un « vulgaire train Corail », voire avec les autres accidents du rail en Espagne et en Suisse, ce serait excessif, bien sûr. Quoique pour désinformer l’opinion publique américaine si naïve sur les « dangers du rail à l’européenne » la tentation a dû être grande… sauf si les commanditaires s’étaient servis de ces compagnies aériennes pour blanchir les fruits de trafics illégaux. Mafia, non, ce serait excessif ! Je ne vais pas vous refaire l’article sur l’infiltration des mafias dans l’économie légale (de moins en moins) et les sphères du pouvoir américain.
    Bertrand Plas : qui renvoie le lecteur au site du journal L’Opinion dont on trouvera ci-après l’article.
    5/08/2013

    Les faits
    Pour la deuxième fois en deux ans, le sénateur démocrate Charles «Chuck» Schumer demande au Congrès d’autoriser des poursuites contre la SNCF pour son rôle pendant la Seconde guerre mondiale. Plusieurs procédures aux Etats-Unis n’ont pas abouti. En France non plus.
    Le temps presse pour les survivants de la Shoah réunis dans la Coalition for Holocaust Rail Justice aux Etats-Unis. L’une des plus jeunes, Rosette Goldstein, a 74 ans. Pendant qu’il est encore temps, le sénateur Chuck Schumer et un groupe de parlementaires ont donc relancé au Congrès leur combat contre la SNCF de manière à lui « faire rendre des comptes devant un tribunal pour avoir envoyé plus de 75 000 juifs à la mort durant la seconde guerre mondiale », explique l’élu démocrate de l’Etat de New York.
    Cela fait plus de dix ans que des accusateurs tentent, depuis les Etats-Unis, d’obtenir réparation de la compagnie ferroviaire française. En septembre 2000 puis en mars 2006, les plaignants Abrams et Freund sont déboutés par un tribunal en vertu d’une législation de 1976, la Foreign Sovereign Immunities Act (FSIA), qui assure l’immunité aux sociétés contrôlées par un Etat étranger. A l’automne 2010, le gouverneur de Californie, à l’époque Arnold Schwarzenegger, met son véto à une loi («Holocaust Bill») émanant du démocrate Bob Blumenfield. Elle visait à obliger les candidats à la construction du futur train à grande vitesse Los Angeles-San Francisco -un projet alors évalué à 43 milliards de dollars- à s’expliquer sur leur rôle éventuel dans la déportation de juifs en 1939-45. Le texte ne nomme pas la SNCF qui, pas dupe, décide de mettre ses archives à la disposition des Américains. En novembre de la même année Guillaume Pépy, le PDG du groupe en déplacement aux Etats-Unis pour présenter son projet pour la ligne Tampa-Orlando, fait part du « souhait de la SNCF d’exprimer sa profonde peine et son regret pour les conséquences de ses actes » réalisés sous la contrainte « de la réquisition ». Insuffisant, estime Chuck Schumer qui dépose en mars 2011 un premier Holocaust Rail Justice Act I, afin de reconnaître la compétence des tribunaux américains. Le texte n’est pas adopté par le Congrès, d’où sa nouvelle tentative aujourd’hui, que la SNCF se refuse à commenter ou à lier à une éventuelle guerre commerciale.
    Si l’immunité américaine du groupe repose sur son statut d’entreprise publique, en France la justice raisonne différemment, pour le même résultat. Saisi par l’ancien député européen écologiste Alain Lipietz, dont le père a été déporté en mai 1944 à Drancy, le tribunal administratif de Toulouse a condamné la SNCF en 2006, mais la sentence a été infirmée en appel pour « incompétence de la juridiction administrative ». Un jugement confirmé ensuite par le Conseil d’Etat, « la SNCF, personne privée, ne pouvant pas être regardée comme (…) ayant agi dans l’exercice de prérogatives de puissance publique ».
    Muriel Motte, L’Opinion.fr 04/08/2013

    http://www.polemia.com

  • De la fiction à la dure réalité des chiffres : la France est-elle vraiment à l’abri de la faillite ?

    De François Fillon à Michel Sapin, les politiques aux affaires n’hésitent pas à parler d’un état de faillite. Mais s’ils évoquent, c’est en théorie, tant l’idée leur paraît saugrenue que la France puisse dans les faits en être réduite à faire défaut. Un scénario que Gaspard Koenig n’a pourtant pas hésité à explorer dans son dernier roman, « La nuit de la faillite ». Avec un certain réalisme… et des arguments.

    Atlantico : En septembre 2007, François Fillon, alors Premier ministre, déclarait déjà : « Je suis à la tête d’un État en faillite ». La situation économique actuelle du pays est-elle encore plus préoccupante qu’il n’y paraît ?

    Gaspard Koenig : Ce qui est amusant, c’est que Michel Sapin a dit la même chose en janvier de cette année : « Il y a un État, mais c’est un État totalement en faillite ». Comme si en arrivant au pouvoir, les gouvernants découvraient l’étendue des dégâts : l’Etat doit rembourser autour de 150 Milliards d’euros par an (son « besoin de financement »). Pour rappel, les recettes du même Etat sont d’un peu plus de 300 Milliards d’euros par an… Même si ces chiffres ne sont pas strictement comparables, cela donne une idée de la pression qui pèse sur la France pour rembourser la dette publique, et sans cesse réemprunter pour rembourser puisque le déficit est structurel. L’Etat est en roll-over permanent, sur la brèche. Pire encore, la dette ne finance pas l’avenir, mais à 95% les dépenses de fonctionnement. On ne s’endette pas pour investir, mais pour payer nos fournisseurs… en demandant à nos enfants de régler la facture finale.

    Gérard Thoris : Lorsqu’une entreprise est incapable d’honorer l’une de ses échéances, elle est obligée de déposer son bilan. Vient alors une période intermédiaire où un administrateur judiciaire examine les comptes de l’entreprise pour savoir si elle a un avenir. Lorsque la valeur des actifs est inférieure aux dettes accumulées, l’entreprise peut être déclarée en faillite. Selon la législation en vigueur, les dirigeants en place ou un repreneur extérieur peuvent faire une offre de reprise. Leur démarche est fondée sur le fait que les actifs sont susceptibles de créer de la valeur ajoutée profitable sous réserve que tout ou partie des créanciers renoncent à leur dette.

    On voit donc clairement qu’il faut distinguer les flux et les stocks. C’est parce que les flux de revenus sont inférieurs aux décaissements qu’une entreprise dépose son bilan. Mais c’est parce que les stocks d’actifs ont une valeur inférieure au stock de dettes que l’entreprise est mise en faillite.

    En 2007, il n’y avait aucun problème ni de flux, ni de stocks. Certes, le budget de l’État était déficitaire mais le stock de dettes publiques était parfaitement gérable. François Fillon extrapolait à partir de l’idée que l’État « n’avait jamais voté un budget en équilibre en 25 ans ». Cependant, tant que la croissance économique nominale est supérieure au taux d’intérêt nominal, les flux de revenus (impôts et cotisations sociales) permettent d’honorer facilement les intérêts de la dette. Cela suffit pour que le stock de dettes ne s’accroisse pas et il n’y a aucun problème ni de cessation de paiement, ni de faillite.

    Par contre, il était clair dès cette époque que, depuis 1996, les comptes sociaux allaient à la dérive.

    Les comptes publics sont-ils fiables ? Quelles sont les bombes à retardement ?

    Gaspard Koenig : Instinctivement, je dirais oui, l’administration fait bien son travail pour recycler la dette et l’Agence France Trésor (AFT) qui émet la dette souveraine. Ce sont les politiques qui sont collectivement coupables de n’avoir pas entendu les multiples rappels à l’ordre (dont le fameux de Michel Pébereau en 2004) et de ne jamais avoir considéré le sujet comme une priorité (la France n’a pas eu un budget à l’équilibre depuis quarante ans). A force de mettre la poussière sous le tapis, le tapis va s’envoler.

    Notons néanmoins une vraie limite à la fiabilité des comptes : les engagements « hors bilan » ne sont pas comptabilisés (garanties souveraines, régimes sociaux, retraites, etc.). Ainsi le besoin de financement annuel réel monte à 350 Milliards d’eruros selon le FMI, en prenant en compte l’ensemble des administrations publiques et de la dette sociale.
    Gérard Thoris :Le bilan le plus inquiétant est aussi le bilan le mieux caché. Il s’agit du déséquilibre des comptes sociaux. En 1996, Alain Juppé invente la Caisse d’amortissement de la dette sociale (CADES). A l’époque, tout le monde fut content car il s’agissait de faire payer le déficit de la Sécurité sociale par les générations futures. Pas besoin d’augmenter les charges sociales et de jouer une nouvelle fois le psychodrame de savoir si ce sont les salariés ou les employeurs qui devraient en supporter la charge. On devrait savoir une fois pour toutes que ce sont toujours les salariés qui paient, sous la forme de perte de pouvoir d’achat s’ils ont un emploi, sous la forme du chômage s’ils le perdent du fait de coûts salariaux unitaires supérieurs à ceux des concurrents étrangers.

    Mais, rétrospectivement, la création de la CADES est le premier moratoire de la France, organisé par elle-même pour elle-même. Lorsqu’une entreprise dépose le bilan, l’une des solutions possibles consiste en effet à obtenir des banquiers qu’ils allongent la durée des prêts pour diminuer le poids présent de l’amortissement de la dette. C’est bien ainsi que fonctionne la CADES. D’où l’intérêt de voir où l’on en est. Crée en 1996 pour 13 ans, la CADES sera théoriquement éteinte en 2025. A l’origine, elle devait amortir 44,7 Milliards d’euros en 13 ans ; aujourd’hui, sa capacité d’endettement a été portée à 234,6 Milliards d’euros (1).

    Il ne s’agit pas, à proprement parler, de hors bilan puisque la dette portée par la CADES est intégrée dans la dette publique. Mais il s’agit d’un exemple prototypique de dette sans collatéral. Normalement, une dette sert à acquérir des actifs qui permettent d’assurer l’amortissement du prêt. Ici, la dette est constituée pour payer des dépenses courantes (soins de santé, prestations de retraite) dont le potentiel de croissance disparaît dans l’acte même de la prestation de service. A ce titre, la réforme des retraites vise d’abord à arrêter la création de dettes sans collatéraux.

    Par contre, un bilan bien construit devrait constituer des provisions pour des risques futurs de dépréciation d’actifs. C’est le sens de l’exercice d’évaluation de la soutenabilité de la dette publique auquel la Commission européenne se livre régulièrement. L’exercice réalisé en 2009, avant que la crise économique ne produise ses effets en termes de croissance économique, supposait que la France fasse un effort budgétaire de 5,5 points de PIB pour financer les dépenses liées au vieillissement de la population tout en stabilisant la dette à horizon 2060. Cet exercice d’école n’est plus de mise, on s’en doute bien !

    La France a tendance à considérer que la faillite est impossible. Les arguments généralement avancés en ce sens tiennent-ils ?

    Gaspard Koenig : De quelles réserves insoupçonnées la France disposerait-elle ? Le gaz de schiste ? Cette illusion de l’infaillibilité est peut-être ce qu’il y a de plus grave et de plus impardonnable. On ne s’imagine jamais, faute d’imagination, que la digue du barrage peut céder. Et quand elle cède, ce sont des populations entières qui sont englouties.

    N’oublions pas que notre dette est détenue à 2/3 par des étrangers, ce qui nous a permis de bénéficier de taux d’intérêt très avantageux. L’État n’a pratiquement aucun moyen de pression sur eux. Ils sont libres d’acheter aujourd’hui… et de vendre demain. L’État ne pourra pas, lui, brader du jour au lendemain ses actifs.

    Suite de l’interview sur Atlantico.fr

    http://lesmoutonsenrages.fr