Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Science et techniques - Page 40

  • Tesla, la dernière coqueluche de la Silicon Valley

    C’est la surprise du chef : on vient voir comment fonctionne Tesla, le constructeur californien de véhicules électriques devenu la coqueluche des milieux financiers et technologiques américains, et on tombe sur deux Français.

    Le premier, Jérôme Guillen, 41 ans, est né à Avignon. Parti de France à 20 ans, après un doctorat d’ingénierie mécanique aux Etats-Unis, un passage chez McKinsey et DaimlerBenz, il est l’actuel directeur commercial de Tesla. Quand il dit : “Elon m’a appelé” (c’était en 2010, pour l’embaucher), vous comprenez qu’il fait partie des proches d’Elon Musk, le PDG et fondateur.

    Le second se nomme Gilbert Passin, le vice-président de la production. Centralien, 52 ans, il est passé par Renault, Volvo puis Toyota, où il fut patron d’une usine Lexus. Recruté en 2009, c’est lui qui a lancé l’usine d’assemblage. “Une proposition pareille, tout bâtir à partir de rien, tout repenser différemment, ça vous arrive une fois dans la vie.”

    On est à Fremont, en pleine Silicon Valley. Racheté par Tesla, cet ancien site du japonais Toyota semble démesuré pour l’activité de la PME innovante, dont le nom fut choisi pour honorer la mémoire de Nikola Tesla, “découvreur” américain d’origine serbe du XIXe siècle, dont le génie fit beaucoup pour promouvoir celui de l’industriel Thomas Edison.

    SEULEMENT DEUX MODÈLES DE VÉHICULES PRODUITS

    D’ici, au temps du constructeur nippon, sortaient 450 000 véhicules par an. Aujourd’hui, Tesla ne peut en produire que 30 000. Pas si mal quand on sait qu’au démarrage des chaînes, le 22 juin 2012, la production était de… 5 par semaine !

    La marque ne produit que deux types de véhicules. Le premier, le Roadster, est un modèle sport à 109 000 dollars (81 800 euros) pour “manageurs écolos californiens”. Le second est une berline de qualité, la Model S, proposée à 69 900 dollars – 62 400 dollars après le crédit d’impôt alloué pour aide à l’énergie propre !

    A Fremont, on est très loin de l’ambiance du Michigan, le coeur historique de l’automobile américaine. Première explication : le management n’est pas issu de l’automobile, mais de la haute technologie. C’est parce qu’il pensait “électricité”, et non pas “véhicule”, que la solution pour des batteries de voiture à la puissance inédite a été trouvée.

    “Nous ne sommes pas un constructeur, mais une société de technologie de pointe qui s’intéresse à l’automobile”, vous répète-t-on à l’envi. Ensuite, “c’est une aventure collective, dit M. Passin, on veut des gens qui travaillent par passion”. Il faut ajouter “l’environnement innovant généralisé de la Silicon Valley. On n’aurait pas pu se lancer ailleurs”, assure le communicant Esben Pedersen.

    UNE ORGANISATION DU TRAVAIL ORIGINALE

    La Silicon Valley, c’est une ambiance “cool” et ultracompétitive. Les ouvriers de Tesla, qui viennent tous de la “vieille industrie“, semblent s’en être accommodés. Et leurs dirigeants ont fait quelques entorses à l’esprit entrepreneurial : ils ont accepté les syndicats. Le reste est vraiment détendu : “Alors, ça boume, boss ?”, lancent les employés quand passe M. Passin, le “patron”.

    Ce dernier dispose d’un local au milieu des chaînes de fabrication, “pas un bureau fermé au 5e étage, comme n’importe où ailleurs”, lance-t-il en riant. Une cafétéria est à la disposition de tous, avec de la nourriture gratuite. Un gymnase aussi, où des “coachs” sont là dès le matin pour qui souhaite une mise en forme.

    Surtout, l’organisation du travail diffère fondamentalement des pratiques du secteur. A Fremont, les chercheurs travaillent dans un vaste espace ouvert, près des autres activités. “Entre ingénieurs, techniciens et ouvriers, il y a un constant aller-retour, qu’avantage la production en petites quantités”, indique M. Passin.

    Autre originalité de Tesla : le niveau d’intégration et de production en propre y est bien plus important que chez les grands constructeurs automobiles. La plupart des composants d’un véhicule rempli de matériels high-tech sont fabriqués sur place. C’est “un élément primordial pour favoriser l’innovation”, souligne le directeur, M. Guillen.

    “LA VOITURE ÉLECTRIQUE PEUT ÊTRE RENTABLE”

    Du design aux batteries, coeur de la révolution Tesla, en passant par les pièces (80 % d’aluminium et une grosse utilisation de la fibre de carbone), 80 % du véhicule est fabriqué ici. La robotisation équivaut à celle des meilleurs constructeurs, mais une attention très importante est accordée aux finitions. Jusqu’ici, vous explique-t-on chez Tesla, “la vision dominante voulait que la voiture électrique soit une merveilleuse idée… pour perdre de l’argent. Nous avons montré qu’elle peut être rentable”.

    Certes, elle reste chère, mais, entre moindre maintenance et absence de frais de carburant, le gain de l’utilisateur peut atteindre 2 000 dollars par an. Gratuites, les stations de chargement ultrarapides et révolutionnaires de Tesla, garantissent 500 km d’autonomie en une heure de chargement, plus de 150 en vingt minutes, cinq fois plus que les connecteurs pour véhicules existants. Et les batteries au lithium ont amélioré leurs performances de 50 % en deux ans. Les chercheurs de Tesla travaillent sur une batterie qui garantira jusqu’à 1 000 km d’autonomie pour un coût énergétique dérisoire. Les pétroliers n’ont qu’à bien se tenir !

    Bien sûr, le constructeur reste une – importante – “niche” industrielle, dont l’action a bondi de plus de 300 % depuis le début de l’année. Mais, avec 25 000 véhicules produits à ce jour, est-il logique que sa capitalisation atteigne celle du japonais Mazda, qui en vend 1,3 million par an ? Bref, on y croit ou pas. Mais la société jouit désormais d’une aura qui lui autorise bien des espoirs : “Pourquoi tout le monde adore Tesla”, titrait Bloomberg Businessweek, le 18 juillet.

    “LE PDG, ELON MUSK, VEUT CHANGER LES MODES DE VIE”

    La start-up emploie désormais 4 500 personnes, dont 2 600 sur ses chaînes de montage (150 il y a dix-huit mois…) et 1 000 ingénieurs et techniciens.

    Sa réussite a déjà poussé la concurrence à multiplier les investissements dans l’électrique. Pas seulement Toyota et Mercedes, qui détiennent 7 % de participation dans Tesla et des accords technologiques avec elle. Ford et GM ont aussi embauché à tout-va dans la recherche électrique. M. Guillen se montre modeste et prophétique à la fois : “Nous ne sommes en concurrence avec personne : ce que veut Elon Musk, c’est changer les modes de vie, amener tout le monde au véhicule électrique.”

    La Model S est désormais vendue à 40 % à l’étranger. Premier acquéreur : la Norvège. Mais les dirigeants de la société lorgnent surtout vers la Chine. Prochaine étape, prévue pour la fin de 2014 : la sortie d’un véhicule utilitaire de moyenne gamme, le Model X, vendu à partir de 40 000 dollars.

    Les chercheurs travaillent à la phase d’après : une voiture électrique “abordable”, à 30 000 dollars. Nom de code : BlueStar. Ce sera, promet M. Guillen, “un véhicule encore plus technologique mais moins sophistiqué. Un jour, nous aussi, ici, nous fabriquerons 400 000 voitures”.

    Le Monde   http://fortune.fdesouche.com/319311-tesla-la-derniere-coqueluche-de-la-silicon-valley

  • La dangereuse découverte du Dr Mary Schweitzer

    C’est sous ce titre que le magazine Discover d’avril 2006 présente la découverte faite par le Dr Mary Schweitzer en 1993 à Hell Creek dans l’Etat du Montana de tissus de chair non décomposés, ayant appartenu à un dinosaure. Il ne fait aucun doute que cette découverte contredit les datations évolutionnistes selon lesquelles les dinosaures auraient disparu il y a 60 ou 70 millions d’années. Ce sont les explications partagées par les parutions créationnistes néerlandaise et anglaise, Leviathian et Creation.

    Le sous-titre de Discover est très explicite : « Des tissus de chair non décomposés trouvés sur le squelette d’un Tyrannosaurus Rex ».

    Cette découverte bouscule les certitudes comme le relate le Dr Schweitzer à propos d’une discussion avec un éditeur affirmant que cette découverte n’était pas possible, car elle bouleverse les périodicités officielles. Le Dr Mary Schweitzer constate que ces tissus de chair de dinosaure contiennent du sang et qu’il en émane encore une odeur putride. Un cas semblable fut aussi découvert au nord-ouest de l’Alaska en 1961.

    A cette occasion et en soutien du Dr Mary Schweitzer, certaines voix du camp créationniste se sont élevées.

    Le Dr Carl Wieland, auteur de plusieurs livres scientifiques, invite par exemple à une compréhension plus récente de l’âge de la terre, comprise entre 6 000 et 10 000 ans. Cela signifie que les fossiles de dinosaures ne comptent pas des millions d’années, mais entrent dans le cadre de durées bibliques et scientifiques correspondant au Déluge, c’est-à-dire à une catastrophe qui aurait fondamentalement modifié les conditions terrestres il y a 4 200 ans. Nous pouvons nous demander si les dinosaures ont été contemporains des hommes.

    S’il est écrit dans la Genèse que les créatures de Dieu étaient placées sous la domination d’Adam, les Saintes Ecritures semblent démontrer que des hommes ont bien connu les dinosaures, mot inventé en Angleterre en 1840 par le brillant anatomiste Richard Owen qui est alors un des premiers à étudier les fossiles de ces animaux disparus.

    La médecine traditionnelle chinoise a utilisé pour la fabrication de potions magiques des os dits de dragons et les artistes de l’Empire du milieu ont peint ces mêmes "dragons" qui ressemblent fort à nos dinosaures.

    Le livre de Job, ouvrage biblique, appartient à la même période que celle d’Abraham, soit 2 000 ans avant Jésus-Christ, époque où les conditions de vie sur Terre sont différentes de celles d’aujourd’hui puisque cette région du globe où prospèrent les peuples sémites n’est pas un désert, mais une terre très fertile permettant l’élevage de troupeaux et la culture de la vigne. Rapportant des faits que l’on peut donc dater de deux siècles après le déluge, le livre de Job écrit au quarantième chapitre : "Vois Béhémoth, que j’ai créé comme toi ; il se nourrit d’herbe comme le boeuf." (verset 15).

    C’est le Dieu Créateur qui annonce à Job qu’il a placé sur terre une créature végétarienne gigantesque.

    Aujourd’hui, le mot "Béhémoth" est interprété unanimement par les hébraïsants comme la désignation d’un animal de taille immense. Généralement les appareils critiques des biblistes expliquent qu’il s’agit probablement d’un éléphant ou d’un hippopotame, voire d’un crocodile. Job aurait donc eu simplement connaissance de l’existence de ces animaux alors familiers sur les rives du Nil, par exemple ?

    C’est en effet ce que soutiennent la plupart des critiques. Ce faisant, ils négligent la suite de la description de cet animal puissant dont "(la) force est dans ses reins, et (la) vigueur dans les muscles de ses flancs !" (verset 16). Le verset suivant indique, en effet de façon plus précise : "Il dresse sa queue comme un cèdre".

    Or aucun éléphant, aucun hippopotame ni d’ailleurs aucun mammifère actuel n’est pourvu d’un appendice caudal capable de se dresser comme un cèdre. En revanche certains sauropodes comme l’argentinosaurus, végétarien du Trias supérieur qui semble avoir atteint une longueur de 50 mètres du museau au bout de la queue et un poids de cent tonnes, ont pu dresser une queue à la fois très longue et puissante comme un tronc d’arbre.

    Mais le texte biblique n’est pas le seul témoignage en faveur de la contemporanéité de l’homme et des dinosaures.

    On reconnaît parfaitement dans l’art pariétal aborigène et indiens d’Amérique du Nord des dessins de plésiosaures. Les mosaïques romaines montrent clairement des dinosaures. Un vase peint 530 ans avant Jésus-Christ et retrouvé dans la région de Carie en Asie mineure, fait voisiner un Mosasaure (dinosaure marin) et un homme. Des sépultures Incas découvertes en 1571 par les conquistadors et étudiées en 1930 par le Dr Javier Cabrera dessinent ces étranges créatures. D’anciens livres comme l’Historria Animalium écrit au XVe siècle affirment que ces créatures ont fréquenté les hommes. Le Dr Cliffard Burdick, spécialiste en géologie, a examiné en 1935 des empreintes de dinosaures retrouvées un quart de siècle plus tôt dans des boues fossiles à Glen Rose au Texas mêlées à des empreintes de pieds humains de très grande taille : on estime la taille du géant à 4 mètres.

    Tout ces exemples permettent de défendre sans ridicule l’hypothèse que les hommes et les dinosaures ont été contemporains.

    C’est dans le débat sur les prétendues "longues durées" un argument en faveur des créationnistes.

  • Quand la science découvre les 1 % qui dirigent l'économie

     

    Quand la science découvre les 1 % qui dirigent l'économie
    Trois chercheurs suisses ont récemment décortiqué le réseau mondial des multinationales en se servant d'une base de données de l'OCDE (Organisation de Coopération et de Développement Economiques) regroupant plus de 30 millions d'acteurs du marché économique. Les scientifiques sont parvenus à une synthèse en les regroupant sous forme d'un réseau de 43 060 multinationales. Leurs rapports de force mutuels furent également reconstitués par l'angle de la propriété : une entreprise possédant plus de 50 % des parts d'une autre est considérée comme en détenant le contrôle.
    Le réseau qui apparaît détient une structure générale assez commune dans les systèmes naturels : certains acteurs sont des points de convergence de pouvoir, alors que d'autres ne sont qu'en périphérie et n'exerce que peu de contrôle sur les autres. Ce phénomène connu comme « le riche devient plus riche » n'a pas étonné les chercheurs. Un gros acteur économique attire forcément les nouveaux arrivants. Ce qui les a le plus frappé est la découverte d'un autre phénomène appelé le « club des riches ». Au cœur du réseau, 1318 entreprises apparaissent comme plus fortement connectés entre elles et forme un noyau central. Ce noyaux s'avère détenir la majorité (60 %) de l'industrie mondiale par le jeu des actions boursières. Pire encore, 147 entreprises sont encore plus interconnectés et « dirigent » le noyau. Ces 1 % de la totalité du marché mondial, contrôlent à elles seules près de 40 % du cœur de l'économie actuelle. Mais qui sont ces entreprises ? Que produisent-elles ? Et bien elles ne produisent rien du tout sur le plan physique. Ce ne sont que des intermédiaires financiers. On y retrouve des noms bien connus en ces temps de crise: Barclays, JP Morgan, Goldman Sachs, ...
    La question posée par ce travail scientifique était à l'origine de déterminer s'il existait une « tête » au système financier actuel. Le noyau découvert par les chercheurs y ressemble beaucoup. Toutefois, ceux-ci mettent en garde face à l'idée d'y voir une conspiration. Pour eux, ces entreprises ne sont que des acteurs guidés par les lois du marché et qui se sont retrouvés dans cette configuration sans nécessairement se coordonner consciemment entre-elles. Pas de conspiration donc, juste un système économique défectueux. En effet, si cette architecture profite à quelques uns, elle rend l'ensemble de l'économie de plus en plus instable. Cette concentration de 147 entreprises a des faux airs de foyer épileptique. Quoi faire ? Nos chercheurs proposent de commencer par réguler cette hyper-connectivité par le biais de taxes transnationales. Toutefois, au delà d'appeler à une telle régulation, ces résultats démontrent la dimension systémique de la crise actuelle. Plus question de tenter d'expliquer les fluctuations chaotiques de la bourse à partir des faits proposés par l'actualité. Il est désormais temps de prendre du recul et comprendre pourquoi le système économique, dans sa structure même, demande à changer.
    Stefania Vitali, James B. Glattfelder, Stefano Battiston
  • L’essoufflement des réserves pétrolières mondiales

    Combien de pétrole nous reste-t-il à exploiter, au juste? Jean Laherrère a récemment repris les calculs qu’il avait faits en 1998 pour « The End of Cheap Oil », un article de la revue Scientific American resté célèbre. Pour cet ingénieur pétrolier qui a travaillé 37 ans chez Total avant de devenir un consultant de réputation internationale, les chiffres sont clairs : les réserves s’épuisent rapidement. Dans à peine 30 ans, la production mondiale de pétrole aura déjà chuté de 40 %.

    Ces résultats contredisent ceux des économistes, qui prédisent en général une croissance infinie. « Les économistes, explique Jean Laherrère, se fient seulement aux énoncés de réserves émis par le Oil & Gas Journal, l’EIA, la firme BP et l’OPEP, qui sont erronés; ils n’ont pas accès aux données techniques confidentielles. Les économistes qui négligent le pic pétrolier ne font pas d’erreur de calcul, mais ils calculent à partir des mauvaises données! »

     

     

    Les statistiques gouvernementales, tout comme les énoncés financiers des entreprises pétrolières, se fondent sur les ressources récupérables probables, des données préliminaires qui sont souvent trop optimistes, ou gonflées pour faire saliver les actionnaires. Jean Laherrère, en raison de sa position privilégiée, a eu accès aux données confidentielles sur les réserves prouvées.

     

     

     

    Il s’en est servi pour construire ce tableau ci dessous. La courbe verte montre l’état des réserves prouvées et leur évolution en fonction de certaines grandes découvertes historiques. Les autres courbes montrent les réserves probables, selon les statistiques officielles : les réserves mondiales totales en rouge, celles des pays de l’OPEP en mauve et celles des producteurs non membres de l’OPEP en bleu.

     

     

    Alors que les données gouvernementales montrent une rassurante progression, la courbe verte des réserves prouvées montre un déclin marqué depuis 1980. Les réserves mondiales ne dépasseraient plus les 800 Gb (milliards de barils), alors qu’il y en avait 2 200 Gb à l’origine. Nous aurons donc déjà brûlé près des deux tiers de notre pétrole. Comme nous le consommons au rythme de 26 Gb par année, les réserves actuelles représentent donc en principe que 30 ans de consommation.

     

    En pratique, les nouvelles découvertes aident un peu. Mais les découvertes prouvées ne représentent que la moitié de la production. De plus, un puits de pétrole n’est pas comme une baignoire, qui se vide à vitesse constante. Il est plutôt comme une éponge imbibée, dont le liquide s’écoule de plus en plus lentement. Le débit d’un puits conventionnel diminue de 5 % par année en moyenne, de sorte que la production décline sans cesse, même quand il reste beaucoup de pétrole sous terre.

     

    Le véritable enjeu consiste donc à maintenir le rythme de production malgré l’épuisement des réserves et la baisse de débit des puits existants. Et nous allons y échouer, selon Laherrère. La production mondiale totale (la ligne brune), qui plafonne depuis 2005 à environ 26 Gb par année, va bientôt se mettre à diminuer, pour n’atteindre que 15 Mb dans 30 ans et 7,5 Mb dans 50 ans. Même si l’ingénieur pétrolier ne s’avance pas sur ce point, on peut aussi s’attendre à une explosion du prix de l’or noir.

     

    Il ne faut pas chercher de solution du côté du pétrole de schiste. En dépit des énormes ressources dont les médias font état, les ressources actuellement prouvées ne représentent guère que neuf mois de consommation mondiale. De plus, la recherche dans ce domaine a connu quelques échecs retentissants qui ont refroidi l’ardeur des pétrolières.

     

    L’impact du pétrole lourd

     

    Les chiffres de Laherrère ne tiennent toutefois pas compte du pétrole extralourd, notamment des sables bitumineux, dont il existe deux grands gisements dans le monde, l’un en Alberta (175 Gb) et l’autre au Venezuela (200 Gb). Ces ressources sont extrêmement coûteuses à exploiter et après des dizaines de milliards de dollars d’investissement, la production canadienne n’atteint que 1,8 million de barils par jour (soit environ 650 Mb par année). Quant aux sables vénézuéliens, ils sont enfouis à plus de 1 500 mètres de profondeur et il n’est pas évident que leur exploitation sera un jour rentable.

     

    Ce pétrole extralourd est représenté sur quatre courbes à part, dont la plus importante est la noire, qui représente la production mondiale totale. Selon le consultant, celle-ci augmentera lentement jusqu’à atteindre environ 6 Gb par année, vers… 2070. Cette production s’ajoutera alors à environ 6 Gb de pétrole conventionnel (moyen et léger), pour un total de 12 Gb. Soit environ 60 % moins de pétrole qu’aujourd’hui – ou un retour au niveau de production de 1965.

     

    La seule différence, c’est que nous étions 3,3 milliards en 1965. Nous serons au moins trois fois plus nombreux en 2070. Nos sociétés pourront-elles s’adapter à ce monde presque à sec? Que deviendront l’industrie et les transports? Le prix astronomique du pétrole restant tuera-t-il dans l’oeuf tout début de croissance économique, comme cela semble être le cas depuis 2008? On ne peut plus nier la réalité. Il faut maintenant s’y préparer… ou la subir, avec tout ce que cela implique.

    Notes :

     

    Rapport  de Jean Laherrère  (technique, 39 pages en anglais) :

     

    http://aspofrance.viabloga.com/files/JL_2013_oilgasprodforecasts.pdf

     

    voir.ca http://fortune.fdesouche.com/316933-lessoufflement-des-reserves-petrolieres-mondiales#more-316933

  • Le devoir d’objection de conscience

    Mgr Jacques Suaudeau, docteur en médecine et directeur scientifique de l’Académie pontificale pour la Vie, a rédigé un petit ouvrage fort à propos sur L’objection de conscience ou le devoir de désobéir. S’appuyant sur les Saintes Ecritures et l’Histoire de l’Eglise, l’auteur écrit :

    O« Le témoignage des Apôtres devant le Sanhédrin, et leur défense au nom de la loi divine qui prime sur la loi humaine, fournissent la structure de l’objection de conscience spécifique qui conduira certains au martyre. Elle s’articule sur les points suivants :

    1. Les lois divines priment sur les lois humaines.
    2. Le croyant doit obéir aux lois humaines, fondements de la cité, garantes de la solidarité et de la paix sociale, et aux autorités qui ont été placées par la providence divine aux postes qu’elles occupent (Rm 13, 1-7). Les martyrs ne mettent pas directement en question les institutions impériales ; ils acceptent les décisions des tribunaux ; ils ne se dérobent pas s’ils sont arrêtés ; ils ne désertent pas.
    3. Ce n’est que lorsque la loi humaine contredit  formellement la loi divine que le croyant peut se trouver dans la situation de désobéir. Ce revirement possible implique l’autonomie de la religion, en tant qu’office de Dieu, par rapport à l’Etat et à l’office du législateur. Or cette autonomie des offices divins et de l’Etat l’un par rapport à l’autre est une notion absolument étrangère à la mentalité de l’antiquité païenne où le service de la Cité (pour les Grecs) ou de la Res publica (pour les Romains) sont un tout. […]
    4. En choisissant d’obéir à Dieu plutôt qu’aux lois des empereurs, les disciples du Christ, non seulement obéissent à leur conscience en manifestant leur liberté d’enfants de Dieu (base religieuse et personnelle de l’objection de conscience), mais encore transmettent la vérité précise sur Dieu (ils enseignent le nom de Jésus), devoir évangélique et impératif moral de proclamer la vérité contre les errances du paganisme. Ils portent témoignage (marturein) devant les tribunaux, ce qui :
      • Renforce la valeur de l’enseignement qu’ils ont pu donner avant d’être arrêtés (on ne croit que les témoins) ;
      • Est un mode d’évangélisation actuel des païens qui assistent au procès et se trouvent édifiés par l’attitude cohérente des accusés ;
      • Conforte dans leur foi les autres chrétiens qui auraient été décontenancés si les accusés avaient profité des offres compatissantes des juges qui leur permettaient de sauver leur vie sans renier formellement le Christ, en effectuant par exemple une pseudo offrande (et l’on retrouve ici la responsabilité pour autrui précédemment notée dans le martyr d’Eléazar, et qui est une composante non négligeable de l’acte de désobéissance civile).
    5. Ce témoignage est rendu possible par la force et l’aide de l’Esprit Saint. […]
    6. Le croyant ne peut se dérober à ce devoir de conscience, justement parce que le don de l’Esprit Saint lui est fait lorsqu’il comparaît devant ses juges, selon les promesses faite à ses disciples par le Seigneur lui-même, de son vivant terrestre. »

    http://www.lesalonbeige.blogs.com/

  • L’économie est-elle une science exacte ?

    Par Oskar Morgenstern (avril 2000)

    L’économie jouit d’une situation particulière parmi les sciences : ses résultats sont quotidiennement utilisés dans l’action politique. Cette situation ne favorise pas toujours l’examen critique des mesures et des théories. Plutôt que d’examiner s’il est possible de donner un contenu expérimental et mesurable aux concepts de la science économique, les économistes – en France tout spécialement - se sont longtemps enfermés dans des débats entre « littéraires » et « scientifiques ».

    Ces querelles reflètent des conflits entre personnalités de formation différente. Elles n’apportent aucun élément de solution à la question : “L’économie est-elle une science expérimentale ?” Oskar Morgenstern, fondateur avec Von Neumann de la théorie des jeux, tente ici de répondre avec impartialité. S’il critique les économètres, ce n’est pas faute de connaitre leurs thèses ; s’il juge les faits sociaux difficilement mesurables, ce n’est, pas faute de s’être penché sur le problème. L’économie est une science, mais l’incertitude y joue un rôle fondamental, qu’il est vain de dissimuler.

    Lorsqu’on entreprit pour la première fois de recenser la population de la France, Laplace se rendit compte aussitôt qu’on n’arriverait jamais à dénombrer sans aucune erreur la totalité des habitants. Il demanda par conséquent que l’on calcule l’erreur probable et qu’on la fasse figurer dans le recensement publié. L’éminent mathématicien, qui apporta une contribution si décisive à la théorie de la probabilité, trouvait donc naturel, et même indispensable, pareille exigence de précision.

    Mais rien ne fut fait en ce sens, et même de nos jours, il n’y a pratiquement aucun pays au monde où la publication de données sociales et économiques s’accompagne de considérations sur l’erreur probable. On se contente, d’une façon ou d’une autre, de présumer qu’il n’y a pas d’erreur, bien qu’il soit facile à n’importe qui de constater que les erreurs abondent partout et qu’elles différent énormément d’une statistique à l’autre ; pourtant, il serait éminemment désirable de connaître exactement, l’importance de ces erreurs.

    Dans les sciences de la nature, il en va tout autrement. La nature, en général, ne présente pas ses données sous forme numérique ; c’est de façon qualitative, essentiellement, qu’elle est perçue, et il incombe à la théorie physique de créer des méthodes, souvent extrêmement compliquées, qui convertissent les données qualitatives en données quantitatives. Dans la vie en société, toutefois, beaucoup de données se présentent sous forme numérique, les prix, la quantité d’argent, la production des denrées, le nombre des naissances dans un pays, le nombre des travailleurs en activité et des chômeurs, etc.

    Dans les sciences physiques, comme les mesures numériques sont difficiles à effectuer et qu’il coûte cher de les raffiner, on traite avec le plus grand respect les chiffres obtenus et on se préoccupe, de savoir exactement, à quel genre de nombre on a affaire. En revanche, dans les sciences sociales, les chiffres sont livrés «tout faits», et il est donc assez naturel que les économistes ne se soucient pas outre mesure de leur qualité.

    Certes, ils s’efforcent d’être exacts, mais leur exactitude ne va pas plus loin, d’ordinaire, que de transcrire les chiffres avec soin, d’utiliser les documents originaux plutôt que des sources de seconde main, de surveiller la façon dont ils combinent, ou agrègent, les données, etc. Beaucoup de difficultés, évidemment, surviennent déjà à ce stade, comme par exemple, tous les problèmes de classification, et risquent donc de faire prendre à l’économiste des décisions arbitraires.

    Faudra-t-il, par exemple, classer avec les produits synthétiques ou avec les fibres naturelles, un tissu mi-coton mi-nylon ? Ici on adoptera l’une de ces classifications, ailleurs l’autre. C’est l’occasion de toutes sortes de décisions arbitraires.

    Vivre dans l’incertitude

    Les sciences de la nature ont accompli un grand pas en avant lorsqu’elles se sont aperçues, grâce aux implications philosophiques de la mécanique quantique, qu’il est impossible d’éliminer complètement l’erreur. L’erreur est irréductible. Cela fut très bien démontré par Brillouin. Il n’a pas été facile à la science d’accepter cette idée, et cela pour bien des raisons.

    L’une d’elles est qu’on éprouve une impression d’inconfort à vivre en permanence avec l’erreur ; on préférerait un monde dont tous les aspects puissent être déterminés. Désormais, le grand problème est : comment vivre avec l’erreur ; l’effort essentiel reste celui qui vise à la réduire de plus en plus sans perdre de vue, comme on la dit plus haut, que chaque réduction coûte des sommes d’argent et d’énergie toujours croissantes.

    Voici qui peut vous donner une idée d’ensemble du problème. Lorsque Newton élabora et démontra sa théorie de la gravitation, il utilisait des données entachées d’environ 4 % d’erreurs. Aujourd’hui, ce chiffre a été réduit à un dix-millième de 1 %, et pourtant Newton avait déjà pu formuler les traits essentiels d’une théorie très puissante, capable d’applications expérimentales.

    Plus tard, lorsque Einstein postula que dans certaines conditions la lumière devait s’incurver au lieu de se propager en ligne droite, les observations de l’époque comportaient un taux d erreur d’à peu près 20 %. Cela n’a pas empêché la théorie de la relativité de prendre le dessus. C’est seulement depuis quelques mois, grâce à l’utilisation de radiotélescopes, que cette marge d’erreur a été réduite à des valeurs pratiquement négligeables ; les instruments qui ont permis ce résultat n’étaient pourtant pas encore inventés à l’époque où Einstein élaborait sa théorie (voir la Recherche, n’ 9, février 1971, p. 164).

    Ce qui précède contient une leçon importante, à savoir que des théories puissantes peuvent être établies à partir de données assez peu satisfaisantes, et vérifiées au moyen de ces mêmes données de façon suffisamment probante. On ne risque donc guère, si l’on sait que les informations et les statistiques économiques et sociales fourmillent d’erreurs, de jeter lé bon grain avec l’ivraie ni de nier la possibilité de toute théorie : on souligne simplement que les théories doivent s’adapter au caractère des données et des renseignements disponibles.

    Il serait certainement injustifié de prétendre atteindre un haut degré de précision dans les données économiques ; on rencontre cependant cette prétention un peu partout, et elle est en particulier souvent revendiquée par les gouvernements qui ont la responsabilité de décisions économiques cruciales. On consent à admettre que nous ne savons pas tout de la nature, cependant assez bien connue ; mais en même temps on accepte sans broncher que nous puissions prétendre expliquer avec une grande précision le monde économique et social, dont la complication est incroyable.

    Ainsi, on donne sans indiquer la moindre marge d’erreur le chiffre du PNB produit national brut, déclaration qui sous-entend une précision de 1/10 ou même 1/100 de 1 %. Un tel chiffre est inacceptable, parce que le sens commun devrait suffire à nous faire voir qu’il est impossible de rendre compte sans aucune erreur du volume total des transactions en tous genres qui constituent l’économie d’un pays.

    Cela s’applique tout aussi bien aux pays développés qu’aux pays sous-développés. mais ces derniers, en outre, ne possèdent presque pas d’archives, le chiffre de leur population est inconnu, et dans leur cas les données « par tête d’habitant » n’ont donc aucun sens. On se livre pourtant à des débauches de comparaisons entre nations, même au sein des institutions les plus prestigieuses des organismes internationaux.

    Une illustration prise au hasard : il est impossible pour un observateur étranger de déterminer le prix de… disons de l’électricité fournie à une société privée dans certains pays. Certaines transactions internationales, comme l’exportation de produits importants d’un pays vers un autre, selon qu’on les évalue au moyen des statistiques d’exportation de ce pays ou des statistiques d’importation de l’autre, varient souvent de presque 100 % en quantité ou en valeur.

    Ce phénomène a été observé jusque dans les transactions portant sur l’or, produit de grande valeur qui bénéficie d’un luxe de soins pour son transport et son enregistrement, mais qui sont parfois couvertes par le secret ; les tarifs d’assurance de son transport enfin sont très élevés, mais sont souvent tournés grâce à diverses manipulations, etc. Pourtant on n’hésite pas à fonder sur de tels chiffres des décisions affectant de nombreuses nations et des millions de personnes, lorsqu’ils font ressortir excédents ou déficits pour certains pays.

    Dans un domaine où entrent en jeu des sommes considérables et où l’enregistrement des transactions est fait avec le plus grand soin, par exemple dans la détermination de la masse monétaire, des différences énormes ont été observées. L’an dernier, la masse monétaire des États-Unis est apparue entièrement différente de ce qu’on avait annoncé jusque-là.

    En août 1970, son taux d’accroissement avait d’abord été évalué à 6,8 %, mais se trouva être en réalité de 10 %. En septembre, on remplaça 1,2 % par 5,7 %, etc. Ainsi des variations énormes se manifestent, sans paraître influencer ni les hommes politiques ni les travaux scientifiques d’économétrie.

    Un observateur indépendant qui débarquerait de la planète Mars ne saurait pas quelles statistiques utiliser pour ses calculs. Même le dénombrement de la population, entrepris à grands frais par les gouvernements des pays développés, à l’aide de techniques évoluées et avec les outils statistiques les plus perfectionnés, laisse subsister des erreurs très importantes.

    Dans le recensement américain de 1950, par exemple, 5 millions de personnes n’ont pas été comptées, ainsi que l’ont démontré plus tard des investigations très attentives ; et même le dernier, celui dé 1970, comporte une erreur similaire, qui représente environ 3 à 4 % de la population totale.

    Nous avons vu plus haut qu’il ne s’agit pas là d’une erreur inacceptable ; mais c’est quand même bien une erreur, et il est parfaitement inadmissible qu’on agisse actuellement tout à fait comme si elle n’existait pas.

    On aimerait donc voir des statistiques économiques où chaque chiffre serait accompagné de l’indication de son écart type ; cette pratique n’a pas cours, et il n’est pas bien difficile. de trouver pourquoi. Les raisons sont fréquemment de nature politique. Le gouvernement reçoit de l’argent d’une assemblée, congrès ou parlement, et préfère ne pas montrer aux législateurs, qui tiennent les cordons de la bourse, qu’il entre une part d’incertitude dans ses calculs et dans ses mesures.

    Il n’y aurait pourtant point de honte à cela, car il serait facile de démontrer que la perfection n’est pas de ce monde. Il y a quelques années, en Allemagne, un organe consultatif du gouvernement, sorte de conseil économique, fit une tentative pour livrer des chiffres assortis de leur marge d’erreur, dans la mesure où elle pouvait être évaluée. Le gouvernement intervint pour mettre fin à cet étalage indécent.

    Une attitude comme la sienne, si elle continuait à prévaloir comme c’est le cas à présent, rendrait impossible tout progrès aussi bien dans le domaine politique que dans celui de la science économique, pour autant qu’elle se fonde sur une notion rigoureuse de ce que sont des données quantitatives. Quand on dévalue le dollar, quelqu’un décide qu’une dévaluation de tant pour cent, ni plus ni moins, constitue la dose requise, mais cet individu ne possède aucun renseignement qui permette de savoir si ce taux est bien le bon.

    Même si l’on s’est livré à des calculs préalables, ceux-ci sont fondés sur des chiffres censés exempts, d’erreur, et il est clair que si l’existence de ces erreurs était prise en considération dans les calculs, les déclarations politiques ne seraient pas formulées avec la belle assurance qui les caractérise aujourd’hui.

    Les pièges du produit national brut

    Je me suis référé jusqu’ici à des faits accessibles à l’observation directe, mais le mal est plus profond : il tient à quelques-uns des concepts mêmes qui sont à la base de certaines observations. Prenons par exemple le produit national brut, ou PNB : c’est une notion populaire dans le monde entier, et pourtant chargée d’absurdités et de difficultés incroyables. Le PNB prétend mesurer l’évolution de la production nationale par l’intermédiaire des variations du volume total des transactions.

    L’œil et l’attention des, gouvernements, des hommes d’affaires et du public sont fixés sur ce chiffre, sur lui seul. S’il augmente, c’est merveilleux ! Ne fût-ce que d’un demi pour cent, c’est mieux que rien. Une différence comme celle entre 1,5 et V % pendant le bref intervalle d’un trimestre sera considérée comme « significative ». Mais qu’y a-t-il derrière ? Il est impossible, on l’a dit plus haut, de mesurer aussi rapidement une masse d’événements aussi vaste que l’est l’ensemble de toutes les transactions ayant eu lieu dans un pays. Cela reste vrai même si l’on dispose d’ordinateurs, qui accélèrent le traitement des informations, et si l’on utilise à fond tous les autres moyens de renseignement. Mais non, on veut que ce chiffre à lui seul nous fasse savoir si le pays est en progrès ou en régression sur le plan économique.

    Ce chiffre est d’ailleurs un chiffre scalaire, et non pas même un vecteur dont les composantes correspondraient aux divers secteurs de l’économie. Tout ce qui a pour résultat un accroissement des dépenses est enregistré comme une «croissance». Ce qui est curieux, c’est que les pannes du système sont inscrites à son crédit.

    Si vous êtes immobilisé dans un embouteillage, vous consommez davantage d’essence, vous payez plus cher le kilomètre en taxi ; si des avions font la queue au-dessus des aéroports sans pouvoir atterrir tandis que d’autres attendant pour décoller, ou même s’il arrive une catastrophe qui entraîne des réparations, tout cela nous est comptabilisé comme un accroissement du PNB !

    L’économie est trop complexe pour pouvoir être représentée par un chiffre unique. C’est comme si la croissance d’un homme depuis le biberon jusqu’à l’âge adulte était représentée par un seul chiffre qui couvrirait sa croissance physique, sa taille, son poids, ses études, son intelligence, etc. ; si minime est l’effort de réflexion requis pour apercevoir toutes ces difficultés qu’on est parfois gêné, en tant qu’économiste, vis-à-vis de physiciens ou autres, d’avoir à révéler que cet état de choses est caractéristique de la situation des sciences sociales.

    Il est d’ailleurs assez curieux que la théorie des probabilités, sans laquelle la science moderne ne serait pas ce qu’elle est, tire son origine dans des phénomènes sociaux : l’étude des jeux de hasard, et l’observation de certains phénomènes économiques et mouvements de population. Après quoi cette théorie si puissante, et dont l’importance ne cesse de croître, a surtout été utilisée dans les sciences physiques, depuis le début du XIX’ siècle jusqu’à nos jours.

    Dans les sciences sociales, une attitude déterministe continue de prévaloir, et c’est tout juste si l’on commence aujourd’hui à percevoir quelques indices d’un changement de perspective et de point de vue. Il n’est pas encore tout à fait admis en bonne compagnie de mettre l’accent sur l’existence d’erreurs dans les observations économiques et sociales, dans, les statistiques et dans les mesures prises, de même que naguère encore il n’était pas poli de dire que quelqu’un était mort d’un cancer : à présent, on n’hésite pas à mentionner dans les nécrologies cette cause de décès.

    Si un déterminisme aussi marqué caractérise dans l’ensemble les sciences économiques, ce n’est pas seulement par crainte de regarder en face l’incertitude qui affecte leurs données, mais aussi, je crois, en grande partie pour des raisons politiques. Tout parti politique, qu’il soit marxiste ou capitaliste, tient à démontrer que ses conclusions sont définitives, que ses prévisions sur l’évolution de l’économie ou ses dithyrambes sur la façon admirable dont fonctionne le libre marché, sont solidement fondés et ne laissent pas prise au doute, ne souffrent aucune incertitude. Il va falloir changer tout cela, et l’on commence en effet à voir venir un changement.

    A l’avenir, il sera certainement impossible aux sciences sociales de se développer de façon différente des sciences physiques, en ce qui concerne les exigences de rigueur scientifique et les méthodes d’analyse. Si l’observation de la nature est elle-même chargée d’incertitude, comment le monde social et économique, dans toute sa complexité, pourrait- être observé valablement d’un point de vue plus déterministe, lui qui est véritablement encastré dans l’univers naturel ?

    La validité des prévisions varie évidemment selon qu’on se rend compte ou non de l’importance des incertitudes. Il est intéressant de noter que jusque dans un domaine économique où les données atteignent un maximum de précision, à savoir les cotes de la bourse, les prévisions restent notoirement incertaines. En fait, dans la plupart des situations, elles sont même impossibles.

    Il se peut que ce soit dû à la structure particulière de la bourse, mais si ce grand et important marché est sujet à des variations aléatoires, comment d’autres marchés, où les renseignements sont bien plus difficiles à obtenir et chargés de bien plus d’erreurs, pourraient-ils être mieux compris ? Comment les théories pourraient-elles y posséder un pouvoir de prévisions plus grand ?

    Sortir l’économétrie de son ghetto mathématique

    Les économistes se trouvent vraiment devant un étrange dilemme. D’un côté, la quantité d’informations économiques s’accroît selon un taux incroyable, surtout grâce aux ordinateurs, qui permettent d’enregistrer de nombreuses activités qui échappaient autrefois à l’observation numérique. En même temps, l’économétrie, science qui vise à faire des mesures économiques véritables et à les lier ou les combiner en vue de les incorporer à une théorie, devient de plus en plus mathématique et a besoin de subir de profonds rajustements.

    On a vu il y a quelques années un curieux débat : les mesures sans théorie, c’est-à-dire « impartiales », font-elles vraiment progresser la science économique, ou les théories doivent-elles précéder toute tentative de mesure ? Cela rappelait assez le vieux conflit entre l’économie comme science théorique et comme science historique, qui a débouché comme on sait sur la découverte que les deux choses ne sont pas contradictoires dans les faits : il est impossible de faire de la théorie économique sans mesures, et des mesures sans théorie ne veulent rien dire.

    On peut dire que tous les progrès, dans toutes les sciences, ont été accomplis grâce à l’introduction de concepts nouveaux, et ceux- ci à leur tour ne pouvaient naître que lorsque le chercheur avait sous les yeux un grand nombre de données empiriques. C’est ce qui s’est passé pour les découvertes de Kepler, fondées sur les prodigieuses observations et mesures de Tycho-Brahé ; et aussi pour Mendel, qui commença par accumuler de longues années d’expériences de génétique.

    De même, l’économétrie aujourd’hui doit relever un immense défi. Il s’agit d’élaborer une image du monde réel qui tienne compte de toutes les Incertitudes impliquées par les procédés de description. Pour ce faire, les chercheurs qui ont pour tâche d’organiser les divers aspects de cette image devront utiliser le sens commun, en même temps que certains concepts empruntés à la théorie économique devront servir de guide.

    La difficulté est que les économètres sont dispersés dans de nombreux pays dont les structures économiques et sociales sont très différentes : on doit donc émettre des réserves sur la valeur des comparaisons de leurs mesures. De plus, les économies changent, tandis que les lois de la nature sont stables, du moins dans le champ d’action qui est celui de la physique, et même de la biologie.

    Face à ces difficultés, il n’est pas étonnant que les économètres trouvent plus commode d’élaborer des méthodes abstraites et très raffinées que de les mettre en pratique. L’économétrie a produit un volume important d’ouvrages théoriques, mais rares sont les applications expérimentales qui permettraient d’en extraire ce dont on a, en fait, besoin : une Image de la façon dont fonctionnent réellement les systèmes économiques de différents pays.

    Notons aussi que les méthodes statistiques, potentiellement très puissantes, nécessitent un appareil de données et de théories économiques dont la structure soit très rigoureuse et ne laisse passer que des erreurs minimes. Cela souligne le fait qu’une grande précision des données et des mesures n’est vraiment nécessaire ou môme utile que pour des théories très puissantes, mais il se trouve justement que la plupart des données disponibles sont de mauvaise qualité et ne sauraient servir à travailler avec les concepts plutôt raffinés que l’on tente d’instaurer et d’utiliser en théorie économique.

    Il y a donc une dualité entre la structure – fine ou non – de la théorie, et la qualité des données correspondantes. Comme en physique, l’écart est considérable entre le degré de confiance qu’on peut accorder à telle information et à telle autre, entre le degré de précision d’une mesure et d’une autre. Par conséquent, les affirmations fondées sur des théories économiques sont de valeur très inégale. Malheureusement, de nos jours, et surtout dans les milieux gouvernementaux, on ne fait pas de telles distinctions, et dans les manuels scolaires pour débutants ou même pour les étudiants plus avancés, on ne trouve pas le moindre mot indiquant qu’il subsiste dans les sciences économiques des problèmes non résolus.

    Cependant, ces sciences sont pleines d’énigmes encore à résoudre. Il arrive certes que des prévisions correctes soient faites, ce qui semblerait renforcer la puissance et l’exactitude de la théorie sous-jacente ; mais ce sont là des faits dont on aurait tort d’exagérer l’importance.

    Même des théories fausses sont capables de prévisions exactes : témoin la théorie ptoléméenne, d’après laquelle nous pouvons calculer la date juste de la prochaine éclipse de lune tout en sachant parfaitement que la théorie est fausse. Ainsi, une prévision correcte ne prouve ni l’exactitude des observations qui l’ont précédée, ni la justesse de l’interprétation qu’on en a faite.

    L’ordinateur… et la mauvaise manière de s’en servir

    La découverte de l’ordinateur a évidemment une importance énorme pour les chercheurs en sciences sociales. C’est sans doute la plus grande découverte technologique de notre époque, plus importante même que la fission de l’atome. Comme, parmi les sciences économiques, il en est peu qui se prêtent à une expérimentation directe, la simulation rendue possible par l’ordinateur supplée au manque de procédés expérimentaux.

    La transformation des sciences économiques par l’ordinateur; ne fait que commencer, mais on peut déjà discerner quelques grandes lignes importantes ; quelques dangers méritent une mise en garde.

    Le grand mathématicien Gauss disait. « Le manque de réflexion. mathématique ne se fait jamais voir de façon aussi éclatante que dans l’excès de précision apporté à des calculs numériques. » Que dirait Gauss aujourd’hui, ou des informations insuffisamment analysées, de qualité très inégale, sont entrées pêle-mêle dans les ordinateurs pour subir des millions de multiplications, dans l’espoir qu’au bout du compte quelque résultat significatif apparaîtra ?

    Tout cela repose souvent sur un petit nombre d’équations qui prétendent refléter la réalité économique ; et, à partir des calculs on fait des prévisions, qui servent de base à des décisions politiques.

    Le champ des mathématiques numériques s’est énormément développé depuis l’avènement de l’ordinateur. Cependant, la plupart des ouvrages portent avant tout sur des techniques de calcul ou des procédés plus simples et plus sûrs pour résoudre les équations. Le problème qui nous occupe ici intéresse par contre la nature des relations entre les théories fondamentales d’une part, et les résultats numériques obtenue par des calculs fondés sur les modèles qu’elles ont construits d’autre part.

    La théorie économique s’est très tôt posée des questions de ce genre : on se souvient du fameux passage où Pareto, dans son Manuel d’économie politique 1907 démontre que, suivant sa théorie générale de l’équilibre, pour un système contenant seulement 100 personnes et 700 produits, il n’y aurait pas moins de 76990 équations à résoudre. Chiffre énorme, et pourtant il est clair que, par rapport à la population d’un pays, 100 personnes ne constituent qu’une fraction minime.

    Au lieu de résoudre les équations concernant un si petit nombre d’individus, on préfère travailler sur des agrégats, établie des modèles qui ne comprennent qu’un petit nombre de variables dont chacune couvre un grand nombre d’individus. On espère ,ainsi diminuer la difficulté, et dans un certain sans, évidemment, on y parvient. Hélas ! tout se paie, et l’évaluation des agrégats, loin d’être un procédé inoffensif, engendre à son tour des problèmes.

    De la modélisation au calcul

    Examinons comment envisager un calcul, quel qu’il soit, sur une grande échelle. Je me réfère ici à un ouvrage important de Von Neumann et Goldstine. Quoique leurs travaux datent d’il y a vingt-cinq ans, rien n’est venu affecter la validité de leurs résultats ni, je crois, ne pourrait le faire. Comme beaucoup de problèmes économiques sont représentés par des matrices d’un ordre élevé, comprenant plusieurs centaines de lignes et de colonnes, nous pouvons citer le problème que pose l’inversion des matrices, elle comporte quatre stades, qui occasionnent inévitablement des erreurs de types divers dont certaines, nous le verrons, d’importance primordiale.

    En voici la liste :

    Le problème économique, brut, à la base, ne peut être exprimé qu’au prix d’une idéalisation, d’une simplification et d’omissions. En d’autres termes, il faut construire un modèle mathématique, qui, comme les modèles dans toutes les sciences, constitue une simplification de la réalité. Je n’insiste pas sur ce point, car le problème est commun à toutes les sciences, et tout économiste est conscient qu’il simplifie, parfois de façon radicale. C’est un dilemme auquel on ne saurait échapper, et d’ailleurs une simplification n’est pas forcément néfaste.

    Étant donné le succès de théories physiques telles que la théorie newtonienne de la gravitation, on voit qu’il est possible d’aller très loin même avec des simplifications grossières.

    Si l’on accepte le modèle comme une image fidèle et cohérente de la réalité, on constatera que la description du phénomène choisi nécessitera des paramètres dont la valeur sera fixée par l’observation, directement ou indirectement c’est-à-dire par l’intermédiaire d’une autre théorie ou d’un calcul préalable. Ces paramètres vont donc comporter des erreurs qui, à leur tour, se retrouveront dans les résultats de tous les calculs. C’est là le point décisif. C’est à ce stade qu’interviennent les erreurs d’observation, et leur influence affecte les résultats plus gravement qu’aucune.

    La formulation mathématique stricte du modèle doit être remplacée par une formulation approximative. Cela veut dire que de nombreuses opérations transcendantes telles que celles qu’impliquent des fonctions comme le sinus ou le logarithme, ou des opérations telles que l’intégration et la différenciation, ainsi que les expressions implicites, etc., que l’on trouve inévitablement dans les divers modèles utilisés en théorie économique – tout cela devra être traité numériquement.

    Autrement dit, il faudra remplacer toutes ces opérations par des procédés élémentaires. De même, les processus qui convergent ou tendent vers une limite devront être interrompus à un certain endroit ou tronqués dès qu’on jugera atteindre un niveau d’approximation suffisant.

    Même si l’on ne se sent pas gêné par ces trois sources d’erreurs, qui influent sur la nature des calculs et leur validité, il en reste encore une très importante dont la présence est significative.

    C’est qu’aucun procédé ou moyen de calcul ne peut faire les opérations élémentaires – en tout cas pas toutes les opérations élémentaires – avec une rigueur absolue et sans fautes. Il ne s’agit pas ici des erreurs que peut commettre un ordinateur mal programmé ou qui souffre de déficiences mécaniques ou électriques. Non, c’est plus grave. Le processus de calcul lui-même comporte des traits inhérents qui lient l’exécution de toutes les opérations à l’introduction simultanée, inévitable et systématique de certains types d’erreurs.

    Considérons, pour illustrer les erreurs liées au fait d’arrondir un chiffre, un ordinateur ayant une limite de capacité lui permettant de retenir disons 8 chiffres : en multipliant deux nombres de 8 chiffres, on en obtient un de 16 chiffres qu’il faudra arrondir à 8. Répétez l’opération quelques millions de fois comme c’est nécessaire dans bien des inversions de matrices et demandez-vous si le résultat final est encore valide. C’est là un problème fondamental. Quelle que soit la capacité de l’ordinateur, il vient toujours très vite un moment où il faudra arrondir, sans quoi on finirait bientôt par avoir des nombres comprenant plus de chiffres qu’il n’y a de particules dans l’univers.

    En ajoutant cette difficulté au fait que les données comportent un assortiment d’erreurs diverses, on aura une idée de l’étendue du problème auquel se heurte la vulnérabilité relative de divers types de modèles à divers coefficients d’erreur. Des recherches ont démontré que certains des modèles les plus connus sont extrêmement vulnérables.

    Par exemple, dans un modèle a six équations, même si le coefficient représentant les salaires est le seul où se soit glissée une erreur, mettons de 10 %, le chiffre indiquant les profits sera affecté d’une erreur de 23,4 % en trop ou de 21 % en moins si l’erreur de base est négative. Quand toutes les variables sont sujettes à l’erreur, comme c’est toujours le cas, les résultats sont encore pires. Et ce n’est là qu’une seule illustration.

    Je termine ces réflexions par un simple exemple qui devrait nous inspirer à tous une salutaire prudence. Prenons le système de deux équations

    x-y = 1 et x-1,00001 y = 0

    Elles ont pour solution : x = 100.001, y = 100.000.

    Mais les deux équations suivantes presque identiques :

    x-y = 1 et x-0,999 99 y ont pour solution : x = -99 999, y = -100 000.

    Les coefficients diffèrent tout au plus de deux unités à la cinquième décimale, mais les solutions diffèrent de 200.000. Est-il nécessaire de ne rien ajouter ?

    La Recherche   http://fortune.fdesouche.com

  • La formation en Intelligence Economique à la croisée des chemins

    Depuis vingt ans, nous cherchons à créer un état d’esprit favorable à une prise en compte de  l’usage de l’information. Si j’osais une comparaison historique un peu décalée, nous sommes encore loin d’égaler le niveau de ferveur des soldats de l’armée de l’an II. Or c’est justement la volonté de réagir sans trop savoir comment et avec une minorité potentiellement agissante que l’armée de l’an II a pu se transformer en une force capable de rivaliser avec toute une partie de l’Europe de la fin du XVIIIe siècle. La France du XXIe siècle entame à peine cette mutation dans un contexte de guerre économique.

    Par Christian Harbulot

    Les pays qui sont très avancés dans un tel processus sont les nouveaux entrants à l’image de la Chine qui développe depuis  30 ans un modèle d’accroissement de puissance par l’économie, reprenant à son compte les fruits du modèle japonais et sud-coréen. Ces économies combattantes ne fonctionnent pas comme les acteurs économiques du monde occidental. Mais le résultat est là : la Chine est en train de devenir la partie la plus dynamique du monde.

    Face à ce monde en mouvement, on ne ressent pas dans notre pays l’âme d’un peuple, ni le partage de valeurs communes pour un combat utile à l’intérêt général.

    La notion d’affrontement non militaire n’est prise réellement au sérieux que dans la gestion des parcours professionnels ou dans la vie privée. Par ailleurs, on voit apparaître un nouvel univers conflictuel, celui de la société d’information dont le cyberespace n’est qu’une toute petite partie par rapport à ce que cet univers représente.

     

    Autrement dit, nous avons deux défis à relever :

    • L’élargissement du champ de vision de l’intelligence économique,
    • L’usage de la connaissance dans la société de l’information.

    Imiter le réalisme américain
    Récemment, un article dans le Figaro indiquait que le made in America commençait à porter ses fruits, dans un pays libéral où il y a une mobilisation des parties prenantes pour créer de l’emploi localisé, avec un objectif de 5 millions d’ici 2020. Le projet est défini par le Président des Etats-Unis et appuyé par le Congrès des Etats Unis. Notre pays phare, celui auquel notre élite se réfère depuis des dizaines d’années, agit et cela commence à engranger des bénéfices.

    Alors que nous, quand on parle du made in France, on en est encore à une publicité symbolisée par la marinière portée par le Ministre du Redressement productif. Il y a là un véritable problème.

    Avant tout c’est un problème de synchronisation de la réflexion stratégique car personne ne nous interdit d’imiter le modèle américain, que ce soit au niveau français ou au niveau européen.

    Les Américains jouent sur tous les tableaux en plaidant à la fois l’ouverture des marchés tout en appliquant parallèlement des mesures protectionnistes, contrant l’appétit commercial du Japon au début des années 1990 pour ensuite lui faire de nouvelles concessions depuis un an à cause de la pression exercée par la Chine dans cette région du monde. Dans le même ordre d’idées, ils ouvrent leur marché intérieur à la Corée du Sud (menacée par la Corée du Nord communiste), alors qu’ils savent pertinemment que c’est un concurrent redoutable dans des secteurs industriels de pointe. Cette géométrie variable dans la gestion des affrontements nous sort des clichés habituels sur la mondialisation. Pour autant, cela ne veut pas dire qu’il n’y ait pas de grandes négociations entre les Américains et les Chinois, ni d’essor des échanges commerciaux.

    Le problème de la France en 2013 réside dans son incapacité à engager ses forces vives dans des stratégies concertées de moyen/long terme.

    Mais aujourd’hui, nous n’avons plus le choix, et si les Etats-Unis nous montrent l’exemple, il suffit de les imiter. Notons à ce propos que la plupart des commentateurs en sont encore à ricaner sur le made in France.

    Donc nous, Français, n’avons pas encore franchi le Rubicon. Tout reste à faire et la priorité absolue est de trouver les arguments légitimes afin de formaliser sur le terrain économique les bases d’une unité nationale.

    Nous avons encore beaucoup de mal à rentrer dans ce mode de raisonnement. Et ce n’est certainement pas en concentrant les efforts sur la sécurité que l’on va répondre au besoin vital de stratégie de développement et de conquête de parts de marché. Mais pour se mettre en ordre de marche, encore faut-il savoir tirer certaines leçons tirées du passé ?

    Eviter les pertes de mémoire
    Dans un premier temps, il faut tirer le bilan du début de la Vème République. Le général de Gaulle n’a pas été suivi par sa majorité dans sa volonté de limiter la dépendance de la France vis-à-vis des Etats-Unis. Les traces de cette démarche ont été discontinues et trop peu suivies d’effets. Je pense notamment au rapport Made in France de Benjamin Coriat et Dominique Taddei publié en 1992 et cité dans les travaux de la commission Compétitivité du XIe Plan. Sur quelle mobilisation a-t-il débouché ? De plus, il a fallu que Louis Gallois, membre de cette commission, lève le doigt pour dire: « Cela serait bien d’ajouter une page sur le rôle de l’information dans la compétitivité». Il n’y avait aucune analyse du rôle stratégique de l’information dans le rapport de Coriat et Taddei.
    Etrange rupture dans le cheminement de la connaissance dans la mesure où Jean Michel Treille qui travaillait au Commissariat général au Plan au début des années 1970, avait déjà bien avancé sur ce sujet. Il était chargé de développer

    le système d’information Mars qui avait pour vocation de permettre un échange d’informations entre les administrations, les grands groupes et les PME dans le cadre d’une politique industrielle concertée.

    En 1976, les pouvoirs publics ont mis fin à l’expérience. Dans un article du Monde paru à la même époque, il était précisé que certaines grandes entreprises du CAC 40 n’estimaient plus utiles de partager de l’information avec des PME.

    Cette remise en cause de la politique industrielle amorcée par Michel Debré en 1961 a marqué un coup d’arrêt à la réflexion sur le devenir de la puissance économique de la France.

    C’est sur la base de ces bilans qu’il faut reconstruire les points de repère d’une réflexion stratégique. Dans cette longue marche vers la recomposition de forces vives, le rapport Martre a donné l’exemple. Dans ce rapport, aurait dû figurer le bilan de l’échec de la vente du Mirage 2000-5 à la Finlande. Extraordinaire effort collectif de quatre industriels et de l’Etat pour tirer le bilan d’un échec commercial. Tout le monde avait été d’accord pour travailler sur ce bilan d’un échec, c’était pour une fois une rupture fondamentale avec les pratiques existantes. Hélas un incident anodin fit capoter la diffusion de cette étude de cas de plusieurs dizaines de transparents. Il faut remercier Henri Martre d’avoir pu nous permettre au moins d’entrer dans cette logique. Malheureusement, l’absence de trace écrite est très pénalisante.

    Sortir la formation en IE de son isolement académique
    Un autre problème se pose désormais de manière récurrente, celui de la formation. Nous savons pertinemment que le problème n’est pas résolu. Malgré les différentes lettres de mission de Premier ministres (Raffarin, Villepin, Fillion), la question de l’ancrage de l’intelligence économique n’est toujours pas résolue. Il existe des précédents sur la perte de savoir. L’école de la veille technologique née dans les années 1970/1980 a disparu, faute de successeurs aux pionniers universitaires comme Henri Dou et Humbert Lesca. D’autres écoles de pensée pourraient disparaitre de la même manière.
    La question de la formation se pose à plusieurs niveaux :

    • Les classes préparatoires des lycées car c’est là que commence le processus de formation des élites. Le réseau Anteios a le mérite d’avoir publié des écrits sur la guerre économique pour sensibiliser les professeurs des classes préparatoires,
    • Les grandes écoles qui sont encore très peu impliquées dans une démarche volontariste de formation à l’intelligence économique.
    • L’université qui commence enfin à s’intéresser au sujet sans pour autant définir des cadres de recherche durables. La création d’un réseau d’enseignants chercheurs (idée portée par Nicolas Moinet, Professeur à l’IAE de Poitiers) et la reconnaissance de R2IE comme revue notée marqueraient une avancée significative.

    Les entreprises ont aussi un rôle capital à jouer dans la consolidation du système de formation à l’intelligence économique. L’implication de cadres d’expérience dans la définition de programmes pédagogiques est requise pour donner du crédit aux enseignements à l’intelligence économique dont la très grande majorité reste encore beaucoup trop théorique et très faiblement productrice de connaissances.

    Valoriser l’excellence française

    Notre potentiel industriel est souvent méconnu par la population française. Nous sommes en avance sur les Etats-Unis dans certains domaines.

    A New York, par exemple, les blocs électrogènes ont été utilisés pendant des mois pour alimenter des immeubles privés de courant après les incidents dus à la tempête de l’hiver dernier. EDF et ERDF sont mille fois plus efficaces pour réparer le réseau dans des conditions similaires. Qui sait que nous avons dans le domaine de l’économie de l’électricité dix à quinze ans d’avance sur une partie des technologies utilisées dans le monde occidental.
    Quand allons-nous le dire ?
    Quand allons-nous le démontrer ?
    Quand allons-nous le faire savoir à nos jeunes générations ?
    Quand allons-nous leur donner l’envie de se battre ?
    Pour eux, pour ce pays, et pour éventuellement l’Europe si l’Europe arrive à exister.
    Voilà pour l’instant la priorité essentielle. Mais ce ne sont pas des individus isolés qui arriveront à gagner cette bataille. Ce ne peut être que le fruit d’une démarche collective qui exclut tout sectarisme.

    infoguerre.fr

  • La production d’hydrogène abordable grâce à l’énergie solaire

    Des chercheurs allemands et hollandais viennent de mettre au point une cellule solaire capable de produire de l’hydrogène et de l’oxygène par électrolyse de l’eau, ou hydrolyse. De quoi stocker l’énergie solaire et envisager un mode de production durable pour l’hydrogène, un potentiel carburant d’avenir.

    Quand la lumière (flèche arc-en-ciel) atteint le système, un potentiel électrique est créé. La couche d’oxyde métallique (grad-doped BiVO4) capte une partie de la lumière et sert de photoanode. La couche est reliée à la cellule solaire (en noir) par l’intermédiaire d’un pont conducteur en graphite. La cellule reçoit également une partie de la lumière, augmentant le potentiel électrique. L’oxygène se forme alors au niveau de la photoanode, tandis que l’hydrogène est dégagé au niveau d’une spirale de platine plongée dans l’eau et qui fait office de cathode.
    Quand la lumière (flèche arc-en-ciel) atteint le système, un potentiel électrique est créé. La couche d’oxyde métallique (grad-doped BiVO4) capte une partie de la lumière et sert de photoanode. La couche est reliée à la cellule solaire (en noir) par l’intermédiaire d’un pont conducteur en graphite. La cellule reçoit également une partie de la lumière, augmentant le potentiel électrique. L’oxygène se forme alors au niveau de la photoanode, tandis que l’hydrogène est dégagé au niveau d’une spirale de platine plongée dans l’eau et qui fait office de cathode.

    Souvent évoqué comme le carburant du futur, l’hydrogène est un bon candidat pour alimenter les voitures dotées de piles à combustible. Mais il rencontre un plusieurs écueils : sa production avec les méthodes actuelles (comme l’électrolyse) reste chère, peu efficace, et impacte l’environnement.

    Aussi, la possibilité de produire de l’hydrogène à partir d’eau et de lumière du soleil est suivie avec sérieux, et plusieurs recherches récentes en témoignent. En 2008, des chercheurs russes avaient proposé une méthode de photosynthèse artificielle dans ce but.

     

    Une équipe suisse poursuit le même objectif, en tournant ses recherches vers l’eau et l’oxyde de fer, plus communément appelé rouille. L’an dernier, cette équipe courait toujours après un rendement de conversion de 10 % de l’énergie solaire en hydrogène.

    Conversion bon marché de l’énergie solaire en hydrogène

    Dans le même ordre d’esprit, des chercheurs de l’université de technologie de Delft (Pays-Bas) et du Helmholtz-Zentrum Berlin (HZB) ont couplé une cellule solaire simple et une photoanode en oxyde métallique, ont réussi à atteindre un taux de conversion de 5 % de l’énergie lumineuse en hydrogène.

    Selon les scientifiques, leur dispositif est nettement moins coûteux que des cellules de haut rendement à triple jonction en silicium amorphe ou d’autres semi-conducteurs utilisés pour ce type de réaction. Leurs résultats sont exposés dans la revue Nature Communications.

    Pour leur photoanode, le choix s’est porté sur le vanadate de bismuth (BiVO4), qui, à l’instar de la cellule solaire simple, a un coût modique : il est disponible en abondance, et est utilisé comme pigment jaune dans les peintures. Son usage permet en principe d’atteindre un taux de conversion de 9 % de l’énergie lumineuse en hydrogène dans le dispositif des chercheurs. Cet oxyde métallique a donc été déposé sur une surface de verre conducteur.

    Puis l’on a recouvert le tout d’un catalyseur bon marché, le phosphate de cobalt, en contact avec l’eau, et qui aide à accélérer notablement la formation de dioxygène. Le tout repose sur la cellule solaire, et celle-ci n’est donc pas en contact avec l’eau.

    Le plus grand défi, pour les chercheurs, résidait dans la séparation correcte des charges au sein de l’oxyde métallique. En d’autres termes, il s’agissait d’éviter leur recombinaison : si les charges se recombinent, elles ne sont plus disponibles pour la réaction d’électrolyse, le but premier du dispositif.

    L’ajout d’atomes de tungstène au sein de la couche d’oxyde métallique remplit ce rôle. « L’important était de distribuer ces atomes de manière à générer un champ électrique dans la couche, qui aide à empêcher les recombinaisons », explique Roel van de Krol, qui a dirigé ces travaux.

    En revanche, les chercheurs ne comprennent pas encore totalement pour quelle raison le vanadate de bismuth présente de meilleurs résultats que les autres oxydes métalliques. Cerise sur le gâteau, « plus de 80 % des photons incidents contribuent au courant, une valeur inattendue qui établit un nouveau record pour un oxyde métallique », poursuit Roel van de Krol.

     Vers une production significative d’hydrogène directement sur les toits ?

     Les scientifiques ont ainsi obtenu un moyen relativement simple et peu onéreux de convertir de l’énergie solaire en hydrogène grâce à un procédé de photosynthèse artificielle. Une fois l’hydrogène stocké, on peut s’en servir sous différentes formes : dans des piles à combustible ou encore sous forme de méthane, selon l’usage visé.

    Reste la question de la montée en échelle, et les chercheurs vont y consacrer leurs prochains efforts. Avec le rendement actuel de 5 % dans la conversion de la lumière solaire en hydrogène, et en prenant une performance solaire de l’ordre de 600 W/m2 en Allemagne, un peu plus d’une trentaine de mètres carrés suffiraient pour dépasser la barre du kilowattheure stocké chaque heure sous forme d’hydrogène.

    Futura Sciences    http://fortune.fdesouche.com

    [NB : L'article ci-dessous date de 2008]

    L’hydrogène bientôt utilisé pour stocker l’énergie solaire

    En s’inspirant de la photosynthèse, des chercheurs étudient le moyen de se servir de l’énergie solaire pour produire de l’hydrogène à partir de l’eau, lequel peut être stocké plus facilement que l’électricité avant d’être utilisé dans une pile à combustibles. Deux équipes viennent indépendamment de réaliser chacune une grande avancée.

    Au Massachusetts Institute of Technology (MIT), Daniel Nocera et ses collègues s’obstinent à réussir une réaction chimique que les plantes vertes effectuent tant qu’il y a du soleil : la cassure de la molécule d’eau en ses deux constituants, l’hydrogène et l’oxygène.

    Réalisée dans les feuilles grâce à la chlorophylle (ou à des pigments différents chez d’autres organismes photosynthétiques) et à l’énergie apportée par la lumière, elle constitue l’une des deux réactions de la photosynthèse, l’autre étant la transformation du gaz carbonique (CO2) en une molécule organique qui servira à fabriquer des sucres.

    On sait depuis longtemps la réaliser en apportant de l’énergie sous forme électrique. C’est l’électrolyse. En plongeant deux électrodes dans l’eau et en appliquant une tension suffisante, on obtient un dégagement d’oxygène à l’anode et d’hydrogène à la cathode. Mais l’idée d’effectuer la réaction sans autre apport d’énergie que celle du soleil hante les laboratoires depuis longtemps.

    L’hydrogène, que l’on commence à savoir enfermer dans des réservoirs, est bien plus commode à stocker que l’électricité. On peut ensuite récupérer l’énergie ainsi mise en réserve, par exemple dans une pile à combustibles où s’effectue la réaction inverse, produisant de l’eau et du courant électrique. L’hydrogène peut aussi être utilisée par d’autres moyens. L’énergie solaire pourrait alors être utilisée de manière plus souple qu’en produisant de l’électricité au gré de l’ensoleillement.

    A la recherche du catalyseur

    Mais il reste encore un long chemin à parcourir pour égaler l’efficacité des plantes vertes. L’électrolyse réclame énormément d’énergie alors que la photosynthèse se contente de peu. Si l’on parvient à trouver un moyen pour réaliser l’électrolyse avec une quantité d’électricité suffisamment faible, celle-ci pourrait être alors fournie par des cellules solaires. Les chercheurs sont persuadés que la solution se trouve dans le domaine de la chimie et en particulier des catalyseurs, ces molécules capables d’accélérer considérablement une réaction chimique sans être elles-mêmes altérées.

    L’équipe de Daniel Nocera vient de présenter une remarquable avancée dans ce domaine en mettant au point un catalyseur à la fois efficace et bon marché. Alors que les recherches précédentes suivaient la piste d’un matériau à la structure maîtrisée, celui des chercheurs du MIT est amorphe et se forme de lui-même en s’accumulant spontanément autour de l’électrode (l’anode, en l’occurrence).

    Cette dernière est constituée d’un oxyde d’étain et d’indium, plongée dans une solution contenant du phosphate de potassium et du cobalt. Sous l’action du champ électrique, ces éléments s’accumulent autour de l’anode où ils deviennent un catalyseur très efficace pour rompre la molécule d’eau et produire de l’oxygène gazeux, qui s’échappe, et des ions d’hydrogène, qui restent dans la solution.

    « Nocera a probablement retiré du travail à beaucoup de chercheurs » plaisante Karsten Meyer, chimiste à l’université Friedrich Alexander (Allemagne), qui s’exprime dans la revue du MIT et n’hésite à qualifier cette réalisation de « plus grande découverte du siècle » dans le domaine de l’énergie solaire.

    Une électrode en plastique

    Côté cathode, en revanche, là où doit être produit l’hydrogène gazeux (et les ions en oxygène qui restent en solution), le catalyseur utilisé par l’équipe est le platine, un élément rare dont il est inutile de rappeler le coût.

    Mais les laboratoires mondiaux ne chôment pas et, dans le même temps, à des milliers de kilomètres de là, une autre équipe, celle de Bjorn Wintehr-Jensen et ses collègues de l’université Monash, à Clayton (Australie), mettaient au point un catalyseur en plastique. Ces chercheurs ont en effet remplacé l’onéreux platine par un polymère, variante du polyéthylène, le poly(3,4-ethylenedioxythiophene), alias PEDOT, appliqué sur une membrane en Goretex.

    Elle fonctionne au contact de l’air (l’électrolyte étant de l’autre côté) et offre une surface considérable. Il ne faut plus de platine mais tout de même une très faible quantité d’or, qui vient recouvrir les fibres de Goretex.

    L’idée de l’électrolyse à faible consommation d’énergie avance donc à grand pas. La réalisation d’une production d’hydrogène à partir d’énergie solaire se rapproche assez nettement. Mais Daniel Nocera, et d’autres, ont toujours pour objectif d’imiter la photosynthèse et d’utiliser directement l’énergie des rayons solaires pour produire l’hydrogène. A regarder l’activisme des laboratoires du monde entier dans ce domaine, on peut conclure que cet objectif n’est ni utopique ni très éloigné…

    Futura Sciences (Article de 2008)

  • " Dans l'embryon tout est bon" !

    Commuiqué de Laissez les vivre :

    "C'est le titre de l'éditorial de l'hebdomadaire "Minute" du 24 juillet dernier, sous la plume de Jean Rivière. On ne saurait mieux résumer le vote de l'Assemblée Nationale le mardi 16 juillet autorisant sans aucune restriction l'expérimentation embryonnaire, qui exprime le mépris des politiques de la vie humaine. Pour les députés qui ont voté le texte, l'embryon c'est du cochon, on peut en faire n'importe quoi, comme l'affirment les publicités grandeur nature qui, pour attirer le chaland vers les boutiques de charcutiers, proclament : "de la tête à la queue, tout est délicieux..."

    Refus idéologique de la réalité, refus de la Création, et soumission peu reluisante aux exigences des puissances financières internationales des laboratoires pharmaceutiques et cosmétiques. Voilà le bilan des politiques

    Il n'y a rien à espérer sur le plan thérapeutique des cellules souches embryonnaires car elles sont cancérigènes, et ne sauront rivaliser dans l'avenir avec les cellules souches adultes reprogrammées, fruit des travaux du prix Nobel de médecine 2012, le japonais Yamanaka.

     Pourquoi ce vote bloqué et cette précipitation ? alors que la loi bioéthique 2011, votée pour 5 ans, refusait très hypocritement à coup de dérogations, mais refusait quand même l'expérimentation embryonnaire. Après le remboursement à 100% de la contraception et de l'avortement même pour les mineures à la mamelle, après la loi Taubira et la pulvérisation de mariage, demain l'euthanasie pour éliminer les vieux et les malades incurables au nom de la "dignité", la social-démocratie apporte la preuve de sa nocivité et d'une volonté acharnée à détruire la vie et la famille. Il faudra bien un jour demander des comptes à ces gens là !"

    http://aucoeurdunationalisme.blogspot.fr/

  • Detroit hideuse banqueroute de la gauche

     

    Detroit-130722

    La faillite de Detroit, officiellement annoncée le 17 juillet sera difficilement comprise par l'opinion hexagonale. Et pour cause.

    Cette ville représentait un cas d'école de la politique de gauche aux États-Unis. (1)⇓ Aujourd'hui elle paye le prix de 50 années de contrôle par les partisans de l'étatisme et par les bureaucraties syndicales, qui ont fait d'une grande ville américaine un champ de ruines.

    Ne nous étonnons pas si, par conséquent, les homologues français des banqueroutiers cherchent à expliquer autrement la déconfiture, en feignant de n'en remarquer que ses conséquences dommageables. Et en l'imputant aux affreux ressorts de l'économie de marché.

    L'Huma du 21 juillet 2013 donne ainsi comme d'habitude le ton. Le journal communiste prétend fournir "les trois raisons de la faillite de Detroit : la désindustrialisation (…) ; le 'white flight' ou l’exode des classes moyennes" (…) et… l’inaction de l’État du Michigan et du gouvernement fédéral"

    Commentaire encore plus typique : celui de "Solidarité et Progrès", surenchérissant dans la bêtise le 22 juillet : "les emprunts toxiques m'ont tuer". Les esprits faux confondent toujours joyeusement les causes et les effets. Ainsi, l'usure ne crée jamais elle-même le surendettement. Les 18 milliards de dollars de dettes sous lesquels cette municipalité s'est effectivement écroulée, n'ont pas été produits par les conditions d'emprunts. Ceux-ci n'auraient jamais dû être contractés, certes, mais ils n'ont jamais fait qu'aggraver la gabegie. Nombre de collectivités locales françaises ont subi le même phénomène, plombant la banque Dexia instituée précisément pour assurer ces financements contraires à l'ordre naturel.

    Ce que l'Huma appelle 'white flight' c'est-à-dire la fuite des ouvriers blancs, hors des faubourgs de l'assistanat, n'est que le produit de la gestion laxiste et faussement "sociale" de services publics devenus parallèlement inexistants et coûteux. Malgré son déclin démographique, lent et régulier depuis un demi-siècle, Detroit comptait encore 1 fonctionnaire municipal pour 55 habitants contre 115 pour la ville comparable d'Indianapolis.

    Attendons-nous donc à ce discours préfabriqué. On va l'entendre partout, sous des formes plus ou moins édulcorées : c'est la faute à l'ultra libéralisme.

    13725-henry-fordEn fait l'essor et la prospérité de Détroit auront été produits par la libre entreprise. En 1903 Henry Ford y fonde sa compagnie ; en 1908, General Motors, suivi en 1925 par Chrysler. C'est l'époque glorieuse du fordisme, fondé sur l'organisation rationnelle du travail et sur le compromis salarial en relation directe avec la productivité. Bien entendu cette médaille n'est pas dépourvue de revers, et Céline lui consacre un texte célèbre. (2)⇓

    À partir des années 1930, l'agitation marxiste en fera la capitale du syndicalisme : en 1935, fondation de l’United Auto Workers (UAW) ; en 1937 General Motors et Chrysler cèdent devant les grèves. Ford tiendra le choc quelque temps. (3)⇓ Mais en 1941 une première "convention collective" est signée.

    Après la guerre le système américain limite administrativement les augmentations de salaires. Ceci conduit les grandes entreprises à créer des "avantages sociaux". Elles développent notamment les "retraites maison" qui vont durablement plomber les comptes de production.

    Dans les années 1950 Detroit paraît encore une très grande ville américaine. Son influence culturelle n'est pas négligeable. Mais son déclin matériel a déjà commencé : elle perdra 60 % de sa population en 60 ans, passant de 1,8 million d'habitants en 1950 à 702 000 en 2010. D'autres paramètres aggravent le score : taux de chômage, gestionnaires corrompus, absence de couverture des régimes de pensions. L'ancien maire Kwame Kilpatrick, un politicien du Parti Démocrate, comme d'habitude, poursuivi pour fraude sous 24 chefs d'inculpation. La criminalité galopante, aggravée par l'existence de 78 000 immeubles réduits à l'état de squat, se traduit par un appel d'urgence toutes les 58 minutes.

    Aujourd'hui le déclin de cette collectivité semble irrémédiable sauf à prendre des mesures radicales d'assainissement rendues incontournables par le chapitre IX de la loi sur les faillites.

    Observons ici que cela ressemble beaucoup à ce que le "modèle français" de la sécurité sociale en général, et en particulier des retraites dites par "répartition" (un mot qui ne veut rien dire) est parvenu à réaliser au niveau de la nation, – et pas seulement dans l'industrie, mais aussi dans l'agriculture, l'hôtellerie-restauration, les métiers d'art etc. – détruisant ainsi toute la filière du "fabriqué en France". (4)⇓
    JG Malliarakis http://www.insolent.fr/

    Apostilles

    1. cf. la chronique de la "Heritage Foundation" en date du 22 juillet
    2. cf. dans le Voyage au bout de la nuit : "Et j’ai vu en effet des grands bâtiments trapus et vitrés, des sortes de cages à mouches sans fin dans lesquelles on discernait des hommes à remuer, mais à remuer à peine, comme s’ils ne se débattaient plus que faiblement contre je ne sais quoi d’impossible. C’était ça, Ford ?"
    3. cf. 26 mai 1937 : "bataille de l’Overpass", où les syndicalistes "maison" de Ford rossent copîeusement les agitateurs de l’United Auto Workers, devant l’usine de River Rouge à Dearborn.
    4. cf. La Sécurité sociale et comment s'en sortir" par Georges Lane.