Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Science et techniques - Page 41

  • Les lanceurs d'alerte : vigies ou pirates ?

    Jullian Assange, Edward Snowdon, Bradley Manning, ces trois personnages hors du commun ont fait beaucoup parler d’eux. Accusés de traîtrise et d’espionnage, tous les trois connaissent, malgré des soutiens d’importance, l’opprobre et la vindicte des institutions politiques. Le premier est reclus dans l’ambassade de l’Equateur à Londres, le second a obtenu, non sans mal, l’asile politique en Russie mais pour une durée limitée et le troisième, misérable soldat de deuxième classe dans l’armée américaine, vient d’être condamné à 35 ans de prison. Quelles étaient donc leurs véritables motivations ? A les entendre, tous les trois affirment avoir livré et détourné des documents diplomatiques et militaires par pur altruisme, dans le seul but de parvenir à une paix sociale en obtenant des gouvernements et spécialement américain de rétablir la « protection de la vie privée », à lutter contre la corruption, etc.
    Polémia s’est intéressée au cas de ces « whistleblowers »  en publiant deux articles issus de la presse anglo-saxonne et dont on trouvera en notes les liens des originaux. « Le Monde », avec le recul, a publié, sous la signature de Frédéric  Joignot journaliste et romancier, une analyse distinguant les dénonciateurs américains des « lanceurs d’alerte » français. La nuance est parfois subtile ; nous la soumettons à la réflexion de nos lecteurs.

    Aux Etats-Unis, les « whistleblowers » dénoncent des dérives ou des abus de pouvoir déjà existants. En France, l’expression « lanceurs d’alerte » désigne ceux qui anticipent un risque environnemental ou sanitaire. La loi commence à les protéger.

    Les « lanceurs d’alerte » sont des personnages controversés, qui font couler beaucoup d’encre. Petit rappel de l’actualité récente : le 22 juin, l’analyste de l’Agence nationale de sécurité américaine, la NSA, Edward Snowden est inculpé d’ « espionnage » pour avoir transmis à la presse les documents top secret des deux programmes de surveillance massive Prism et XKeyscore. Réfugié à Hongkong, il déclare : « Je suis prêt à tout sacrifier, (1) car je ne peux pas, en conscience, laisser le gouvernement américain détruire la protection de la vie privée. » Le 9 août, Barack Obama doit s’expliquer sur ces écoutes généralisées : il assure que les Etats-Unis n’espionnent pas « les gens ordinaires » et promet davantage de transparence. Enfin, le 21 août, Bradley Manning – qui a fourni, courant 2010, 250.000 câbles diplomatiques et 500.000 rapports militaires classés secret défense à WikiLeaks – se voit condamné à trente-cinq ans de prison par un tribunal militaire américain. Aux Etats-Unis, l’ONG Freedom of the Press Foundation (Fondation pour la liberté de la presse) milite pour qu’il reçoive le prix Nobel de la paix.

    Devoir moral

    Dans les deux cas, ces hommes se sont prévalus d’un devoir moral (2) pour divulguer des informations secrètes. Ce faisant, ils sont devenus des héros pour les uns, des irresponsables, voire des traîtres, pour d’autres. Pourtant, l’action de ces citoyens s’inscrit dans une longue tradition américaine, qui remonte à la lutte contre la corruption dans l’armée pendant la guerre de Sécession. Aux Etats-Unis, le whistleblower – « celui qui souffle dans le sifflet » – est un employé ou un fonctionnaire qui révèle à sa direction, à la police ou à la presse la malhonnêteté d’une administration, la corruption d’une direction, un commerce nuisible à la santé ou une atteinte aux libertés, avec la volonté de défendre l’intérêt public. Au Canada, on traduit le mot par « dénonciateur ». Souvent considérés comme des « délateurs » ou des « mouchards », les whistleblowers sont depuis longtemps protégés par les gouvernements américains.

    Ralph Nader, célèbre militant des droits des consommateurs, a donné ses lettres de noblesse au whistle blowing. Dans An Anatomy of Whistle Blowing « une anatomie du coup de sifflet » (Penguin) – texte paru en 1974 dans Whistle Blowing, avec deux essais de Petkas et Blackwell -, il proclame : « La volonté et la possibilité des employés de siffler une faute est la dernière ligne de défense des citoyens ordinaires contre le déni de leurs droits et de leurs intérêts par des institutions secrètes et puissantes.» L’expression devient alors populaire, comme les whistleblowers.

    Les exemples sont nombreux et retentissants

    En 1971, l’analyste militaire Daniel Ellsberg fournit au New York Times les Pentagon Papers (« papiers du Pentagone ») qui dévoilent l’intensification de l’engagement militaire américain au Vietnam, ce qui lui vaut d’être poursuivi pour vol, conspiration et espionnage. En 1974, l’affaire du Watergate est divulguée au Washington Post par Mark Felt, l’un des chefs du FBI. En 1979, lorsqu’un accident grave survient dans la centrale nucléaire de Three Mile Island, des écologistes décident d’alerter le public.

    Toutes ces affaires sont évidemment relayées par de nombreux débats médiatiques. En 1989, le Congrès américain promulgue le Whistleblower Protection Act afin de défendre toute personne apportant la preuve d’  « une infraction à une loi, à une règle ou à un règlement » ou encore d « une mauvaise gestion évidente, d’un flagrant gaspillage de fonds, d’un abus de pouvoir ou d’un danger significatif et spécifique en ce qui a trait à la santé et à la sécurité du public ».

    Cette loi se voit renforcée, en 2000, par le No-FEAR Act, puis, en 2012, par le Whistleblower Protection Enhancement Act. Ces dispositifs n’ont cependant pas empêché l’inculpation d’Edward Snowden, au grand regret de Stephen Kohn, le directeur de l’association National Whistleblowers Center. En effet, la plupart des employés fédéraux dépendant de l’exécutif et du renseignement ne sont pas protégés par le Whistleblower Protection Act.

    « Prophètes de malheur »

    L’expression française « lanceur d’alerte », elle, s’inspire de cette tradition, mais en l’élargissant. Elle a été forgée en France par deux sociologues, Francis Chateauraynaud et Didier Torny, dans leur ouvrage de 1999 Les Sombres Précurseurs. Une sociologie pragmatique de l’alerte et du risque. Mais, selon Chateauraynaud, le terme est apparu pour la première fois fin 1994, au cours de réunions de travail avec le sociologue Luc Boltanski, un spécialiste de la dénonciation des injustices : « C’était l’époque de la maladie de la vache folle et de sa possible transmission à l’homme, se souvient-il. Certains prédisaient une épidémie massive de la maladie de Creutzfeldt-Jakob, qui a fait plus de 200 victimes humaines. D’où notre intérêt pour ce qu’Hans Jonas, le philosophe qui a inventé l’idée du principe de précaution, appelait “ les prophètes de malheur ” : les chercheurs ou les militants alarmistes, qui voient parfois juste. Mais nous trouvions que les cantonner dans un rôle de Cassandre n’était pas suffisant. »

    C’est la rencontre avec le toxicologue Henri Pézerat, fondateur de l’association Alert – qui a identifié les dangers de l’amiante et obtenu son interdiction en 1997 -, qui sera déterminante. Pézerat ne se considérait pas comme un prophète, mais comme un militant de la prévention des risques professionnels qui a passé sa vie à faire le siège des autorités. Comment l’appeler alors ?

    Affaire du sang contaminé

    « Depuis l’accident de Bhopal, en Inde [fuites de gaz toxique émanant d'une usine américaine], en 1984, et ses 8 000 morts, l’explosion du réacteur de Tchernobyl en 1986, l’apparition brutale du sida ou l’affaire du sang contaminé, nos sociétés semblent avoir perdu en partie le contrôle des progrès technologiques, des pollutions industrielles ou de la surveillance médicale, poursuit Francis Chateauraynaud. Des organismes de vigilance comme Greenpeace se sont développés, prenant le relais des Etats, multipliant les alarmes. De simples citoyens et des chercheurs font la même chose, dénoncent l’aveuglement des administrations et les conflits d’intérêts. D’où l’idée de les appeler des lanceurs d’alerte. A la différence du whistleblower, qui révèle une dérive ou un abus de pouvoir déjà existant, le lanceur anticipe un risque. Il révèle un danger sous-évalué, ou méconnu. Il veut arrêter un processus qu’il croit fatal. Parfois, il décrit des phénomènes inédits, difficiles à prouver. » C’est le cas d’Anne-Marie Casteret qui révèle, dès 1987, l’affaire du sang contaminé, ou d’Irène Frachon avec le Mediator, qui doit mener une longue enquête épidémiologique avant d’être entendue.

    Une longue liste de craintes

    En ce début de XXIe siècle, la liste des craintes s’allonge : réchauffement climatique, érosion de la biodiversité, désertification, déchets nucléaires, pollution chimique, maladies émergentes, dangers de la pénétration dans le corps humain des nanoparticules, surveillance de la vie privée, etc. Celle des lanceurs d’alerte aussi. Cette multiplication des alarmes peut avoir des effets pervers, selon Claude Gilbert, spécialiste des risques collectifs au CNRS : « Une sensibilité excessive à tout signal d’alerte transforme parfois les chercheurs en guetteurs d’apocalypse. »

    « Il faut pourtant les protéger, comme les whistleblowers aux Etats-Unis », affirme André Cicolella, dont l’histoire a fait connaître les lanceurs d’alerte en France. Toxicologue à l’Institut national de recherche et de sécurité (INRS), il constate les effets nocifs des éthers de glycol – les solvants utilisés dans les peintures et les détergents – et organise, en avril 1994, un colloque international sur le sujet. Une semaine avant sa tenue, il est licencié pour « faute grave » par l’Institut. « Ce fut un choc de se retrouver du jour au lendemain sans travail, quand on croyait oeuvrer pour le bien commun, commente-t-il. Mais je ne regrette rien. C’est souvent la destinée des lanceurs d’alerte, au début… » En octobre 2000, la Cour de cassation reconnaît le caractère abusif de son éviction et le rétablit dans ses droits. « L’arrêt reconnaît l’indépendance due aux chercheurs, c’est important, fait remarquer André Cicolella. C’est la première légitimation d’une alerte scientifique allant contre la direction d’une institution. » Que pense-t-il de l’affaire Snowden ? « Il est courageux. Il a choisi l’intérêt public alors qu’il risque sa liberté. »

    Scientifiques placardisés

    Depuis, le toxicologue a créé, avec d’autres chercheurs, le Réseau environnement santé, dont les alertes ont mené en juin 2010 à l’interdiction des biberons contenant du bisphénol A. Il a également milité pour que l’on protège légalement les lanceurs d’alerte. Pour cela, il a rencontré les juristes Christine Noiville et Marie-Angèle Hermitte, spécialistes des risques techniques et scientifiques.

    « Un arrêt aussi clair que celui qui a été rendu en faveur de Cicolella ne suffisait pas, explique cette dernière, il fallait réfléchir à une loi protégeant les gens comme lui. Etablir une typologie. » Durant les années 2000, Marie-Angèle Hermitte a ainsi rencontré beaucoup de lanceurs d’alerte, scientifiques placardisés ou militants décriés. »   « Quand un lanceur d’alerte dénonce un danger ignoré, explique-t-elle, il remet en cause des expertises, des évaluations, des autorisations de mise sur le marché par les agences de vigilance. Il rencontre beaucoup d’animosité, se retrouve isolé ou dénigré, d’autant qu’il peut se tromper. »

    Pour elle, le lanceur d’alerte doit être défendu parce qu’il constitue « une sécurité de dernier recours quand le système de surveillance est défaillant ». Inspirée par le Whistleblower Protection Act et par les décisions de justice en France, elle a travaillé à la rédaction d’un projet de loi sur la protection des lanceurs d’alertes sanitaires et environnementales. Poussé par Marie-Christine Blandin et le groupe Europe Ecologie-Les Verts, le texte a été proposé au Parlement en octobre 2012, puis adopté le 3 avril 2013. Une définition du lanceur d’alerte y est écrite : « Toute personne physique ou morale a le droit de rendre publics ou de diffuser un fait, une donnée ou une action, dès lors que la méconnaissance de ce fait, de cette donnée ou de cette action lui paraît faire peser un risque grave sur la santé publique ou pour l’environnement. »

    Une loi consensuelle ?

    Ronan Dantec, le rapporteur de la loi au Sénat, parle d’une « avancée démocratique et citoyenne majeure ». « Ce n’est pas un texte consensuel, c’est dommage, affirme-t-il. L’UMP a voté contre, à la suite d’un fort lobbying du Medef. Dès la rentrée, je vais me démener pour instaurer la commission nationale qui doit étudier les alertes recensées. »

    Qu’en pense Marie-Angèle Hermitte ? « C’est insuffisant. La loi propose aux lanceurs d’alerte de s’adresser aux préfets pour être entendus, je doute que cela aille bien loin. Il faudrait que la Commission, actuellement sans vrai pouvoir, ait une véritable capacité d’instruction des dossiers litigieux, sans écarter les signaux d’alerte. » Aujourd’hui, même un message d’apparence paranoïaque peut être rattrapé par la réalité.

     Frédéric  Joignot
    Le Monde.fr 5/09/2013
    (article prélevé sur le site du Monde le 7/09/2013 à 14h.30)

    Notes :

    Voir :
    (1) « Ils ont dit la vérité. Ils seront exécutés (Guy Béart) »
    (2) Qui est Edward Snowden ? – Discours de Glenn Greewald, le journaliste qui a divulgué l’affaire Snowden/NSA au monde

  • Piratebox, ou comment échapper au Big Brother de l’Internet

    Partager anonymement des photos ou des documents lors d’une rencontre ou d’une mobilisation, mettre à disposition de tous des ebooks, des films ou de la musique : c’est ce que permettent entre autres les piratebox. Cet outil crée un réseau informatique local accessible en wifi, totalement anonyme et gratuit. Tout le monde peut s’y connecter avec un ordinateur ou un smartphone, pour télécharger des documents, en ajouter ou échanger par chat. Comme pour notre alimentation, les circuits courts ont de beaux jours devant eux !
    Et si lors d’un prochain évènement, manifestation ou meeting, contre l’austérité ou l’oligarchie des « 1% », en plus des habituels appels à mobilisation et textes plus ou moins subversifs qui encombrent poches et sacoches des participants, les organisateurs proposaient une alternative ? Disposer une ou plusieurs piratebox autour du lieu de l’évènement, puis inviter les manifestants à s’y connecter pour télécharger directement sur leur téléphone argumentaires, informations citoyennes, livres de référence ou documentaires engagés. Les piratebox permettent en effet de créer localement un réseau wifi, déconnecté d’internet et donc des programmes de surveillance gouvernementaux tels que Prism (Etats-unis), Frenchelon (France) et autres. Tous ceux qui le souhaitent, s’ils sont à proximité (quelques dizaines de mètres), peuvent s’y connecter de manière anonyme et accéder aux contenus mis à disposition. A l’abri de tout programme de traçage.
    Développé sous licence libre, ce petit dispositif est issu de la philosophie du Do It Yourself (« Faites-le vous-même »), un mouvement qui se construit comme une alternative à l’ultra consumérisme ambiant. L’idée de pouvoir partager des documents avec ses voisins et ses proches, à travers un réseau local anonyme et gratuit, date de 2011. Son inventeur, David Darts est responsable du département Art et Métiers de l’Art, à l’Université de New York. Son initiative a notamment été relayée en France par Jean Debaecker, enseignant de l’Université Lille 3. Depuis le projet a fait son chemin et une petite communauté de passionnés s’en est emparée. Le premier Piratebox Camp s’est tenu cet été à Berlin.
    [color=#0040FF][b]Un outil, une philosophie, un état d’esprit[/b][/color]
    Une piratebox prend généralement la forme d’un petit boitier (voir photo). Le matériel nécessaire coûte moins de 40 euros. Un routeur (outil de partage de connexion) légèrement « bidouillé » émet le réseau wifi et une clef usb permet de stocker les données partagées ou reçues. Compter une petite heure de bricolage informatique. Pas besoin de fer à souder, juste d’un ordinateur et d’une connexion internet ! Et pas de panique : de nombreux et très documentés tutoriels (voir liens ci-dessous) guident pas-à-pas le plus néophyte. Il est également possible de recycler un téléphone androïd ou un vieil ordinateur portable en piratebox.
    La suite ici => http://konigsberg.centerblog.net//2585-piratebox-ou-comment-echapper-au-big-brother-de-l-internet

  • Quand les stars lancent une nouvelle mode : la GPA

    Lettre ouverte d'Alexandra de la Révolution des Jonquilles :

    "Il fut un temps où le mode de vie des acteurs n’était que toléré par la société. Tenus pour dépravés, les comédiens étaient discrédités à cause de leur capacité à feindre les émotions et à mentir en déguisant leur pensée. Contraire au bien commun, mentir était mal. Aujourd’hui, adulés et rétribués à l’excès, les comédiens véhiculent la réussite, sont un exemple pour les jeunes de toutes les stars académies et tous nous parlent d’amour. Sur ce thème, à la pointe du progrès, les artistes véhiculent une nouvelle mode : celle du surrogate baby. Eh oui, Sarah Jessika Parker, Nicole Kidman, Ricky Martin ou encore Elton John ont fait appel à des mères porteuses pour avoir un ou plusieurs bébés.

    Pour Sarah Jessika Parker, c’était en 2009, l’héroïne de Sex in the City avait alors 44 ans, un fils de 6 ans, et avouait dans les tabloïds ne pas arriver à mener une grossesse à son terme. Sarah Jessika Parker reçut des jumelles. Selon Daily Mail, la mère porteuse s’appelait Michelle Ross, avait 26 ans et s’était tatouée un triangle bleu et rose sur son poignet pour marquer sa bisexualité. Elle aurait reçue environ 30 000 euros pour ses prestations et l’agence californienne Growing Generations, spécialisée dans le commerce de mères porteuses aurait touché une commission de près de 80 000 euros.

    En 2011, c’est Nicole Kidman qui fait appel à une mère porteuse, elle a alors 43 ans. Ce sera son quatrième enfant, elle avait déjà une fille de deux ans et deux adolescents adoptés avec Tom Cruise qui ne lui parlent plus. Selon le Herald Sun, environ 110 000 euros ont changé de main, 20 % auraient été remis à la mère porteuse. Karen Synesiou du Centre for Surrogate Parenting organisme en charge de la prestation, avait alors indiqué qu’il n’y avait pas de bonus en liquide pour les mères porteuses qui donnaient naissance à des enfants de stars.

    Le jour de Noël 2010, Elton John, 63 ans, et son partenaire David Furnish, 48 ans, ont programmé la naissance de « leur » fils Zachary. Elton John avait alors précisé qu’il ne savait pas qui était le père, car les deux hommes avaient fourni leur semence pour qu’elle soit mélangée à des ovules anonymes. Deux ans plus tard, de la même mère porteuse naissait « leur » second fils, Elijah.

    Ricky Martin a révélé son homosexualité en 2010. En 2008, à 36 ans, il a fait appel à une mère porteuse qui a mis au monde deux garçons fabriqués avec son sperme et l’ovule d’une donneuse anonyme, à l’époque Ricky Martin était célibataire. A Oprah Winfrey, le chanteur déclarait qu’il pensait déjà ce qu’il dirait aux garçons sur leur mère biologique : « je vous voulais si fort dans ma vie, qu’avec l’aide de Dieu, tout a été possible. Je pense qu’une famille est basée sur l’amour. Je vous aime et vous m’aimez et c’est la chose la plus importante. » Depuis, il a rencontré un ami et celui-ci accepterait très bien ses enfants.

    Outre atlantique, la pratique se banalise et la liste des stars du showbiz ayant fait appel à des mères porteuses s’allonge chaque jour : Elisabeth Banks, Chris Daughtry, Neil Patrick Harris, etc. Bien sûr, toutes ces stars se déclarent ravies et tout est pour le mieux dans le meilleur des mondes car on s’aime, mais quelle sorte d’amour filial pourra développer la fille de Robert De Niro, née d’une mère porteuse il y a deux ans, alors que l’acteur vient de fêter ses 70 printemps ? [Lire la suite]"

    http://www.lesalonbeige.blogs.com/

  • Quand les Etats-Unis voulaient tester l’effet du gaz sarin sur des soldats australiens...

    En Australie, un document secret défense vient d’être déclassé. Entre 1963 et 1966, les Etats-Unis ont demandé au gouvernement australien, en pleine guerre du Vietnam, de tester les effets de gaz neurotoxiques, y compris le gaz sarin, sur... des soldats australiens. Washington demandait également de ne pas révéler la nature des tests, pour éviter une réaction de la population. Délicate attention !

    Attention, cœurs sensibles et utopistes s’abstenir. The Australian publiait le 7 juillet un article à faire pâlir les plus fervents adeptes de la théorie du complot. La déclassification de documents conservés jusqu’ici sous le sceau du secret défense fait des vagues sur l’île-continent. Alerte au tsunami !

    De l’efficacité du sarin sur les soldats australiens

    Les Etats-Unis, dans les années 1960, avaient besoin de tester l’efficacité de ses gaz neurotoxiques, notamment le gaz sarin, qu’ils comptaient déployer au Vietnam. Peut-être par manque de main-d’œuvre locale, le secrétaire américain de la défense Robert McNamara demande donc en juillet 1963 au gouvernement australien de lancer un programme d’évaluation. Le document précise que 200 soldats devraient être utilisés dans les essais, et "seulement quatre à six auraient vraiment besoin de connaître tous les détails de l’opération".

    L’objectif de ces essais, totalement illégaux au regard du droit international, était d’évaluer l’efficacité d’agents neurotoxiques en situation de guerre, et notamment dans la jungle du Vietnam, où les combats redoublaient alors. En outre, le document conseille au gouvernement australien de cacher la véritable nature de ces essais, et d’évoquer, auprès du public, des tests d’équipements militaires. Histoire de ne pas effrayer inutilement les populations...

    Le gaz sarin est un de ces poisons foudroyants qui peut causer la mort quasi instantanément par simple contact avec la peau. On ignore aujourd’hui si les Australiens ont accédé aux demandes américaines. Ce que l’on sait, par contre, c’est que le gouvernement américain a, trois ans plus tard, fait une nouvelle demande pour des essais de gaz lacrymogènes. L’actuel ministre de la Défense australien, Joel Fitzgibbon, dans sa grande bonté, assure qu’une enquête va être ouverte et promet qu’"aucun essai de la sorte n’aura lieu à l’avenir". Les Australiens doivent se sentir rassurés.

    Robert McNamara, s’il était encore vivant, regretterait certainement

    L’ancien Premier ministre australien, Malcolm Fraser, qui a été ministre des Armées de 1966 à 1968, nie avoir eu connaissance de telles demandes des États-Unis. Il ajoute, connaissant bien Robert McNamara, que celui-ci regretterait certainement aujourd’hui cette demande. Peter Bailey, un conseiller de M. Holt, Premier ministre de l’époque, a déclaré que la demande des États-Unis a été prise au sérieux par le gouvernement australien et il croit se rappeler que le cabinet chargé d’y réfléchir était divisé sur la question.

    Il faut savoir qu’environ 1 000 soldats australiens avaient déjà participé à des essais de gaz moutarde dans le Queensland en 1942, à l’insu de leur plein gré. Et que des essais nucléaires britanniques, entre 1955 et 1963, à Maralinga en Australie du Sud, ont engendré de graves problèmes de santé pour les troupes présentes dans la région.

    Ce n’est pas la première fois que des documents déclassés mettent à jour des pratiques scandaleuses. En Angleterre, une loi a contraint le ministère de la Défense d’exhumer de ses archives des documents qui révèlent que Londres avait organisé et installé un programme de torture secret dans l’Allemagne occupée par les Alliés à l’été 1945. Aux Etats-Unis, des documents déclassés ont permis de faire le jour sur les pratiques de Monsanto, qui connaissant les méfaits du PCB sur la santé humaine vingt ans avant tout le monde, mais qui n’en a pipé mot. Ou encore que Prescott Bush, grand-père de son petit-fils, a fait sa fortune en commerçant avec le régime d’Hitler pendant la Seconde Guerre mondiale. Etc.

    Et, à chaque fois, on se dit "c’était il y a cinquante ans, c’est loin, ça a changé". Mais chaque année qui passe voit son lot de nouveaux documents déclassés, et son lot de nouveaux scandales qu’on a déjà oubliés, avant même de les connaître. Et dans cinquante ans, on dira quoi ?

    http://mobile.agoravox.fr/actualites/international/article/quand-les-etats-unis-voulaient-41983

    Merci à  Fol2

  • Tesla, la dernière coqueluche de la Silicon Valley

    C’est la surprise du chef : on vient voir comment fonctionne Tesla, le constructeur californien de véhicules électriques devenu la coqueluche des milieux financiers et technologiques américains, et on tombe sur deux Français.

    Le premier, Jérôme Guillen, 41 ans, est né à Avignon. Parti de France à 20 ans, après un doctorat d’ingénierie mécanique aux Etats-Unis, un passage chez McKinsey et DaimlerBenz, il est l’actuel directeur commercial de Tesla. Quand il dit : “Elon m’a appelé” (c’était en 2010, pour l’embaucher), vous comprenez qu’il fait partie des proches d’Elon Musk, le PDG et fondateur.

    Le second se nomme Gilbert Passin, le vice-président de la production. Centralien, 52 ans, il est passé par Renault, Volvo puis Toyota, où il fut patron d’une usine Lexus. Recruté en 2009, c’est lui qui a lancé l’usine d’assemblage. “Une proposition pareille, tout bâtir à partir de rien, tout repenser différemment, ça vous arrive une fois dans la vie.”

    On est à Fremont, en pleine Silicon Valley. Racheté par Tesla, cet ancien site du japonais Toyota semble démesuré pour l’activité de la PME innovante, dont le nom fut choisi pour honorer la mémoire de Nikola Tesla, “découvreur” américain d’origine serbe du XIXe siècle, dont le génie fit beaucoup pour promouvoir celui de l’industriel Thomas Edison.

    SEULEMENT DEUX MODÈLES DE VÉHICULES PRODUITS

    D’ici, au temps du constructeur nippon, sortaient 450 000 véhicules par an. Aujourd’hui, Tesla ne peut en produire que 30 000. Pas si mal quand on sait qu’au démarrage des chaînes, le 22 juin 2012, la production était de… 5 par semaine !

    La marque ne produit que deux types de véhicules. Le premier, le Roadster, est un modèle sport à 109 000 dollars (81 800 euros) pour “manageurs écolos californiens”. Le second est une berline de qualité, la Model S, proposée à 69 900 dollars – 62 400 dollars après le crédit d’impôt alloué pour aide à l’énergie propre !

    A Fremont, on est très loin de l’ambiance du Michigan, le coeur historique de l’automobile américaine. Première explication : le management n’est pas issu de l’automobile, mais de la haute technologie. C’est parce qu’il pensait “électricité”, et non pas “véhicule”, que la solution pour des batteries de voiture à la puissance inédite a été trouvée.

    “Nous ne sommes pas un constructeur, mais une société de technologie de pointe qui s’intéresse à l’automobile”, vous répète-t-on à l’envi. Ensuite, “c’est une aventure collective, dit M. Passin, on veut des gens qui travaillent par passion”. Il faut ajouter “l’environnement innovant généralisé de la Silicon Valley. On n’aurait pas pu se lancer ailleurs”, assure le communicant Esben Pedersen.

    UNE ORGANISATION DU TRAVAIL ORIGINALE

    La Silicon Valley, c’est une ambiance “cool” et ultracompétitive. Les ouvriers de Tesla, qui viennent tous de la “vieille industrie“, semblent s’en être accommodés. Et leurs dirigeants ont fait quelques entorses à l’esprit entrepreneurial : ils ont accepté les syndicats. Le reste est vraiment détendu : “Alors, ça boume, boss ?”, lancent les employés quand passe M. Passin, le “patron”.

    Ce dernier dispose d’un local au milieu des chaînes de fabrication, “pas un bureau fermé au 5e étage, comme n’importe où ailleurs”, lance-t-il en riant. Une cafétéria est à la disposition de tous, avec de la nourriture gratuite. Un gymnase aussi, où des “coachs” sont là dès le matin pour qui souhaite une mise en forme.

    Surtout, l’organisation du travail diffère fondamentalement des pratiques du secteur. A Fremont, les chercheurs travaillent dans un vaste espace ouvert, près des autres activités. “Entre ingénieurs, techniciens et ouvriers, il y a un constant aller-retour, qu’avantage la production en petites quantités”, indique M. Passin.

    Autre originalité de Tesla : le niveau d’intégration et de production en propre y est bien plus important que chez les grands constructeurs automobiles. La plupart des composants d’un véhicule rempli de matériels high-tech sont fabriqués sur place. C’est “un élément primordial pour favoriser l’innovation”, souligne le directeur, M. Guillen.

    “LA VOITURE ÉLECTRIQUE PEUT ÊTRE RENTABLE”

    Du design aux batteries, coeur de la révolution Tesla, en passant par les pièces (80 % d’aluminium et une grosse utilisation de la fibre de carbone), 80 % du véhicule est fabriqué ici. La robotisation équivaut à celle des meilleurs constructeurs, mais une attention très importante est accordée aux finitions. Jusqu’ici, vous explique-t-on chez Tesla, “la vision dominante voulait que la voiture électrique soit une merveilleuse idée… pour perdre de l’argent. Nous avons montré qu’elle peut être rentable”.

    Certes, elle reste chère, mais, entre moindre maintenance et absence de frais de carburant, le gain de l’utilisateur peut atteindre 2 000 dollars par an. Gratuites, les stations de chargement ultrarapides et révolutionnaires de Tesla, garantissent 500 km d’autonomie en une heure de chargement, plus de 150 en vingt minutes, cinq fois plus que les connecteurs pour véhicules existants. Et les batteries au lithium ont amélioré leurs performances de 50 % en deux ans. Les chercheurs de Tesla travaillent sur une batterie qui garantira jusqu’à 1 000 km d’autonomie pour un coût énergétique dérisoire. Les pétroliers n’ont qu’à bien se tenir !

    Bien sûr, le constructeur reste une – importante – “niche” industrielle, dont l’action a bondi de plus de 300 % depuis le début de l’année. Mais, avec 25 000 véhicules produits à ce jour, est-il logique que sa capitalisation atteigne celle du japonais Mazda, qui en vend 1,3 million par an ? Bref, on y croit ou pas. Mais la société jouit désormais d’une aura qui lui autorise bien des espoirs : “Pourquoi tout le monde adore Tesla”, titrait Bloomberg Businessweek, le 18 juillet.

    “LE PDG, ELON MUSK, VEUT CHANGER LES MODES DE VIE”

    La start-up emploie désormais 4 500 personnes, dont 2 600 sur ses chaînes de montage (150 il y a dix-huit mois…) et 1 000 ingénieurs et techniciens.

    Sa réussite a déjà poussé la concurrence à multiplier les investissements dans l’électrique. Pas seulement Toyota et Mercedes, qui détiennent 7 % de participation dans Tesla et des accords technologiques avec elle. Ford et GM ont aussi embauché à tout-va dans la recherche électrique. M. Guillen se montre modeste et prophétique à la fois : “Nous ne sommes en concurrence avec personne : ce que veut Elon Musk, c’est changer les modes de vie, amener tout le monde au véhicule électrique.”

    La Model S est désormais vendue à 40 % à l’étranger. Premier acquéreur : la Norvège. Mais les dirigeants de la société lorgnent surtout vers la Chine. Prochaine étape, prévue pour la fin de 2014 : la sortie d’un véhicule utilitaire de moyenne gamme, le Model X, vendu à partir de 40 000 dollars.

    Les chercheurs travaillent à la phase d’après : une voiture électrique “abordable”, à 30 000 dollars. Nom de code : BlueStar. Ce sera, promet M. Guillen, “un véhicule encore plus technologique mais moins sophistiqué. Un jour, nous aussi, ici, nous fabriquerons 400 000 voitures”.

    Le Monde   http://fortune.fdesouche.com/319311-tesla-la-derniere-coqueluche-de-la-silicon-valley

  • La dangereuse découverte du Dr Mary Schweitzer

    C’est sous ce titre que le magazine Discover d’avril 2006 présente la découverte faite par le Dr Mary Schweitzer en 1993 à Hell Creek dans l’Etat du Montana de tissus de chair non décomposés, ayant appartenu à un dinosaure. Il ne fait aucun doute que cette découverte contredit les datations évolutionnistes selon lesquelles les dinosaures auraient disparu il y a 60 ou 70 millions d’années. Ce sont les explications partagées par les parutions créationnistes néerlandaise et anglaise, Leviathian et Creation.

    Le sous-titre de Discover est très explicite : « Des tissus de chair non décomposés trouvés sur le squelette d’un Tyrannosaurus Rex ».

    Cette découverte bouscule les certitudes comme le relate le Dr Schweitzer à propos d’une discussion avec un éditeur affirmant que cette découverte n’était pas possible, car elle bouleverse les périodicités officielles. Le Dr Mary Schweitzer constate que ces tissus de chair de dinosaure contiennent du sang et qu’il en émane encore une odeur putride. Un cas semblable fut aussi découvert au nord-ouest de l’Alaska en 1961.

    A cette occasion et en soutien du Dr Mary Schweitzer, certaines voix du camp créationniste se sont élevées.

    Le Dr Carl Wieland, auteur de plusieurs livres scientifiques, invite par exemple à une compréhension plus récente de l’âge de la terre, comprise entre 6 000 et 10 000 ans. Cela signifie que les fossiles de dinosaures ne comptent pas des millions d’années, mais entrent dans le cadre de durées bibliques et scientifiques correspondant au Déluge, c’est-à-dire à une catastrophe qui aurait fondamentalement modifié les conditions terrestres il y a 4 200 ans. Nous pouvons nous demander si les dinosaures ont été contemporains des hommes.

    S’il est écrit dans la Genèse que les créatures de Dieu étaient placées sous la domination d’Adam, les Saintes Ecritures semblent démontrer que des hommes ont bien connu les dinosaures, mot inventé en Angleterre en 1840 par le brillant anatomiste Richard Owen qui est alors un des premiers à étudier les fossiles de ces animaux disparus.

    La médecine traditionnelle chinoise a utilisé pour la fabrication de potions magiques des os dits de dragons et les artistes de l’Empire du milieu ont peint ces mêmes "dragons" qui ressemblent fort à nos dinosaures.

    Le livre de Job, ouvrage biblique, appartient à la même période que celle d’Abraham, soit 2 000 ans avant Jésus-Christ, époque où les conditions de vie sur Terre sont différentes de celles d’aujourd’hui puisque cette région du globe où prospèrent les peuples sémites n’est pas un désert, mais une terre très fertile permettant l’élevage de troupeaux et la culture de la vigne. Rapportant des faits que l’on peut donc dater de deux siècles après le déluge, le livre de Job écrit au quarantième chapitre : "Vois Béhémoth, que j’ai créé comme toi ; il se nourrit d’herbe comme le boeuf." (verset 15).

    C’est le Dieu Créateur qui annonce à Job qu’il a placé sur terre une créature végétarienne gigantesque.

    Aujourd’hui, le mot "Béhémoth" est interprété unanimement par les hébraïsants comme la désignation d’un animal de taille immense. Généralement les appareils critiques des biblistes expliquent qu’il s’agit probablement d’un éléphant ou d’un hippopotame, voire d’un crocodile. Job aurait donc eu simplement connaissance de l’existence de ces animaux alors familiers sur les rives du Nil, par exemple ?

    C’est en effet ce que soutiennent la plupart des critiques. Ce faisant, ils négligent la suite de la description de cet animal puissant dont "(la) force est dans ses reins, et (la) vigueur dans les muscles de ses flancs !" (verset 16). Le verset suivant indique, en effet de façon plus précise : "Il dresse sa queue comme un cèdre".

    Or aucun éléphant, aucun hippopotame ni d’ailleurs aucun mammifère actuel n’est pourvu d’un appendice caudal capable de se dresser comme un cèdre. En revanche certains sauropodes comme l’argentinosaurus, végétarien du Trias supérieur qui semble avoir atteint une longueur de 50 mètres du museau au bout de la queue et un poids de cent tonnes, ont pu dresser une queue à la fois très longue et puissante comme un tronc d’arbre.

    Mais le texte biblique n’est pas le seul témoignage en faveur de la contemporanéité de l’homme et des dinosaures.

    On reconnaît parfaitement dans l’art pariétal aborigène et indiens d’Amérique du Nord des dessins de plésiosaures. Les mosaïques romaines montrent clairement des dinosaures. Un vase peint 530 ans avant Jésus-Christ et retrouvé dans la région de Carie en Asie mineure, fait voisiner un Mosasaure (dinosaure marin) et un homme. Des sépultures Incas découvertes en 1571 par les conquistadors et étudiées en 1930 par le Dr Javier Cabrera dessinent ces étranges créatures. D’anciens livres comme l’Historria Animalium écrit au XVe siècle affirment que ces créatures ont fréquenté les hommes. Le Dr Cliffard Burdick, spécialiste en géologie, a examiné en 1935 des empreintes de dinosaures retrouvées un quart de siècle plus tôt dans des boues fossiles à Glen Rose au Texas mêlées à des empreintes de pieds humains de très grande taille : on estime la taille du géant à 4 mètres.

    Tout ces exemples permettent de défendre sans ridicule l’hypothèse que les hommes et les dinosaures ont été contemporains.

    C’est dans le débat sur les prétendues "longues durées" un argument en faveur des créationnistes.

  • Quand la science découvre les 1 % qui dirigent l'économie

     

    Quand la science découvre les 1 % qui dirigent l'économie
    Trois chercheurs suisses ont récemment décortiqué le réseau mondial des multinationales en se servant d'une base de données de l'OCDE (Organisation de Coopération et de Développement Economiques) regroupant plus de 30 millions d'acteurs du marché économique. Les scientifiques sont parvenus à une synthèse en les regroupant sous forme d'un réseau de 43 060 multinationales. Leurs rapports de force mutuels furent également reconstitués par l'angle de la propriété : une entreprise possédant plus de 50 % des parts d'une autre est considérée comme en détenant le contrôle.
    Le réseau qui apparaît détient une structure générale assez commune dans les systèmes naturels : certains acteurs sont des points de convergence de pouvoir, alors que d'autres ne sont qu'en périphérie et n'exerce que peu de contrôle sur les autres. Ce phénomène connu comme « le riche devient plus riche » n'a pas étonné les chercheurs. Un gros acteur économique attire forcément les nouveaux arrivants. Ce qui les a le plus frappé est la découverte d'un autre phénomène appelé le « club des riches ». Au cœur du réseau, 1318 entreprises apparaissent comme plus fortement connectés entre elles et forme un noyau central. Ce noyaux s'avère détenir la majorité (60 %) de l'industrie mondiale par le jeu des actions boursières. Pire encore, 147 entreprises sont encore plus interconnectés et « dirigent » le noyau. Ces 1 % de la totalité du marché mondial, contrôlent à elles seules près de 40 % du cœur de l'économie actuelle. Mais qui sont ces entreprises ? Que produisent-elles ? Et bien elles ne produisent rien du tout sur le plan physique. Ce ne sont que des intermédiaires financiers. On y retrouve des noms bien connus en ces temps de crise: Barclays, JP Morgan, Goldman Sachs, ...
    La question posée par ce travail scientifique était à l'origine de déterminer s'il existait une « tête » au système financier actuel. Le noyau découvert par les chercheurs y ressemble beaucoup. Toutefois, ceux-ci mettent en garde face à l'idée d'y voir une conspiration. Pour eux, ces entreprises ne sont que des acteurs guidés par les lois du marché et qui se sont retrouvés dans cette configuration sans nécessairement se coordonner consciemment entre-elles. Pas de conspiration donc, juste un système économique défectueux. En effet, si cette architecture profite à quelques uns, elle rend l'ensemble de l'économie de plus en plus instable. Cette concentration de 147 entreprises a des faux airs de foyer épileptique. Quoi faire ? Nos chercheurs proposent de commencer par réguler cette hyper-connectivité par le biais de taxes transnationales. Toutefois, au delà d'appeler à une telle régulation, ces résultats démontrent la dimension systémique de la crise actuelle. Plus question de tenter d'expliquer les fluctuations chaotiques de la bourse à partir des faits proposés par l'actualité. Il est désormais temps de prendre du recul et comprendre pourquoi le système économique, dans sa structure même, demande à changer.
    Stefania Vitali, James B. Glattfelder, Stefano Battiston
  • L’essoufflement des réserves pétrolières mondiales

    Combien de pétrole nous reste-t-il à exploiter, au juste? Jean Laherrère a récemment repris les calculs qu’il avait faits en 1998 pour « The End of Cheap Oil », un article de la revue Scientific American resté célèbre. Pour cet ingénieur pétrolier qui a travaillé 37 ans chez Total avant de devenir un consultant de réputation internationale, les chiffres sont clairs : les réserves s’épuisent rapidement. Dans à peine 30 ans, la production mondiale de pétrole aura déjà chuté de 40 %.

    Ces résultats contredisent ceux des économistes, qui prédisent en général une croissance infinie. « Les économistes, explique Jean Laherrère, se fient seulement aux énoncés de réserves émis par le Oil & Gas Journal, l’EIA, la firme BP et l’OPEP, qui sont erronés; ils n’ont pas accès aux données techniques confidentielles. Les économistes qui négligent le pic pétrolier ne font pas d’erreur de calcul, mais ils calculent à partir des mauvaises données! »

     

     

    Les statistiques gouvernementales, tout comme les énoncés financiers des entreprises pétrolières, se fondent sur les ressources récupérables probables, des données préliminaires qui sont souvent trop optimistes, ou gonflées pour faire saliver les actionnaires. Jean Laherrère, en raison de sa position privilégiée, a eu accès aux données confidentielles sur les réserves prouvées.

     

     

     

    Il s’en est servi pour construire ce tableau ci dessous. La courbe verte montre l’état des réserves prouvées et leur évolution en fonction de certaines grandes découvertes historiques. Les autres courbes montrent les réserves probables, selon les statistiques officielles : les réserves mondiales totales en rouge, celles des pays de l’OPEP en mauve et celles des producteurs non membres de l’OPEP en bleu.

     

     

    Alors que les données gouvernementales montrent une rassurante progression, la courbe verte des réserves prouvées montre un déclin marqué depuis 1980. Les réserves mondiales ne dépasseraient plus les 800 Gb (milliards de barils), alors qu’il y en avait 2 200 Gb à l’origine. Nous aurons donc déjà brûlé près des deux tiers de notre pétrole. Comme nous le consommons au rythme de 26 Gb par année, les réserves actuelles représentent donc en principe que 30 ans de consommation.

     

    En pratique, les nouvelles découvertes aident un peu. Mais les découvertes prouvées ne représentent que la moitié de la production. De plus, un puits de pétrole n’est pas comme une baignoire, qui se vide à vitesse constante. Il est plutôt comme une éponge imbibée, dont le liquide s’écoule de plus en plus lentement. Le débit d’un puits conventionnel diminue de 5 % par année en moyenne, de sorte que la production décline sans cesse, même quand il reste beaucoup de pétrole sous terre.

     

    Le véritable enjeu consiste donc à maintenir le rythme de production malgré l’épuisement des réserves et la baisse de débit des puits existants. Et nous allons y échouer, selon Laherrère. La production mondiale totale (la ligne brune), qui plafonne depuis 2005 à environ 26 Gb par année, va bientôt se mettre à diminuer, pour n’atteindre que 15 Mb dans 30 ans et 7,5 Mb dans 50 ans. Même si l’ingénieur pétrolier ne s’avance pas sur ce point, on peut aussi s’attendre à une explosion du prix de l’or noir.

     

    Il ne faut pas chercher de solution du côté du pétrole de schiste. En dépit des énormes ressources dont les médias font état, les ressources actuellement prouvées ne représentent guère que neuf mois de consommation mondiale. De plus, la recherche dans ce domaine a connu quelques échecs retentissants qui ont refroidi l’ardeur des pétrolières.

     

    L’impact du pétrole lourd

     

    Les chiffres de Laherrère ne tiennent toutefois pas compte du pétrole extralourd, notamment des sables bitumineux, dont il existe deux grands gisements dans le monde, l’un en Alberta (175 Gb) et l’autre au Venezuela (200 Gb). Ces ressources sont extrêmement coûteuses à exploiter et après des dizaines de milliards de dollars d’investissement, la production canadienne n’atteint que 1,8 million de barils par jour (soit environ 650 Mb par année). Quant aux sables vénézuéliens, ils sont enfouis à plus de 1 500 mètres de profondeur et il n’est pas évident que leur exploitation sera un jour rentable.

     

    Ce pétrole extralourd est représenté sur quatre courbes à part, dont la plus importante est la noire, qui représente la production mondiale totale. Selon le consultant, celle-ci augmentera lentement jusqu’à atteindre environ 6 Gb par année, vers… 2070. Cette production s’ajoutera alors à environ 6 Gb de pétrole conventionnel (moyen et léger), pour un total de 12 Gb. Soit environ 60 % moins de pétrole qu’aujourd’hui – ou un retour au niveau de production de 1965.

     

    La seule différence, c’est que nous étions 3,3 milliards en 1965. Nous serons au moins trois fois plus nombreux en 2070. Nos sociétés pourront-elles s’adapter à ce monde presque à sec? Que deviendront l’industrie et les transports? Le prix astronomique du pétrole restant tuera-t-il dans l’oeuf tout début de croissance économique, comme cela semble être le cas depuis 2008? On ne peut plus nier la réalité. Il faut maintenant s’y préparer… ou la subir, avec tout ce que cela implique.

    Notes :

     

    Rapport  de Jean Laherrère  (technique, 39 pages en anglais) :

     

    http://aspofrance.viabloga.com/files/JL_2013_oilgasprodforecasts.pdf

     

    voir.ca http://fortune.fdesouche.com/316933-lessoufflement-des-reserves-petrolieres-mondiales#more-316933

  • Le devoir d’objection de conscience

    Mgr Jacques Suaudeau, docteur en médecine et directeur scientifique de l’Académie pontificale pour la Vie, a rédigé un petit ouvrage fort à propos sur L’objection de conscience ou le devoir de désobéir. S’appuyant sur les Saintes Ecritures et l’Histoire de l’Eglise, l’auteur écrit :

    O« Le témoignage des Apôtres devant le Sanhédrin, et leur défense au nom de la loi divine qui prime sur la loi humaine, fournissent la structure de l’objection de conscience spécifique qui conduira certains au martyre. Elle s’articule sur les points suivants :

    1. Les lois divines priment sur les lois humaines.
    2. Le croyant doit obéir aux lois humaines, fondements de la cité, garantes de la solidarité et de la paix sociale, et aux autorités qui ont été placées par la providence divine aux postes qu’elles occupent (Rm 13, 1-7). Les martyrs ne mettent pas directement en question les institutions impériales ; ils acceptent les décisions des tribunaux ; ils ne se dérobent pas s’ils sont arrêtés ; ils ne désertent pas.
    3. Ce n’est que lorsque la loi humaine contredit  formellement la loi divine que le croyant peut se trouver dans la situation de désobéir. Ce revirement possible implique l’autonomie de la religion, en tant qu’office de Dieu, par rapport à l’Etat et à l’office du législateur. Or cette autonomie des offices divins et de l’Etat l’un par rapport à l’autre est une notion absolument étrangère à la mentalité de l’antiquité païenne où le service de la Cité (pour les Grecs) ou de la Res publica (pour les Romains) sont un tout. […]
    4. En choisissant d’obéir à Dieu plutôt qu’aux lois des empereurs, les disciples du Christ, non seulement obéissent à leur conscience en manifestant leur liberté d’enfants de Dieu (base religieuse et personnelle de l’objection de conscience), mais encore transmettent la vérité précise sur Dieu (ils enseignent le nom de Jésus), devoir évangélique et impératif moral de proclamer la vérité contre les errances du paganisme. Ils portent témoignage (marturein) devant les tribunaux, ce qui :
      • Renforce la valeur de l’enseignement qu’ils ont pu donner avant d’être arrêtés (on ne croit que les témoins) ;
      • Est un mode d’évangélisation actuel des païens qui assistent au procès et se trouvent édifiés par l’attitude cohérente des accusés ;
      • Conforte dans leur foi les autres chrétiens qui auraient été décontenancés si les accusés avaient profité des offres compatissantes des juges qui leur permettaient de sauver leur vie sans renier formellement le Christ, en effectuant par exemple une pseudo offrande (et l’on retrouve ici la responsabilité pour autrui précédemment notée dans le martyr d’Eléazar, et qui est une composante non négligeable de l’acte de désobéissance civile).
    5. Ce témoignage est rendu possible par la force et l’aide de l’Esprit Saint. […]
    6. Le croyant ne peut se dérober à ce devoir de conscience, justement parce que le don de l’Esprit Saint lui est fait lorsqu’il comparaît devant ses juges, selon les promesses faite à ses disciples par le Seigneur lui-même, de son vivant terrestre. »

    http://www.lesalonbeige.blogs.com/

  • L’économie est-elle une science exacte ?

    Par Oskar Morgenstern (avril 2000)

    L’économie jouit d’une situation particulière parmi les sciences : ses résultats sont quotidiennement utilisés dans l’action politique. Cette situation ne favorise pas toujours l’examen critique des mesures et des théories. Plutôt que d’examiner s’il est possible de donner un contenu expérimental et mesurable aux concepts de la science économique, les économistes – en France tout spécialement - se sont longtemps enfermés dans des débats entre « littéraires » et « scientifiques ».

    Ces querelles reflètent des conflits entre personnalités de formation différente. Elles n’apportent aucun élément de solution à la question : “L’économie est-elle une science expérimentale ?” Oskar Morgenstern, fondateur avec Von Neumann de la théorie des jeux, tente ici de répondre avec impartialité. S’il critique les économètres, ce n’est pas faute de connaitre leurs thèses ; s’il juge les faits sociaux difficilement mesurables, ce n’est, pas faute de s’être penché sur le problème. L’économie est une science, mais l’incertitude y joue un rôle fondamental, qu’il est vain de dissimuler.

    Lorsqu’on entreprit pour la première fois de recenser la population de la France, Laplace se rendit compte aussitôt qu’on n’arriverait jamais à dénombrer sans aucune erreur la totalité des habitants. Il demanda par conséquent que l’on calcule l’erreur probable et qu’on la fasse figurer dans le recensement publié. L’éminent mathématicien, qui apporta une contribution si décisive à la théorie de la probabilité, trouvait donc naturel, et même indispensable, pareille exigence de précision.

    Mais rien ne fut fait en ce sens, et même de nos jours, il n’y a pratiquement aucun pays au monde où la publication de données sociales et économiques s’accompagne de considérations sur l’erreur probable. On se contente, d’une façon ou d’une autre, de présumer qu’il n’y a pas d’erreur, bien qu’il soit facile à n’importe qui de constater que les erreurs abondent partout et qu’elles différent énormément d’une statistique à l’autre ; pourtant, il serait éminemment désirable de connaître exactement, l’importance de ces erreurs.

    Dans les sciences de la nature, il en va tout autrement. La nature, en général, ne présente pas ses données sous forme numérique ; c’est de façon qualitative, essentiellement, qu’elle est perçue, et il incombe à la théorie physique de créer des méthodes, souvent extrêmement compliquées, qui convertissent les données qualitatives en données quantitatives. Dans la vie en société, toutefois, beaucoup de données se présentent sous forme numérique, les prix, la quantité d’argent, la production des denrées, le nombre des naissances dans un pays, le nombre des travailleurs en activité et des chômeurs, etc.

    Dans les sciences physiques, comme les mesures numériques sont difficiles à effectuer et qu’il coûte cher de les raffiner, on traite avec le plus grand respect les chiffres obtenus et on se préoccupe, de savoir exactement, à quel genre de nombre on a affaire. En revanche, dans les sciences sociales, les chiffres sont livrés «tout faits», et il est donc assez naturel que les économistes ne se soucient pas outre mesure de leur qualité.

    Certes, ils s’efforcent d’être exacts, mais leur exactitude ne va pas plus loin, d’ordinaire, que de transcrire les chiffres avec soin, d’utiliser les documents originaux plutôt que des sources de seconde main, de surveiller la façon dont ils combinent, ou agrègent, les données, etc. Beaucoup de difficultés, évidemment, surviennent déjà à ce stade, comme par exemple, tous les problèmes de classification, et risquent donc de faire prendre à l’économiste des décisions arbitraires.

    Faudra-t-il, par exemple, classer avec les produits synthétiques ou avec les fibres naturelles, un tissu mi-coton mi-nylon ? Ici on adoptera l’une de ces classifications, ailleurs l’autre. C’est l’occasion de toutes sortes de décisions arbitraires.

    Vivre dans l’incertitude

    Les sciences de la nature ont accompli un grand pas en avant lorsqu’elles se sont aperçues, grâce aux implications philosophiques de la mécanique quantique, qu’il est impossible d’éliminer complètement l’erreur. L’erreur est irréductible. Cela fut très bien démontré par Brillouin. Il n’a pas été facile à la science d’accepter cette idée, et cela pour bien des raisons.

    L’une d’elles est qu’on éprouve une impression d’inconfort à vivre en permanence avec l’erreur ; on préférerait un monde dont tous les aspects puissent être déterminés. Désormais, le grand problème est : comment vivre avec l’erreur ; l’effort essentiel reste celui qui vise à la réduire de plus en plus sans perdre de vue, comme on la dit plus haut, que chaque réduction coûte des sommes d’argent et d’énergie toujours croissantes.

    Voici qui peut vous donner une idée d’ensemble du problème. Lorsque Newton élabora et démontra sa théorie de la gravitation, il utilisait des données entachées d’environ 4 % d’erreurs. Aujourd’hui, ce chiffre a été réduit à un dix-millième de 1 %, et pourtant Newton avait déjà pu formuler les traits essentiels d’une théorie très puissante, capable d’applications expérimentales.

    Plus tard, lorsque Einstein postula que dans certaines conditions la lumière devait s’incurver au lieu de se propager en ligne droite, les observations de l’époque comportaient un taux d erreur d’à peu près 20 %. Cela n’a pas empêché la théorie de la relativité de prendre le dessus. C’est seulement depuis quelques mois, grâce à l’utilisation de radiotélescopes, que cette marge d’erreur a été réduite à des valeurs pratiquement négligeables ; les instruments qui ont permis ce résultat n’étaient pourtant pas encore inventés à l’époque où Einstein élaborait sa théorie (voir la Recherche, n’ 9, février 1971, p. 164).

    Ce qui précède contient une leçon importante, à savoir que des théories puissantes peuvent être établies à partir de données assez peu satisfaisantes, et vérifiées au moyen de ces mêmes données de façon suffisamment probante. On ne risque donc guère, si l’on sait que les informations et les statistiques économiques et sociales fourmillent d’erreurs, de jeter lé bon grain avec l’ivraie ni de nier la possibilité de toute théorie : on souligne simplement que les théories doivent s’adapter au caractère des données et des renseignements disponibles.

    Il serait certainement injustifié de prétendre atteindre un haut degré de précision dans les données économiques ; on rencontre cependant cette prétention un peu partout, et elle est en particulier souvent revendiquée par les gouvernements qui ont la responsabilité de décisions économiques cruciales. On consent à admettre que nous ne savons pas tout de la nature, cependant assez bien connue ; mais en même temps on accepte sans broncher que nous puissions prétendre expliquer avec une grande précision le monde économique et social, dont la complication est incroyable.

    Ainsi, on donne sans indiquer la moindre marge d’erreur le chiffre du PNB produit national brut, déclaration qui sous-entend une précision de 1/10 ou même 1/100 de 1 %. Un tel chiffre est inacceptable, parce que le sens commun devrait suffire à nous faire voir qu’il est impossible de rendre compte sans aucune erreur du volume total des transactions en tous genres qui constituent l’économie d’un pays.

    Cela s’applique tout aussi bien aux pays développés qu’aux pays sous-développés. mais ces derniers, en outre, ne possèdent presque pas d’archives, le chiffre de leur population est inconnu, et dans leur cas les données « par tête d’habitant » n’ont donc aucun sens. On se livre pourtant à des débauches de comparaisons entre nations, même au sein des institutions les plus prestigieuses des organismes internationaux.

    Une illustration prise au hasard : il est impossible pour un observateur étranger de déterminer le prix de… disons de l’électricité fournie à une société privée dans certains pays. Certaines transactions internationales, comme l’exportation de produits importants d’un pays vers un autre, selon qu’on les évalue au moyen des statistiques d’exportation de ce pays ou des statistiques d’importation de l’autre, varient souvent de presque 100 % en quantité ou en valeur.

    Ce phénomène a été observé jusque dans les transactions portant sur l’or, produit de grande valeur qui bénéficie d’un luxe de soins pour son transport et son enregistrement, mais qui sont parfois couvertes par le secret ; les tarifs d’assurance de son transport enfin sont très élevés, mais sont souvent tournés grâce à diverses manipulations, etc. Pourtant on n’hésite pas à fonder sur de tels chiffres des décisions affectant de nombreuses nations et des millions de personnes, lorsqu’ils font ressortir excédents ou déficits pour certains pays.

    Dans un domaine où entrent en jeu des sommes considérables et où l’enregistrement des transactions est fait avec le plus grand soin, par exemple dans la détermination de la masse monétaire, des différences énormes ont été observées. L’an dernier, la masse monétaire des États-Unis est apparue entièrement différente de ce qu’on avait annoncé jusque-là.

    En août 1970, son taux d’accroissement avait d’abord été évalué à 6,8 %, mais se trouva être en réalité de 10 %. En septembre, on remplaça 1,2 % par 5,7 %, etc. Ainsi des variations énormes se manifestent, sans paraître influencer ni les hommes politiques ni les travaux scientifiques d’économétrie.

    Un observateur indépendant qui débarquerait de la planète Mars ne saurait pas quelles statistiques utiliser pour ses calculs. Même le dénombrement de la population, entrepris à grands frais par les gouvernements des pays développés, à l’aide de techniques évoluées et avec les outils statistiques les plus perfectionnés, laisse subsister des erreurs très importantes.

    Dans le recensement américain de 1950, par exemple, 5 millions de personnes n’ont pas été comptées, ainsi que l’ont démontré plus tard des investigations très attentives ; et même le dernier, celui dé 1970, comporte une erreur similaire, qui représente environ 3 à 4 % de la population totale.

    Nous avons vu plus haut qu’il ne s’agit pas là d’une erreur inacceptable ; mais c’est quand même bien une erreur, et il est parfaitement inadmissible qu’on agisse actuellement tout à fait comme si elle n’existait pas.

    On aimerait donc voir des statistiques économiques où chaque chiffre serait accompagné de l’indication de son écart type ; cette pratique n’a pas cours, et il n’est pas bien difficile. de trouver pourquoi. Les raisons sont fréquemment de nature politique. Le gouvernement reçoit de l’argent d’une assemblée, congrès ou parlement, et préfère ne pas montrer aux législateurs, qui tiennent les cordons de la bourse, qu’il entre une part d’incertitude dans ses calculs et dans ses mesures.

    Il n’y aurait pourtant point de honte à cela, car il serait facile de démontrer que la perfection n’est pas de ce monde. Il y a quelques années, en Allemagne, un organe consultatif du gouvernement, sorte de conseil économique, fit une tentative pour livrer des chiffres assortis de leur marge d’erreur, dans la mesure où elle pouvait être évaluée. Le gouvernement intervint pour mettre fin à cet étalage indécent.

    Une attitude comme la sienne, si elle continuait à prévaloir comme c’est le cas à présent, rendrait impossible tout progrès aussi bien dans le domaine politique que dans celui de la science économique, pour autant qu’elle se fonde sur une notion rigoureuse de ce que sont des données quantitatives. Quand on dévalue le dollar, quelqu’un décide qu’une dévaluation de tant pour cent, ni plus ni moins, constitue la dose requise, mais cet individu ne possède aucun renseignement qui permette de savoir si ce taux est bien le bon.

    Même si l’on s’est livré à des calculs préalables, ceux-ci sont fondés sur des chiffres censés exempts, d’erreur, et il est clair que si l’existence de ces erreurs était prise en considération dans les calculs, les déclarations politiques ne seraient pas formulées avec la belle assurance qui les caractérise aujourd’hui.

    Les pièges du produit national brut

    Je me suis référé jusqu’ici à des faits accessibles à l’observation directe, mais le mal est plus profond : il tient à quelques-uns des concepts mêmes qui sont à la base de certaines observations. Prenons par exemple le produit national brut, ou PNB : c’est une notion populaire dans le monde entier, et pourtant chargée d’absurdités et de difficultés incroyables. Le PNB prétend mesurer l’évolution de la production nationale par l’intermédiaire des variations du volume total des transactions.

    L’œil et l’attention des, gouvernements, des hommes d’affaires et du public sont fixés sur ce chiffre, sur lui seul. S’il augmente, c’est merveilleux ! Ne fût-ce que d’un demi pour cent, c’est mieux que rien. Une différence comme celle entre 1,5 et V % pendant le bref intervalle d’un trimestre sera considérée comme « significative ». Mais qu’y a-t-il derrière ? Il est impossible, on l’a dit plus haut, de mesurer aussi rapidement une masse d’événements aussi vaste que l’est l’ensemble de toutes les transactions ayant eu lieu dans un pays. Cela reste vrai même si l’on dispose d’ordinateurs, qui accélèrent le traitement des informations, et si l’on utilise à fond tous les autres moyens de renseignement. Mais non, on veut que ce chiffre à lui seul nous fasse savoir si le pays est en progrès ou en régression sur le plan économique.

    Ce chiffre est d’ailleurs un chiffre scalaire, et non pas même un vecteur dont les composantes correspondraient aux divers secteurs de l’économie. Tout ce qui a pour résultat un accroissement des dépenses est enregistré comme une «croissance». Ce qui est curieux, c’est que les pannes du système sont inscrites à son crédit.

    Si vous êtes immobilisé dans un embouteillage, vous consommez davantage d’essence, vous payez plus cher le kilomètre en taxi ; si des avions font la queue au-dessus des aéroports sans pouvoir atterrir tandis que d’autres attendant pour décoller, ou même s’il arrive une catastrophe qui entraîne des réparations, tout cela nous est comptabilisé comme un accroissement du PNB !

    L’économie est trop complexe pour pouvoir être représentée par un chiffre unique. C’est comme si la croissance d’un homme depuis le biberon jusqu’à l’âge adulte était représentée par un seul chiffre qui couvrirait sa croissance physique, sa taille, son poids, ses études, son intelligence, etc. ; si minime est l’effort de réflexion requis pour apercevoir toutes ces difficultés qu’on est parfois gêné, en tant qu’économiste, vis-à-vis de physiciens ou autres, d’avoir à révéler que cet état de choses est caractéristique de la situation des sciences sociales.

    Il est d’ailleurs assez curieux que la théorie des probabilités, sans laquelle la science moderne ne serait pas ce qu’elle est, tire son origine dans des phénomènes sociaux : l’étude des jeux de hasard, et l’observation de certains phénomènes économiques et mouvements de population. Après quoi cette théorie si puissante, et dont l’importance ne cesse de croître, a surtout été utilisée dans les sciences physiques, depuis le début du XIX’ siècle jusqu’à nos jours.

    Dans les sciences sociales, une attitude déterministe continue de prévaloir, et c’est tout juste si l’on commence aujourd’hui à percevoir quelques indices d’un changement de perspective et de point de vue. Il n’est pas encore tout à fait admis en bonne compagnie de mettre l’accent sur l’existence d’erreurs dans les observations économiques et sociales, dans, les statistiques et dans les mesures prises, de même que naguère encore il n’était pas poli de dire que quelqu’un était mort d’un cancer : à présent, on n’hésite pas à mentionner dans les nécrologies cette cause de décès.

    Si un déterminisme aussi marqué caractérise dans l’ensemble les sciences économiques, ce n’est pas seulement par crainte de regarder en face l’incertitude qui affecte leurs données, mais aussi, je crois, en grande partie pour des raisons politiques. Tout parti politique, qu’il soit marxiste ou capitaliste, tient à démontrer que ses conclusions sont définitives, que ses prévisions sur l’évolution de l’économie ou ses dithyrambes sur la façon admirable dont fonctionne le libre marché, sont solidement fondés et ne laissent pas prise au doute, ne souffrent aucune incertitude. Il va falloir changer tout cela, et l’on commence en effet à voir venir un changement.

    A l’avenir, il sera certainement impossible aux sciences sociales de se développer de façon différente des sciences physiques, en ce qui concerne les exigences de rigueur scientifique et les méthodes d’analyse. Si l’observation de la nature est elle-même chargée d’incertitude, comment le monde social et économique, dans toute sa complexité, pourrait- être observé valablement d’un point de vue plus déterministe, lui qui est véritablement encastré dans l’univers naturel ?

    La validité des prévisions varie évidemment selon qu’on se rend compte ou non de l’importance des incertitudes. Il est intéressant de noter que jusque dans un domaine économique où les données atteignent un maximum de précision, à savoir les cotes de la bourse, les prévisions restent notoirement incertaines. En fait, dans la plupart des situations, elles sont même impossibles.

    Il se peut que ce soit dû à la structure particulière de la bourse, mais si ce grand et important marché est sujet à des variations aléatoires, comment d’autres marchés, où les renseignements sont bien plus difficiles à obtenir et chargés de bien plus d’erreurs, pourraient-ils être mieux compris ? Comment les théories pourraient-elles y posséder un pouvoir de prévisions plus grand ?

    Sortir l’économétrie de son ghetto mathématique

    Les économistes se trouvent vraiment devant un étrange dilemme. D’un côté, la quantité d’informations économiques s’accroît selon un taux incroyable, surtout grâce aux ordinateurs, qui permettent d’enregistrer de nombreuses activités qui échappaient autrefois à l’observation numérique. En même temps, l’économétrie, science qui vise à faire des mesures économiques véritables et à les lier ou les combiner en vue de les incorporer à une théorie, devient de plus en plus mathématique et a besoin de subir de profonds rajustements.

    On a vu il y a quelques années un curieux débat : les mesures sans théorie, c’est-à-dire « impartiales », font-elles vraiment progresser la science économique, ou les théories doivent-elles précéder toute tentative de mesure ? Cela rappelait assez le vieux conflit entre l’économie comme science théorique et comme science historique, qui a débouché comme on sait sur la découverte que les deux choses ne sont pas contradictoires dans les faits : il est impossible de faire de la théorie économique sans mesures, et des mesures sans théorie ne veulent rien dire.

    On peut dire que tous les progrès, dans toutes les sciences, ont été accomplis grâce à l’introduction de concepts nouveaux, et ceux- ci à leur tour ne pouvaient naître que lorsque le chercheur avait sous les yeux un grand nombre de données empiriques. C’est ce qui s’est passé pour les découvertes de Kepler, fondées sur les prodigieuses observations et mesures de Tycho-Brahé ; et aussi pour Mendel, qui commença par accumuler de longues années d’expériences de génétique.

    De même, l’économétrie aujourd’hui doit relever un immense défi. Il s’agit d’élaborer une image du monde réel qui tienne compte de toutes les Incertitudes impliquées par les procédés de description. Pour ce faire, les chercheurs qui ont pour tâche d’organiser les divers aspects de cette image devront utiliser le sens commun, en même temps que certains concepts empruntés à la théorie économique devront servir de guide.

    La difficulté est que les économètres sont dispersés dans de nombreux pays dont les structures économiques et sociales sont très différentes : on doit donc émettre des réserves sur la valeur des comparaisons de leurs mesures. De plus, les économies changent, tandis que les lois de la nature sont stables, du moins dans le champ d’action qui est celui de la physique, et même de la biologie.

    Face à ces difficultés, il n’est pas étonnant que les économètres trouvent plus commode d’élaborer des méthodes abstraites et très raffinées que de les mettre en pratique. L’économétrie a produit un volume important d’ouvrages théoriques, mais rares sont les applications expérimentales qui permettraient d’en extraire ce dont on a, en fait, besoin : une Image de la façon dont fonctionnent réellement les systèmes économiques de différents pays.

    Notons aussi que les méthodes statistiques, potentiellement très puissantes, nécessitent un appareil de données et de théories économiques dont la structure soit très rigoureuse et ne laisse passer que des erreurs minimes. Cela souligne le fait qu’une grande précision des données et des mesures n’est vraiment nécessaire ou môme utile que pour des théories très puissantes, mais il se trouve justement que la plupart des données disponibles sont de mauvaise qualité et ne sauraient servir à travailler avec les concepts plutôt raffinés que l’on tente d’instaurer et d’utiliser en théorie économique.

    Il y a donc une dualité entre la structure – fine ou non – de la théorie, et la qualité des données correspondantes. Comme en physique, l’écart est considérable entre le degré de confiance qu’on peut accorder à telle information et à telle autre, entre le degré de précision d’une mesure et d’une autre. Par conséquent, les affirmations fondées sur des théories économiques sont de valeur très inégale. Malheureusement, de nos jours, et surtout dans les milieux gouvernementaux, on ne fait pas de telles distinctions, et dans les manuels scolaires pour débutants ou même pour les étudiants plus avancés, on ne trouve pas le moindre mot indiquant qu’il subsiste dans les sciences économiques des problèmes non résolus.

    Cependant, ces sciences sont pleines d’énigmes encore à résoudre. Il arrive certes que des prévisions correctes soient faites, ce qui semblerait renforcer la puissance et l’exactitude de la théorie sous-jacente ; mais ce sont là des faits dont on aurait tort d’exagérer l’importance.

    Même des théories fausses sont capables de prévisions exactes : témoin la théorie ptoléméenne, d’après laquelle nous pouvons calculer la date juste de la prochaine éclipse de lune tout en sachant parfaitement que la théorie est fausse. Ainsi, une prévision correcte ne prouve ni l’exactitude des observations qui l’ont précédée, ni la justesse de l’interprétation qu’on en a faite.

    L’ordinateur… et la mauvaise manière de s’en servir

    La découverte de l’ordinateur a évidemment une importance énorme pour les chercheurs en sciences sociales. C’est sans doute la plus grande découverte technologique de notre époque, plus importante même que la fission de l’atome. Comme, parmi les sciences économiques, il en est peu qui se prêtent à une expérimentation directe, la simulation rendue possible par l’ordinateur supplée au manque de procédés expérimentaux.

    La transformation des sciences économiques par l’ordinateur; ne fait que commencer, mais on peut déjà discerner quelques grandes lignes importantes ; quelques dangers méritent une mise en garde.

    Le grand mathématicien Gauss disait. « Le manque de réflexion. mathématique ne se fait jamais voir de façon aussi éclatante que dans l’excès de précision apporté à des calculs numériques. » Que dirait Gauss aujourd’hui, ou des informations insuffisamment analysées, de qualité très inégale, sont entrées pêle-mêle dans les ordinateurs pour subir des millions de multiplications, dans l’espoir qu’au bout du compte quelque résultat significatif apparaîtra ?

    Tout cela repose souvent sur un petit nombre d’équations qui prétendent refléter la réalité économique ; et, à partir des calculs on fait des prévisions, qui servent de base à des décisions politiques.

    Le champ des mathématiques numériques s’est énormément développé depuis l’avènement de l’ordinateur. Cependant, la plupart des ouvrages portent avant tout sur des techniques de calcul ou des procédés plus simples et plus sûrs pour résoudre les équations. Le problème qui nous occupe ici intéresse par contre la nature des relations entre les théories fondamentales d’une part, et les résultats numériques obtenue par des calculs fondés sur les modèles qu’elles ont construits d’autre part.

    La théorie économique s’est très tôt posée des questions de ce genre : on se souvient du fameux passage où Pareto, dans son Manuel d’économie politique 1907 démontre que, suivant sa théorie générale de l’équilibre, pour un système contenant seulement 100 personnes et 700 produits, il n’y aurait pas moins de 76990 équations à résoudre. Chiffre énorme, et pourtant il est clair que, par rapport à la population d’un pays, 100 personnes ne constituent qu’une fraction minime.

    Au lieu de résoudre les équations concernant un si petit nombre d’individus, on préfère travailler sur des agrégats, établie des modèles qui ne comprennent qu’un petit nombre de variables dont chacune couvre un grand nombre d’individus. On espère ,ainsi diminuer la difficulté, et dans un certain sans, évidemment, on y parvient. Hélas ! tout se paie, et l’évaluation des agrégats, loin d’être un procédé inoffensif, engendre à son tour des problèmes.

    De la modélisation au calcul

    Examinons comment envisager un calcul, quel qu’il soit, sur une grande échelle. Je me réfère ici à un ouvrage important de Von Neumann et Goldstine. Quoique leurs travaux datent d’il y a vingt-cinq ans, rien n’est venu affecter la validité de leurs résultats ni, je crois, ne pourrait le faire. Comme beaucoup de problèmes économiques sont représentés par des matrices d’un ordre élevé, comprenant plusieurs centaines de lignes et de colonnes, nous pouvons citer le problème que pose l’inversion des matrices, elle comporte quatre stades, qui occasionnent inévitablement des erreurs de types divers dont certaines, nous le verrons, d’importance primordiale.

    En voici la liste :

    Le problème économique, brut, à la base, ne peut être exprimé qu’au prix d’une idéalisation, d’une simplification et d’omissions. En d’autres termes, il faut construire un modèle mathématique, qui, comme les modèles dans toutes les sciences, constitue une simplification de la réalité. Je n’insiste pas sur ce point, car le problème est commun à toutes les sciences, et tout économiste est conscient qu’il simplifie, parfois de façon radicale. C’est un dilemme auquel on ne saurait échapper, et d’ailleurs une simplification n’est pas forcément néfaste.

    Étant donné le succès de théories physiques telles que la théorie newtonienne de la gravitation, on voit qu’il est possible d’aller très loin même avec des simplifications grossières.

    Si l’on accepte le modèle comme une image fidèle et cohérente de la réalité, on constatera que la description du phénomène choisi nécessitera des paramètres dont la valeur sera fixée par l’observation, directement ou indirectement c’est-à-dire par l’intermédiaire d’une autre théorie ou d’un calcul préalable. Ces paramètres vont donc comporter des erreurs qui, à leur tour, se retrouveront dans les résultats de tous les calculs. C’est là le point décisif. C’est à ce stade qu’interviennent les erreurs d’observation, et leur influence affecte les résultats plus gravement qu’aucune.

    La formulation mathématique stricte du modèle doit être remplacée par une formulation approximative. Cela veut dire que de nombreuses opérations transcendantes telles que celles qu’impliquent des fonctions comme le sinus ou le logarithme, ou des opérations telles que l’intégration et la différenciation, ainsi que les expressions implicites, etc., que l’on trouve inévitablement dans les divers modèles utilisés en théorie économique – tout cela devra être traité numériquement.

    Autrement dit, il faudra remplacer toutes ces opérations par des procédés élémentaires. De même, les processus qui convergent ou tendent vers une limite devront être interrompus à un certain endroit ou tronqués dès qu’on jugera atteindre un niveau d’approximation suffisant.

    Même si l’on ne se sent pas gêné par ces trois sources d’erreurs, qui influent sur la nature des calculs et leur validité, il en reste encore une très importante dont la présence est significative.

    C’est qu’aucun procédé ou moyen de calcul ne peut faire les opérations élémentaires – en tout cas pas toutes les opérations élémentaires – avec une rigueur absolue et sans fautes. Il ne s’agit pas ici des erreurs que peut commettre un ordinateur mal programmé ou qui souffre de déficiences mécaniques ou électriques. Non, c’est plus grave. Le processus de calcul lui-même comporte des traits inhérents qui lient l’exécution de toutes les opérations à l’introduction simultanée, inévitable et systématique de certains types d’erreurs.

    Considérons, pour illustrer les erreurs liées au fait d’arrondir un chiffre, un ordinateur ayant une limite de capacité lui permettant de retenir disons 8 chiffres : en multipliant deux nombres de 8 chiffres, on en obtient un de 16 chiffres qu’il faudra arrondir à 8. Répétez l’opération quelques millions de fois comme c’est nécessaire dans bien des inversions de matrices et demandez-vous si le résultat final est encore valide. C’est là un problème fondamental. Quelle que soit la capacité de l’ordinateur, il vient toujours très vite un moment où il faudra arrondir, sans quoi on finirait bientôt par avoir des nombres comprenant plus de chiffres qu’il n’y a de particules dans l’univers.

    En ajoutant cette difficulté au fait que les données comportent un assortiment d’erreurs diverses, on aura une idée de l’étendue du problème auquel se heurte la vulnérabilité relative de divers types de modèles à divers coefficients d’erreur. Des recherches ont démontré que certains des modèles les plus connus sont extrêmement vulnérables.

    Par exemple, dans un modèle a six équations, même si le coefficient représentant les salaires est le seul où se soit glissée une erreur, mettons de 10 %, le chiffre indiquant les profits sera affecté d’une erreur de 23,4 % en trop ou de 21 % en moins si l’erreur de base est négative. Quand toutes les variables sont sujettes à l’erreur, comme c’est toujours le cas, les résultats sont encore pires. Et ce n’est là qu’une seule illustration.

    Je termine ces réflexions par un simple exemple qui devrait nous inspirer à tous une salutaire prudence. Prenons le système de deux équations

    x-y = 1 et x-1,00001 y = 0

    Elles ont pour solution : x = 100.001, y = 100.000.

    Mais les deux équations suivantes presque identiques :

    x-y = 1 et x-0,999 99 y ont pour solution : x = -99 999, y = -100 000.

    Les coefficients diffèrent tout au plus de deux unités à la cinquième décimale, mais les solutions diffèrent de 200.000. Est-il nécessaire de ne rien ajouter ?

    La Recherche   http://fortune.fdesouche.com