• Ancien élève de l'Ecole normale supérieure, successivement directeur du laboratoire de Géologie appliquée de l'université Pierre et Marie Curie, directeur de la Branche exploration du Bureau de Recherches géologiques et minières (BRGM), directeur de recherches au CNRS, ci-devant président de la Société européenne de Géologie appliquée aux gisements minéraux, Pierre Routhier est un brillant scientifique. On lui doit plusieurs ouvrages de référence destinés à l'enseignement supérieur (Les gisements métallifères. Géologie et principes de recherche, Masson, 1963 ; Essai critique sur les méthodes de la Géologie. De l'objet à la genèse, Masson, 1969 ; où sont les métaux pour l'avenir ? Les provinces métalliques. Essai de métallogénie globale. Bureau de recherches géologiques et minières, Orléans, 1980, version anglaise en 1983) mais aussi plus récemment deux livres de vulgarisation dont Voyage au monde du métal. Inventions et aventures (Belin, 1999).
Par ailleurs, sur le plan politique, Pierre Routhier est depuis 1984 un nationaliste français qui ose s'affirmer tel. Adhérent du Front national, il en vice-présida longtemps le Conseil scientifique. Ses deux ouvrages de réllexion politique : Contrepoisons (Editions nationales, 1996) et Pour flinguer Big Brother. Bréviaire de la Contre-Révolution (Godefroy de Bouillon, 2000) firent pas mal de bruit.
Enfin, il vient de publier « Des cailloux et des hommes », un livre souriant, écrit avec aisance, performance plutôt rare chez un scientifique, fourmillant d'anecdotes et d'épisodes contés d'une manière drolatique, tels sa rocambolesque évasion aérienne de Nouméa eu 1949 ou l'échec de sa candidature à l'Académie des sciences en 1979.
RIVAROL: Pourquoi avoir cboisi comme sous-titre de votre livre « Mémoires d'un géologue nationaliste » (1) ? Qu'est-ce qui vous a poussé à utiliser ce qualificatif ? N'y a t-il pas une contradiction, au moins apparente, entre le métier que vous avez exercé pendant quarante ans et qui vous a conduit à vous intéresser de près à la Terre dans son ensemble et l'attachement exclusif et viscéral que vous manifestez à une seule nation, la France ?
Pierre ROUTHIER : Le terme "nationaliste" est celui qui m' est apparu comme le plus clair et le plus évident. Je sais que la mode actuelle est plutôt d'utiliser le mot "souverainiste" ou le terme "identitaire". Mais la nation, ce n'est pas seulement l'Etat (auquel fait référence le souverainisme) ni la langue (on parlerait alors de francophonie) ni la race (à laquelle renvoie de manière feutrée l'adjectif identitaire) mais c'est l'ensemble de ces composants. Sans doute aurais-je pu me définir comme un national à l'image du Front du même métal car les mots en -isme sont vecteurs d'une absoluité qui en effraie plus d'un. Néanmoins si l'on parle d'un nationalisme pacifique et défensif, je me reconnais tout à fait dans la définition.
Géologue, j'ai séjourné dans trente-sept pays. Partout j'ai rencontré des gens excellents dans ma profession, partout j'ai vu des paysages sublimes. A cet égard, c'est la cordillère des Andes qui m'a le plus impressionné. Mais précisément la découverte d'autres patries que la sienne, d'autres peuples que le sien n'implique pas nécessairement l'adhésion au cosmopolitisme ou au mondialisme. On peut s'intéresser de près à d'autres pays, les aimer et préférer quand même le sien.
R. : Quel a été votre itinéraire politique ?
P. R. : Ce n'est que sur le tard que je suis devenu droitier ou réactionnaire. Issu d'un milieu assez dépolitisé mais plutôt de gauche, j'ai éprouvé à la Libération de la sympathie pour des intellectuels communistes. Je n'ai en effet jamais été séduit par la mystique de la France libre, ma brève expérience militaire en 1940 m'ayant fait perdre toute confiance dans les officiers, tant supérieurs que subalternes, de l'armée française qui s'étaient montrés incompétents aussi bien dans la préparation que dans l'exécution de la guerre contre les Allemands. Mais, dès 1948, l'affaire Lyssenko m'a définitivement ouvert les yeux sur le système soviétique. Cet agronome soviétique vanté par Staline prétendait que des modifications imposées à des végétaux en agissant sur les conditions de leur développement se transmettaient à leur descendance ; en d'autres termes qu'il y avait hérédité des caractères expérimentalement acquis. C'était faux bien sûr car ces modifications ne touchaient pas les gènes, alors postulés mais non identifiés et manipulés. Mais on comprend l'intérêt de cette théorie pour Staline : on pourrait ainsi créer des générations successives de communistes !
Je me souviens qu'en 1949 mon ancien professeur de zoologie, Marcel Prenant, membre du Comité central du Parti communiste "français", fut chargé par ce comité d'aller s'informer sur les mirobolantes réussites proclamées par Lyssenko. Profondément honnête, il osa déclarer à son retour qu'il s'agissait de "fabrications" ou de fautes expérimentales. Sa rigueur intellectuelle lui valut d'être exclu du Parti.
R. : Mais ce sont surtout les événements de 1968 qui vous font définitivement basculer à droite ...
P. R. : En mai 1968, je suis professeur d'université et j'assiste en direct et avec effroi à l'installation d'une révolution gauchiste au sein de l'enseignement supérieur.
Je vois avec quelle facilité et quelle célérité le désordre peut envahir et subvertir un pays. Je constate aussi le poids des manipulations juives dans cette explosion de fièvre juvénile. Il est clair qu'il fallait faire payer à De Gaulle ses mâles déclarations sur « le peuple sûr de lui et dominateur » surtout sa décision de mettre en place un embargo sur les armes à destination d'Israël. Crime inexpiable s'il en est !
Mais ce n'est vraiment qu'au moment de ma retraite, en 1984, que je me plonge dans la documentation politique. La première grande prestation médiatique de Le Pen, L'Heure de vérité, le 13 février, me fait découvrir un homme d'une dimension exceptionnelle. J'achète et je dévore aussitôt son premier livre paru chez Carrère Laffon : Les Français d' abord, puis l'année suivante La France est de retour. Et depuis bientôt vingt ans, je lis avec intérêt toute la littérature marquée aujourd'hui à l'ultra-droite et j'y ai bien sûr beaucoup appris.
R. : A cet égard vous vous dites navré par le recul massif et croissant de la lecture dans les nouvelles générations et vous regrettez que nos milieux ne lisent et ne s'informent pas davantage. A quoi attribuez-vous cette évolution en effet préoccupante ?
P. R. : Pour être adhérent au Front national depuis bientôt deux décennies, je puis vous dire hélas que la plupart des militants et sympathisants du courant nationaliste lisent trop peu. Bon nombre d'entre eux n'achètent même pas la presse nationale ; a fortiori ils ne vont pas se procurer de livres politiques. Or, le public ne se rend pas toujours compte de la difficulté qu'il y a pour des écrivains classés à l'extrême droite à publier et surtout à diffuser : tirage très restreint, publicité quasiment nulle. A ces handicaps s'ajoute la circonstance aggravante que plusieurs éditeurs "amis" ou prétendus tels, indépendamment de leur peu de moyens, ne sont pas toujours très délicats dans leurs procédés vis-à-vis des auteurs ...
R. : Votre livre est aussi une galerie de portraits fort intéressants et souvent très spirituels. Parmi toutes les personnalités dont vous parlez, vous n'êtes pas tendre pour Claude Allègre qui fut votre assistant ...
P. R.: Claude Allègre était incontestablement un garçon prometteur et doué mais, j'en donne plusieurs exemples dans le livre, c'est un manipulateur de données scientifiques doublé d'un autocrate qui a exercé une véritable terreur dans le milieu scientifique. Ce néo-mandarin a su, grâce à ses amitiés politiques, à ses engagements idéologiques et à la lâcheté de nombre d'universitaires, se hausser du col.
R.: Vous confessez votre incroyance religieuse dans vos mémoires. Est-ce à dire qu'il est impossible pour vous d'être à la fois scientifique et très engagé sur le plan religieux ?
P. R. : Je respecte ceux qui ont la foi et je ne m'inscris nullement dans un courant de pensée anticlérical ou antireligieux par principe. Pour autant, c'est vrai, je ne suis pas croyant. Je ne dis pas que Dieu n'existe pas mais mes études scientifiques, mes observations m'ont conduit à conclure que l'idée d'un Dieu intervenant à chaque instant dans l'univers, exerçant à chaque minute sa providence, n'était pas tenable. De même, le créationnisme défendu, et avec quelle vigueur, par un certain nombre de chrétiens fondamentalistes, notamment aux Etats-Unis, me semble négateur des progrès de la science moderne. Je me désole que, dans nos milieux, par refus tout à fait justifié du scientisme qui érigea au XIXe siècle la science en véritable religion susceptible non seulement d'apporter le progrès matériel et technique mais aussi de répondre aux inquiétudes métaphysiques de l'homme, l'on adopte généralement une attitude de défiance voire de rejet systématique de la science en tant que telle, ce qui nous aliène beaucoup de monde et ce qui nuit, me semble-t-il, à la cause noble et légitime que nous défendons. Qu'il y ait beaucoup de littéraires parmi nous est en soi une excellente chose mais il est regrettable qu'on ne dispose pas de scientifiques en aussi grand nombre qui puissent répondre aux accusations et aux thèses des adversaires de la droite nationale avec une solide argumentation qui fait parfois cruellement défaut.
Cela dit, loin de moi de vouloir alimenter une détestable querelle interne entre scientifiques et littéraires ou entre croyants et incroyants. Globalement je suis très satisfait par la qualité de la presse nationale, et singulièrement de votre excellent hebdomadaire d' opposition nationale et européenne. Quant au Front national, je me réjouis qu'il dispose à sa tête d'un homme qui n'a jamais failli à l' honneur. Désormais, cela suffit à mon bonheur, croyez-moi. Et dans les ténèbres qui nous environnent et qui semblent avoir tout recouvert, tout submergé, c'est là un réel et puissant motif d'espérance.
Propos recueillis par Jérôme BOURBON, < jeromebourbon@aol.com >. RIVAROL 21 novembre 2003
(l) Des cailloux et des hommes. Editions de l' AEncre. 271 pages avec index et quatre planches-couleur, 23 euros, 28 euros franco. Egalement en vente à nos bureaux. Chèque à l'ordre d'Editions des Tuileries.
Science et techniques - Page 45
-
Pierre Routhier : un universitaire devenu nationaliste
-
Science et méditation (M. Heidegger)
Un peu de philo pour une fois. Il faut savoir prendre du recul.
Les diverses chapelles de la dissidence opposée au système contemporain ont l’habitude d’employer ce terme, « le système », pour décrire ce qu’elles combattent. Curieusement, pourtant, le terme reste indéfini. C’est une chose qu’on voit agir, mais dont l’essence échappe à l’analyse.
Qu’est-ce que le système ?
Je propose une réponse, à travers un texte de Martin Heidegger : « Science et méditation ».
Heidegger définit l’art comme ce qui révèle le beau dans le réel, et la science, au sens contemporain du terme, comme ce qui expose tout ce qui est. A la différence de l’art, la science ne filtre donc pas le réel. Elle vise à l’exposer dans son intégralité. Elle est la théorie du réel.
Quelle est la loi fondamentale de cette théorie ? Est-ce la volonté de connaissance de l’homme ? Heidegger répond : non, cette définition-là est trop large, elle inclut à la fois la science et la méditation. La science contemporaine est une certaine manière de connaître le réel. Pas toute la connaissance du réel. Quelle est cette certaine manière ? Définissons les concepts : réel et théorie.
Le réel (Allemand : das Wirkliche) est, dans la science, ce qui emplit le domaine de l’action effective (Allemand : wirken). Cette action effective est une modalité particulière du faire, elle s’en détache comme une opération concrète, ou un type d’opération concrète, peut émaner d’un principe abstrait. Voilà précisément pourquoi notre science n’est plus celle des Grecs : pour eux, la science est connaissance de ce qui est amené du caché vers le non-caché, alors que pour nous, elle est connaissance de l’action qui produit ce déplacement. La rupture a été préparée par la latinité : là où les Grecs pensent le réel comme le déploiement de son entéléchie, les Latins le voient comme l’effet d’une opération. Chez eux, cette opération est encore ce qui fait passer du non-caché vers le caché, mais déjà on s’intéresse moins au caché, on ne prend en compte que l’opération qui conduit au non-caché.Ensuite, on oubliera totalement le caché : avec la science contemporaine, ce qui est contemplé (Allemand : betrachten – étymologiquement, racine « traiter, élaborer »), c’est uniquement ce qui a été tiré du caché vers le non-caché. Cela, et cela seul. L’objet est le produit des objets, la cause d’un enchaînement du réel par le réel. L’objectivité de la science contemporaine, en ce sens, est une subjectivité non sue : nous considérons comme objectif ce qui aborde l’objet par mise à distance du sujet, mais nous oublions que la notion même d’objet, telle que nous la comprenons, est déjà le résultat de notre subjectivité.
La théorie, pour les Grecs, est la contemplation de l’aspect de la chose présente et, par cette contemplation, la connaissance de l’être de cette chose. Pour nous, parce que nous pensons la chose présente comme résultat d’une opération, cette contemplation n’est plus possible à la manière des Grecs. Notre théorie, étant donnée la compréhension que nous avons du réel comme produit d’une opération, ne peut plus percevoir la chose présente comme résultat d’une translation du non-caché vers le caché, comme accomplissement d’une entéléchie : le réel que la science contemporaine théorise est l’enchaînement des opérations par lesquels les choses engendrent les choses, le temps engendre le temps.
Pour nous, le monde n’a rien à dire qui viendrait du non-caché : il fait du bruit, il ne parle pas. Il est muet. Seul le regard de l’homme sur le monde pose un sens sur l’enchaînement des causes, seul l’enchaînement des causes perçu par le regard humain peut fonder le sens. La négation apparente de toute subjectivité débouche donc, dans la science contemporaine, sur la subjectivité radicale, et totalement non sue : le monde est là pour être connaissable, tout ce qui est réel doit être connaissable, tout ce qui est connaissable est enclos dans le réel – en apparence, le sujet s’est éloigné de lui-même ; en réalité, il a ramené à lui tout objet.
D’où, conclut Martin Heidegger, la limitation de la science contemporaine. C’est une réussite absolue en ce sens qu’elle est parvenue à cartographier le réel tel qu’elle le définit. Mais elle est parfaitement incapable de se définir elle-même. Elle peut déterminer les causes de tout, sauf d’elle-même. Si le monde est muet, si seul le regard de l’homme pose le sens sur lui, alors qu’est-ce qui donne un sens au regard de l’homme ? Il y a là une question incontournable, et toute la science contemporaine semble l’ignorer, non parce qu’elle l’a contourne (elle ne le peut), mais parce qu’elle en découle sans jamais la formuler – une rivière ne peut remonter à sa source, et la science contemporaine ne peut poser la question de sa propre réalité.
Par voie de conséquence, la science contemporaine nie la méditation, la contemplation au sens grec : poser la seule question qui vaille, questionner le regard en lui-même. La science contemporaine, fondatrice discrète de toute vision du monde depuis plusieurs siècles, est un programme, voué à se déployer d’abord dans l’ignorance du questionnement sur sa propre nature, et finalement dans l’ignorance du principe d’humanité lui-même – car si l’on ne questionne plus le regard de l’homme, alors où est la conscience, où est l’homme ?
Je crois que cette pensée d’Heidegger permet de donner la seule définition exacte, complète et approfondie du « système ». Si l’on analyse l’ensemble des forces apparemment contradictoire et partiellement disjointes que la dissidence regroupe sous le terme de « système », et si on cherche à déterminer leur plus petit dénominateur commun, on retombera toujours sur cette idée : la négation de la contemplation comme finalité, et donc, en dernière analyse, la négation de l’homme par le monde qu’il a voulu le prendre en lui, et auquel il s’est finalement réduit – jusqu’à devenir un robot.
Ce n’est certes pas pour définir ce que nous appelons le « système » qu’Heidegger écrivait. Mais c’est bel et bien ce qu’il a fait.
http://www.scriptoblog.com -
Des Indiens auraient émigré en Australie il y a 4000 ans
De nouvelles recherches montrent que d’anciens Indiens ont émigré en Australie et se sont mélangés avec les Aborigènes il y a 4000 ans, apportant également avec eux l’ancêtre du dingo.
La recherche conduit à réévaluer le long isolement du continent avant la colonisation européenne. Le vaste continent austral était, pensait-on, coupé des autres populations avant que les Européens n’aient débarqué à la fin des années 1700, mais les dernières données génétiques et archéologiques rejettent cette théorie. Des chercheurs de l’Institut Max Planck d’anthropologie évolutive à Leipzig, en Allemagne, ont rapporté « des preuves de flux de gènes importants entre les populations indiennes et l’Australie il y a environ 4000 ans ». Ils ont analysé les variations génétiques dans le génome des Aborigènes d’Australie, des Néo-Guinéens, des Asiatiques du Sud-Est et des Indiens, y compris dans les dravidiens du sud.
« Le point de vue dominant était que, jusqu’à l’arrivée des Européens à la fin de 18ème siècle, il y avait peu ou pas de contact entre l’Australie et le reste du monde », note l’étude publiée mardi. Mais l’analyse de l’ensemble du génome des données a donné une « signature importante des flux de gènes de l’Inde à l’Australie que l’on peut dater d’il y a environ 4230 ans », ou 141 générations. « Bien avant que les Européens se soient installés en Australie, des hommes ont migré à partir du sous-continent indien en Australie et se sont mélangés avec les Aborigènes d’Australie », souligne l’étude.
« Il est intéressant, a déclaré le chercheur principal, Irina Pugach, de constater que cette date coïncide également avec de nombreux changements dans les archives archéologiques de l’Australie, qui comprennent un changement soudain dans les techniques des outils en pierre … et la première apparition du dingo dans les archives fossiles ».
L’étude explique que, bien que l’ADN du dingo semble avoir une origine sud-asiatique, « morphologiquement, le dingo ressemble plus aux chiens indiens ». « Le fait que nous détectons un afflux important de gènes provenant de l’Inde à l’Australie à cette époque donne à penser que l’ensemble des ces changements en Australie peuvent être liés à cette migration ». [...]
Mail Guardian (traduction partielle) http://histoire.fdesouche.com
-
Le piège technologique de la cyberguerre
Le prochain numéro de la dirigée par Jeremy Ghez porte principalement sur la cyberguerre. Infoguerre publie un extrait de l’article que Christian Harbulot a rédigé dans ce numéro spécial.
La cyberguerre est née dans la confusion des genres (1) illustrée par la terminologie qui a fleuri ces dernières années : « cyberespace, cyberguerre, cyberdéfense, cyberstratégie, cyberattaque, cyberhacktivisme, cybercriminalité ». L’absence de doctrine française (2) sur le sujet entretient un flou conceptuel qui freine la prise de conscience des principaux intéressés (appareil militaire, structures de sécurité, acteurs économiques, société civile).
Lorsque le pouvoir politique ne saisit pas l’enjeu stratégique, la problématique se dilue souvent dans des considérations techniques avec, dans le meilleur des cas, quelques avancées sur le terrain défensif.
La clarification du concept de cyberguerre passe d’abord par une étude détaillée de la conflictualité propre à la société de l’information.
Cette évidence n’en est pas une. La plupart des spécialistes du sujet ou qui se présentent comme tels prennent le problème à l’envers en partant de l’identification des failles « des tuyaux » et non de l’analyse des stratégies qui cherchent à les exploiter.
Cette erreur a déjà été commise lors de l’introduction du char dans les armées entre les deux guerres mondiales. Les responsables de l’armée française accueillirent cette innovation comme un apport technique à la puissance de feu de leurs forces et ne cherchèrent pas à saisir la manière dont l’ennemi allait l’utiliser en le combinant avec l’appui aérien.
Cet aveuglement n’est pas nouveau et a déjà eu pour conséquence d’aboutir dans le passé à des défaites stratégiques ou tactiques. Les précédents historiques dans l’histoire du XXè siècle devraient pourtant inciter à une certaine prudence.
Plusieurs conflits militaires de grande et de moyenne intensité ont mis en évidence l’importance déterminante d’une guerre de l’information par le contenu dans les stratégies des belligérants. (…)
La place du contenu dans la guerre de l’information
L’influence des Etats-Unis est perceptible dans cette tendance à focaliser les esprits sur le contenant tout en excluant la problématique du contenu ou la reléguant à un impact mineur.
La volonté de détruire l’ennemi, de le priver de ses capacités de frappe militaire, de limiter son pouvoir de nuisance par une suprématie en termes d’armement incite le mode de pensée militaire américain à privilégier la technologie de la guerre et sa rentabilité. Certains officiers généraux et ingénieurs informaticiens (français en l’occurrence) en charge du dossier portent une responsabilité certaine dans cette tendance à ne cerner que la partie technique de cette nouvelle forme de guerre.
Les premiers éléments de réflexion sur les marges de manœuvre suscitées par la nature conflictuelle de la société de l’information soulignent le lien indissociable qui existe entre le contenu et le contenant.
Les conflits militaires qui intègrent la cyberguerre font apparaître une différence d’impact entre les actions sur le contenant et les actions à partir du contenu.
Lors de la dernière guerre du Liban, les Israéliens ont détruit à distance des sites internet proches du Hezbollah. Mais cette réussite technique a eu peu d’effets par rapport à la photo mondialement connue du jeune enfant tué à la suite d’un bombardement israélien dans le Sud Liban.
Les commandos du Hezbollah tiraient des roquettes à proximité d’habitations pour exploiter ensuite l’image des victimes des tirs de contre batterie de l’Etat hébreu. Cette guerre de l’information par le contenu a obligé l’armée israélienne à relever ce défi lors de la guerre dans la bande de Gaza face au Hamas. Ce dernier reprit à son compte la ruse du Hezbollah mais en commettant l’erreur de donner l’exclusivité de la prise d’images à la chaîne Al Jezira. Ce regard exclusif sur le déroulement des évènements militaires dans la bande de Gaza eut pour effet de jeter le doute sur la démonstration par les images que les dirigeants du Hamas voulait faire passer dans le reste des médias. (…)
Les tensions en temps de paix génèrent aussi des actions de guerre de l’information. C’est l’interprétation que l’on peut donner au raid que des pirates chinois mènent désormais chaque année contre des sites japonais pour commémorer les crimes commis par l’armée nipponne (3) contre la population chinoise dans les années trente. Ces actes de piratage informatique sont un message adressé aux actuels dirigeants du Japon qui les traduit comme un acte d’intimidation. Dans cet exemple, le contenant sert de support au contenu. (…)
Un chemin semé d’embûches
Le contrôle des tuyaux est-il plus maîtrisable ou plus nuisible que l’information et la connaissance qu’ils véhiculent ?
Cette question est au cœur de la problématique de la guerre de l’information. Les informaticiens et les militaires centrés sur le contenant mettent en avant la croissance exponentielle des réseaux, des individus connectés, des produits liés aux technologies de l’information.
Cette masse critique leur donne la légitimité dans la prise de parole et le cadrage de l’expertise.
Il n’empêche que l’histoire des conflits passés et présents relativise le poids de la technologie dans l’issue des affrontements.
Combien de fois faudra-t-il répéter que le Vietnam, l’Irak et l’Afghanistan ne sont pas des victoires technologiques mais des situations d’enlisement dans lesquelles la guerre de l’information par le contenu (légitimée par des facteurs historiques et culturels) a joué et continue à jouer un rôle décisif ?
Notes :
- Jamel Metmati, capitaine au 40è régiment de transmissions, Une stratégie du cyberespace, le modèle des cyberopérations, revue Défense&Sécurité Internationale n°85, octobre 2012.
- Constat émis dans le rapport de Jean Marie Bockel sur la cyberdéfense.
- Le massacre de Nankin de 1937 est un des évènements les plus marquants de la seconde guerre sino-japonaise. Plusieurs centaines de milliers de civils et de soldats ont été tués par les soldats de l’armée impériale japonaise
-
Taubira ouvre la voie à la gestation pour autrui (GPA)
Une circulaire de la garde des Sceaux vise à faciliter l'acquisition de la nationalité française pour les enfants nés de mère porteuse à l'étranger.
La gestation pour autrui (GPA), il ne fallait surtout pas en parler. Le gouvernement le martelait: la légalisation des mères porteuses ne fait pas partie du projet de loi Taubira. François Hollande le répétait: il y est fermement opposé. Mais au moment même où le chef de l'État laissait transparaître ses doutes sur la procréation médicalement assistée, vendredi dernier, en annonçant la saisine du Comité consultatif national d'éthique (CCNE), la garde des Sceaux, Christiane Taubira, envoyait une circulaire aux juridictions, leur demandant de délivrer «des certificats de nationalité française (CNF)» aux enfants nés à l'étranger d'un père français et d'une mère porteuse.
En date du 25 janvier, avec «application immédiate», la circulaire recommande, «lorsqu'il apparaît avec suffisamment de vraisemblance qu'il a été fait recours à une convention portant sur la procréation ou la gestation pour le compte d'autrui», de «veiller à ce qu'il soit fait droit» à de telles demandes, «dès lors que le lien de filiation avec un Français résulte d'un acte d'état civil étranger probant au regard de l'article 47 du Code civil».
Le moins que l'on puisse dire, c'est que le calendrier est mal choisi… Alors que le débat s'est engagé mardi à l'Assemblée, cette décision surprise peut apparaître comme un début de marchandage entre le gouvernement et les Verts. Très en pointe sur la GPA, les écologistes comptent bien demander la retranscription au registre de l'État civil des actes de naissance des enfants concernés. Pour le député UMP du Pas-de-Calais Daniel Fasquelle, ce n'est qu'une nouvelle preuve du «double langage de Mme Taubira et du gouvernement». «Le gouvernement avance masqué depuis le départ!, s'insurge-t-il. Alors qu'il jure qu'il ne saurait être question d'accepter la PMA et la GPA, c'est tout l'inverse dans les faits…»
Professeur de droit, Daniel Fasquelle voit dans ce texte «une forme de légalisation, en douce, de la gestation pour autrui». «Des couples vont aller à l'étranger pratiquer la GPA, et conforter ensuite des situations qui en France sont illégales, explique-t-il. On ouvre la voie à bien d'autres dérives… Ce ne sont plus seulement les droits de l'enfant que l'on viole, mais aussi ceux de la personne humaine. Car la GPA est une forme de location du corps humain.»
Cette circulaire annonce-t-elle la fin de l'interdiction de la GPA? «C'est en tout cas une atteinte très claire au principe de prohibition des mères porteuses, affirme Clotilde Brunetti-Pons, maître de conférences à l'université de Reims (Marne), spécialiste en droit de la famille. La ministre de la Justice est en train de contourner la jurisprudence de la Cour de cassation du 6 avril 2011. Dans trois arrêts, celle-ci avait refusé que la filiation des enfants soit établie en France à l'égard des intéressés, et notamment du père biologique, parce qu'il y avait violation du principe d'ordre public prohibant la GPA. Normalement, le CNF intervient après transcription de la filiation à l'état civil français, donc après que la filiation est reconnue en droit français».
En la matière, la pratique de la Justice n'est pas forcément lisible. En février 2012, la cour d'appel de Rennes (Ille-et-Vilaine) avait validé la transcription à l'état civil français des actes de naissance de jumeaux nés en Inde en 2010 de mère porteuse pour un couple de Français. Selon Christiane Taubira, on compterait 38 cas d'enfants nés de père français et de mère porteuse à l'étranger ces quatre dernières années. Lors des débats en commission des lois du texte sur le mariage homosexuel, plusieurs députés PS, notamment le rapporteur du texte, Erwann Binet, ont plaidé pour une évolution, renvoyant au texte sur la famille promis par le gouvernement.
Au ministère de la Justice, on assure avec un certain embarras qu'il ne s'agit «en aucun cas d'une légalisation de la GPA». Une déclaration qui ne convainc pas la droite. «Il faut que les masques tombent!, s'emporte Daniel Fasquelle, qui compare le projet Taubira à une «vente à la découpe». On doit dès maintenant connaître les intentions réelles du gouvernement!»
Le Figaro - 29/01/13 http://gaelle.hautetfort.com/
-
L'intelligence
L'Intelligence étant la valeur suprême pour la société, tout le monde voudrait être intelligent ou à défaut le paraître. On la relie à la réussite scolaire et sociale. On lui a donné une multitude de définitions comme la faculté d'adaptation. Mais des poètes comme Rimbaud ou Baudelaire ou le génie mathématique Evariste Galois étaient-ils adaptés à leur société ? Les définitions de l'intelligence sont donc toujours insatisfaisantes ou incomplètes. Faut-il la différencier de l'imagination ou de la créativité ?
Politiquement, idéologiquement son analyse n'est pas neutre car elle peut servir à légitimer des positions sociales. On a même fait des études sur le quotient intellectuel en fonction des groupes raciaux. Il y a toujours sur cette question la controverse entre l'inné et l'acquis. Quels sont les parts de chacun ? Les chiffres que l'on donne (50-50) ou (80-20) ont-ils une réelle signification ? Au niveau d'un pays est-elle liée à son système éducatif ? La question de l'intelligence n'est pas innocente et bien sur ses interprétations sociales ou biologiques.
Le cerveau
Le cerveau est extrêmement complexe et relier l'intelligence à certaines parties ou gènes est risqué. Le fonctionnement est encore mal connu. On sait qu'il y a deux hémisphères, un gauche qui est celui de la logique et de la rationalité et un droit celui de l'intuition, du sensible, de l'émotion... Nous avons cent milliards de neurones qui peuvent être reliés par des connexions (10 000 possibles par neurone). Le nombre de connexions est lié à l'intelligence. Si le cerveau représente 2% du corps il dépense 20% de l'énergie corporelle. Il faut donc le nourrir, d'où l'importance d'une nourriture variée pour son développement et son fonctionnement. Ceci est un problème pour certaines régions de la planète.
Analyse de l'intelligence
Beaucoup d'auteurs ont cherché à analyser l'intelligence. Nous allons en étudier deux, Gardner et Piaget.
Gardner - Plutôt de considérer l’intélligence comme un tout que quelqu'un posséderait à différents degrés, Gardner a donné différentes catégories d'intelligence.
L'intelligence loqico-mathématique. C'est la plus valorisée dans notre société technico-scientifique. C'est souvent celle que l'on mesure dans les tests Q.I.
L'intelligence spatiale. Elle est utilisée pour les géographes, peintres, dessinateurs, architectes, pilotes...
L'intelligence interpersonnelle : la façon dont on comprend les autres et d'agir de façon adaptée.
Elle regroupe ce qu'on pourrait appeler l'intelligence psychologique. Elle est très utile pour les commerciaux, les politiques, les enseignants...
L'intelligence corporelle : elle a été dévalorisée pendant longtemps en Occident avec la survalorisation du « clerc » ou de l'intellectuel. Le corps servait à porter la tête. L'intelligence corporelle est développée et nécessaire pour les danseurs, sportifs, artisans, chirurgiens...
L'intelligence verbale et linguistique. À l'école elle est le complément de l'intelligence logico- mathématique. C'est bien sur celle des écrivains, des politiques, avocats...
L'intelligence intra personnelle. Elle permet de bien se connaître. On agit en fonction de ses atouts et faiblesses. On retrouve le « connais-toi - toi même » de Socrate. C'est donc aussi savoir faire une bonne introspection.
L'intelligence musicale. Elle va de celle capable de reconnaître les mélodies jusqu'à être capable de créer et innover parfois jusqu'au génie comme les grands musiciens.
L'intelligence existentielle ou philosophique. C'est l'aptitude à perpétuellement questionner, bref, l'ouverture d'esprit à toutes les questions « intellectuelles ».
On donne aussi l'intelligence naturaliste comme celle que peut posséder quelqu'un à l'aise dans la nature.
Ajoutons la créativité qui est une conséquence puisqu'être intelligent uniquement pour l'être n'a pas de sens.
Piaget - Le psychologue suisse a étudié l'intelligence dans sa temporalité ou son développement. Il a donné sa définition de l'intelligence. « Définir l'intelligence par la réversibilité progressive des structures mobiles qu'elle construit, c'est donc redire, sous une nouvelle forme, que l'intelligence constitue l'état d'équilibre vers lequel tendent toutes les adaptations successives d'ordre sensorimoteur et cognitif, ainsi que tous les échanges assimilateurs entre l'organisme et le milieu ».
Pour l'enfant Piaget distingue plusieurs stades avant l'adulte.
Stade de l'intelligence sensori-motrice - 0-2 ans
Stade de l'intelligence préparatoire - 2-6/7 ans
Stade de l'intelligence opératoire - 6/7-11/12 ans
Stade de l'intelligence formelle - 12- adulte.
Les tests de quotient intellectuel
Au XIXème siècle on a beaucoup mesuré les capacités crâniennes pour faire des moyennes entre les différents groupes « raciaux ». De nos jours les tests Q.l remplacent ces anciennes pratiques, ce qui n'empêche pas de faire les deux. Ces fameux tests déchainent les passions. Soit on cherche à les mettre en bouillie car ils dérangent, soit ont leur donne une valeur absolue et même héréditaire. Il existe toute une littérature qui différencie les races par leur Q.l et capacité crânienne.
Les racialistes (certains disent racistes) peuvent se délecter de cette littérature. Les environnementalistes prônent que l'intelligence est essentiellement due à l'environnement socioculturel à la différence des innéistes.
De façon intuitive, l'environnement joue un rôle certain. Pourquoi les innéistes cherchent les meilleures écoles pour leurs enfants ? Nous exposons un tableau que l'on trouve fréquemment dans cette littérature. Il ne sert à rien de le dissimuler.Q.I. moyen
Capacité crânienne moyenne
Asiatiques de l'Est
106
1416
Caucasien européen
100
1369
Asiatiques du Sud-Est
87
1332
Pacifique
85
1315
Nord-africains et moyen-orientaux
84
1293
Africains subsahariens
67
1282
Aborigène d'Australie
62
1282
Si on a divisé les Asiatiques de l'Est et du Sud-Est, il est curieux qu'on ne l'ait pas fait pour les Européens. Les Européens des pays du Nord ont un Q.l moyen égal à 107 comme pour l'Allemagne et les Pays-Bas, 106 pour la Pologne contre 94 pour la France. On ne voulait sans doute pas mettre des « blancs » en haut de l'échelle.
Hans Eysenck fut un de ceux qui ont le plus étudié l'intelligence. Il a déchainé les passions. Il fut physiquement agressé. Ceci dénote la haine que peut susciter l'idée de l'intelligence non également distribuée aux hommes. Lorsqu'il a étudié la corrélation entre la race et le Q.l il a touché à un tabou. Rappelons qu'Eysenck était d'origine juive allemande et viscéralement antinazi.
L'étude de l'intelligence n'est pas innocente. Tous les hommes la revendiquent avec la dernière énergie et pourtant ils sont parfois attirés par son opposé : la bêtise reposante, la médiocrité rassurante, les plaisanteries bien grasses...
L'intelligence fait peur et elle fatigue. L'homme souvent préfère avoir des activités disons les plus simples et répétitives. Les jeux télévisés par exemple sont de plus en plus débiles. On peut gagner des millions en tournant la roue. Les chansons et musiques participent pleinement à cette débilité ambiante. Les salaires de certains sportifs au Q.l souvent très limité atteignent des sommes astronomiques (même s'il faut leur reconnaître une intelligence corporelle). Si l'intelligence a des atouts certains» la « connerie » et la médiocrité sont encore des valeurs sures.
PATRICE GROS-SUAUDEAU -
« Etre dans le vent, l’ambition d’une feuille morte » : Gustave Thibon expliqué par la science !
« La découverte d’une zone cérébrale incitant l’être humain au conformisme éclaire d’un jour nouveau le débat sur l’influence des masses et des sondages.
Le biais de conformité, que l’on pourrait aussi appeler syndrome de Panurge, désigne la tendance que nous avons parfois à délaisser notre raisonnement intime pour rallier l’avis de la majorité –indépendamment du bien-fondé de celui-ci.
Dès les années 1950, le psychologue Solomon Asch avait montré que dans une simple tâche perceptive consistant à comparer les longueurs de différents segments de droite, la connaissance de l’avis majoritaire suffit à faire prendre des décisions absurdes à des individus qui, isolés, répondent correctement.
Récemment, des psychologues de l’Université de Princeton ont étudié ce qui se passe dans notre tête lorsque nous nous laissons entrainer dans des processus de ce type. Une structure cérébrale nommée insula, repli du cortex cérébral au niveau des tempes, semble déterminer le basculement d’opinion, l’abandon de l’analyse personnelle au profit de la posture conforme aux attentes du groupe.
Cette insula est réputée centraliser des informations de nature émotionnelle en provenance du corps, et s’activer lorsque l’individu sent peser la menace d’être exclu de son groupe d’appartenance. Le biais de conformité résulterait d’une pression sociale exercée par le groupe sur l’individu, créant une peur d’être marginalisé ».
Les conséquences de cet effet touchent notamment aux mécanismes électoraux. Condorcet, philosophe et mathématicien, montrait au XVIIIe siècle que le système démocratique livre des décisions sensées, à condition que les électeurs soient ignorants des décisions prises par leurs voisins. Autrement dit, il faut savoir se protéger du biais de conformité.
C’est aussi ce qu’a montré une étude réalisée dans l’entre-deux tours de l’élection présidentielle française en 2012. Quelque 1 000 votants étaient interrogés sur leurs intentions de vote au second tour ; dès lors qu’on leur présentait les résultats d’un sondage fictif allant dans le sens contraire de leur intention initiale, ils changeaient d’opinion dans 25 pour cent des cas, pour rallier l’avis majoritaire exprimé par le sondage.
Neurosciences, mathématiques et psychologie sociale concordent donc sur un point : pour éviter de réveiller le mouton qui sommeille en l’homme, évitons de le perturber par des influences majoritaires ».
Lu sur le site pour la science.fr
-
Gaz de schiste : ils n'ont plus de solution de rechange contre le chaos (archive 2011)
Nouvelle cacophonie au gouvernement, provoquée par le récent rapport du CGIET et du CGEDD sur les gaz de schiste. Le premier, placé sous l'autorité du ministre de l'Industrie, Eric Besson, lui-même dépendant du ministre de l'Economie Christine Lagarde se décline comme Conseil général de l'industrie, de l'énergie et des technologies. Il a en charge l'évaluation des politiques publiques « dans ses domaines de compétence ». C'est-à-dire, le développement économique et l'industrie ainsi que l'énergie, les ressources minières et minérales et l'utilisation du sous-sol. Les gaz et huiles de schistes entrant donc très exactement dans ce domaine de compétence. Le second, Conseil général de l'environnement et du développement durable pour le Respect de l'Environnement, relève, et c'est plus surprenant, du ministère de l'Environnement de Mme Kociusko-Morizet, également sous l'autorité de Mme Lagarde. Sa vocation est de la conseiller dans l'exercice des pouvoirs qu'elle tient des codes de l'environnement et de l'urbanisme. Ces deux organismes, en somme, devraient être les autorités scientifiques les mieux qualifiées pour conforter le choix du gouvernement de mettre fin aux recherches et forages de gaz de schiste. Or, tout en s'entourant des plus grandes précautions oratoires, leur rapport a contredit le gouvernement à peine venait-il d'annoncer « qu'il fallait tout remettre à plat » et « annuler les autorisations (de recherche) déjà données ». La France ne saurait se lancer dans la production de gaz de schiste considérés comme trop dangereux et pollueurs, au grand soulagement des milieux écologistes, des défenseurs du Grenelle de l'Environnement et de la pauvre Nathalie Koziusko-.Morizet qui depuis qu'elle a mis les pieds dans la politique n'en finit pas d'avaler des couleuvres.
Certes, reconnaissent les auteurs du Rapport, les études mériteraient d'être approfondies mais il semblerait que les indices relevés dans la région parisienne, le Sud-Est et le Centre (le Larzac notamment) - 100 milliards de m³ d'huiles et 500 milliards m³ de gaz exploitables - et l'intérêt que les grandes sociétés mondiales pétrolières et gazières portent à la France en la matière sont suffisamment probants pour qu'on la puisse considérer comme un des pays les plus prometteurs d'Europe.
« La probabilité, peut-on lire, que l'accès à ces gisements permette à (notre) pays de réduire très sensiblement ses importations d'hydrocarbures et de limiter d'autant le déficit de sa balance commerciale n'apparaît pas négligeable ».
Si le principe de précaution et l'impact sur l'environnement de l'activité industrielle devront être au centre des préoccupations, les grandes options de la loi Pope (Programme d'Orientation de la Politique Energétique), qui vise à définir les objectifs et les orientations de la politique énergétique de la France d'ici 2050 devront être respectés. On rappellera quelles en sont les quatre grandes directions.
- Maîtrise de la demande d'énergie.
- Diversification du bouquet énergétique.
- Développement de la recherche et de l'innovation dans le secteur de l'énergie.
- Maîtrise des moyens de transport et de stockage adaptés aux besoins.
Il serait très dommageable « pour l'économie nationale et pour l'emploi », est-il précisé, que l'on s'interdise d'utiliser cette richesse potentielle. Les recherches doivent être poursuivies. C'est en tout cas le message que les deux organisations entendent transmettre aux ministres concernés, Eric Besson et Nathalie Kociusko-Morizet.
Ces deux derniers, le 21 avril faisaient savoir par un communiqué très sec que « le gouvernement a pris acte de ce rapport d'étape. Le Premier Ministre a déjà entériné certaines de ses recommandations en annonçant le soutien du gouvernement aux propositions de loi déposées par les parlementaires. Il a également demandé à la mission de prolonger ses travaux afin que la recherche scientifique sur la possibilité d'exploiter demain ces gisements potentiels soit conduite jusqu'à son terme ». Besson, d'ailleurs, précisait qu'il était souhaitable de ne pas faire de promesses inconsidérées. Etant déjà suffisamment regrettable qu'il faille revenir sur certaines signatures dé concessions avant que ne soit examiné le 10 mai le projet de loi déposé par l'UMPet Christian Jacob. Le rapport final devant intervenir avant le 31 mai.
D'ici là souligne le Rapport un certain nombre des critiques de fonds des écologistes devront être tempérées. On ne devra plus parler de « gaz de schiste » mais de « gaz de roche-mère ». Parce que la « fracturation hydraulique » de la roche-mère représente l'essentiel de la technique utilisée. Si la France est désignée comme le pays européen le plus riche en gaz de schiste et si celui-ci représente 90 années de consommation mondiale énergétique, c'est pour que, au-delà de toutes critiques, soit bien cerné l'intérêt de cette nouvelle technique. D'ailleurs la Pologne qui prendra la tête de l'UE au 1er juillet a fait de la « sécurité énergétique » une priorité. Aussi, pour les rapporteurs, le gaz jouera un rôle important dans la réduction des gaz à effet de serre. Quant aux dangers représentés par la "fracturation" elle-même, l'utilisation d'énormes quantités d'eau, de centaines de produits chimiques cancérogènes, les experts du CGIET et du CGEDD sont convaincus que tout cela est très exagéré et que la recherche et la technologie permettront d'en limiter à l'avenir les effets néfastes.
Gaz de schiste et schistes bitumineux au Canada, — comme nous le soulignions dans le dernier N° d'Ecrits de Paris — « Gaz de Schiste, Charbon, Nucléaire : le mythe des énergies alternatives au pétrole » (EdP Avril 2011 ) —, quels que soient les dangers, le coût et les conséquences de leur extraction, feront dans les prochaines années partie de la grande panoplie qui succédera au tout pétrole et au presque tout nucléaire. Qu'on ne se laisse pas prendre aux gesticulations des écologistes et aux grimaces des chefs d'Etat. Depuis un siècle, l'économie du pétrole a précipité la planète dans un chaos duquel elle n'est pas prête de sortir, l'asphyxiant de gaz chimiques, de plastiques, de pesticides, de poisons médicamenteux auxquels on découvre chaque jour d'interminables ramifications. S'y est ajouté le nucléaire, puis les bio-technologies et désormais les nano-technologies. On en sait aujourd'hui les inquiétants résultats dans une société globale surpeuplée dont l'unique moteur est de croître toujours plus, de produire toujours plus, de grossir toujours plus, de construire toujours plus.
Croit-on vraiment que les forces dominantes accepteraient de s'affranchir d'une idéologie énergétique qui est l'essence de leur pouvoir ? Quant aux États leur principal moteur est l'emballement démographique. Plus un pays est peuplé et plus il se croit fort. Plus il reçoit d'immigrés, de réfugiés, d'étudiants, d'adoptés, plus il peut mettre en évidence sa vitalité urbaine et plus on lui accorde de reconnaissance dans les forums démocratiques globaux. En sorte qu'on n'a pas d'illusions à se faire : le gaz de schiste, comme le reste, sera tôt ou tard imposé. Fût-ce par la force.
René BLANC. RIVAROL 29 AVRIL 2011 -
Energie : dix solutions méconnues qui peuvent changer le futur
Le débat national sur la transition énergétique qui s’engage en ce début d’année est l’occasion d’agrandir son champ de vision sur les potentialités des énergies durables. Le futur offre un panel de ressources et de techniques d’énergies encore méconnues et néanmoins prometteuses.
Qui dit énergies durables dit le plus souvent éoliennes, photovoltaïque, hydraulique ou biomasse. Mais le panier de ces énergies est plus grand qu’on ne croit et plein de surprise. L’avenir énergétique de la planète est en effet bien plus riche qu’il n’y paraît.
Voici dix solutions encore peu exploitées, qui d’ici 10, 20 ou 50 ans viendront compléter notre mix énergétique. A condition que les recherches aboutissent, que les moyens financiers suivent et que l’éthique écologique soit associée au développement de certaines d’entre elles.
1. L’huile d’algue
D’aucuns l’affirment : la révolution de l’énergie se trouve dans les plantes. L’une d’elles est particulièrement intéressante, c’est l’huile d’algue. A l’instar des espèces oléagineuses, les algues ont la propriété de contenir jusqu’à 60% de leur masse en lipides. La force des algues : leur quantité. La productivité des végétaux marins est donc une carte maîtresse pour répondre à la menace que font peser les agrocarburants sur la biodiversité. Les algues sont capables de fournir de l’énergie sous 3 formes : biocarburant, biogaz et hydrogène. Leur exploitation est simple à mettre en œuvre. Il suffit, après collecte, de les concentrer et de les presser dans une centrifugeuse pour en extraire l’huile. Produire du carburant vert à partir d’algues microscopiques, tel est l’objectif du projet Shamash coordonné par l’INRIA (Institut national de recherche en informatique et automatique).
Sept équipes de recherche et un partenaire industriel travaillent sur le projet, dont Jean-Paul Cadoret, chef du laboratoire de physiologie et biotechnologie des algues de l’Ifremer. Pour ce dernier, ces microalgues qui, par photosynthèse, transforment l’énergie solaire en énergie chimique, offrent de gros avantages :
« Elles n’entrent pas en conflit avec l’approvisionnement alimentaire comme c’est le cas pour le blé, le maïs ou le colza. Elles se cultivent facilement en bassin ou dans les bioréacteurs avec de l’eau de mer. Cela évite de puiser dans les réserves d’eau douce. Elles prolifèrent rapidement et peuvent fournir une récolte en continu. Leur rendement de production d’huile à l’hectare est bien supérieur à celui de toutes les autres plantes. Ce sont des machines à avaler le CO2. Elles le captent pour restituer de l’oxygène ». Vingt fois plus abondantes que les plantes terrestres, les microalgues peuvent fournir 25 000 litres d’huile par hectare, quand le colza n’en produit que 1 500 litres, le tournesol, 950, et le soja, 446.
La consommation annuelle mondiale de carburant pourrait être assurée si les bassins d’algues étaient déployés sur 400 000 hectares (4000 km2), soit un tiers de l’Ile de France. Elles sont aujourd’hui présentées comme une alternative énergétique au pétrole, pouvant produire l’équivalent d’un quart des carburants fossiles. À l’heure actuelle, le litre de carburant d’algue coûte plus cher que le pétrole. Mais plusieurs éléments permettent d’espérer, à terme, une bien meilleure rentabilité.
2. Le pétrole à base d’air
Transformer l’air en pétrole , telle est la prouesse technologique réalisée par une société britannique qui a mis au point un procédé chimique complexe permettant d’obtenir un pétrole de synthèse à base d’air et d’électricité. Concrètement, « nous avons pris le dioxyde de carbone présent dans l’air et l’hydrogène présent dans l’eau, et nous les avons transformés en carburant, » explique Peter Harris, l’ingénieur responsable de l’innovation. Pour ce dernier, le carburant obtenu est beaucoup plus propre que celui obtenu à partir de pétrole fossile. De plus, il est compatible avec les moteurs existants, comme ceux des avions ou des navires. D’ici 15 ans, ce procédé encore récent et coûteux pourrait connaître un développement commercial.
3. L’énergie osmotique
L’énergie osmotique repose sur un phénomène physique : l’osmose. Le principe de l’osmose veut que, quand on met en présence deux liquides de concentrations en sel différentes, le liquide le moins salé va avoir tendance à se fondre dans le liquide le plus salé. La différence de salinité va donc créer un flux de l’eau douce vers l’eau salée. En faisant passer le flux du liquide concentré vers un liquide moins concentré à travers une membrane semi-perméable, cela provoque une surpression hydrostatique. Le volume d’eau contenu dans la membrane devient plus important. Cela accentue la pression sur les parois du contenant. Et cette pression peut être récupérée pour actionner une turbine qui va générer de l’électricité. Il existe un endroit où l’on trouve en permanence une ressource gratuite d’eau salée et d’eau douce : l’estuaire des fleuves. La question centrale de cette technologie, c’est la fabrication de membranes de grande taille, alliant des qualités de robustesse et de porosité. En dehors de ce problème technique, l’énergie osmotique représente une énergie renouvelable et permanente, ce qui est un avantage essentiel comparé au solaire ou à l’éolien. Les coûts d’exploitation seraient d’ailleurs minimes. Cette forme d’énergie offre de belles perspectives.
Une production de 4W/m2 est nécessaire pour viabiliser la construction de centrales électriques. Actuellement, les Norvégiens atteignent 1,5 W/m2, mais planifient les premières applications industrielles d’ici à 2015, avec en moyenne 8000h/an de fonctionnement, soit deux fois plus qu’une éolienne. Le potentiel technique mondial de l’énergie osmotique est estimé à 1600 TWh. En Europe, il est de l’ordre de 200 TW.
C’est la société norvégienne Statkraft, connue pour ses fermes éoliennes, qui a lancé la construction de la première centrale osmotique. 2.000 m2 de surface de membrane pourront générer environ 10 KW. Les ingénieurs de l’entreprise Statkraft, à l’origine du projet, travaillent actuellement sur une usine d’un à deux MW, ce qui nécessiterait une membrane de 200 000 m2. Si le procédé répond aux espérances des chercheurs, cette usine pourrait assurer 10% de la consommation énergétique norvégienne. Une autre centrale a été crée au Japon, et une troisième est en cours de construction aux Etats-Unis. Au plan mondial, le potentiel de l’énergie osmotique est estimé à 1 600 TWh par an, soit l’équivalent d’environ la moitié de la production électrique européenne en 2009. »
4. Le thorium ou l’atome vert
Le thorium est un métal, qui se trouve naturellement dans des minerais divers, dont la monazite, la bastnaésite et l’uranothorianite. Bien qu’il ne soit pas fissible lui-même, le thorium-232 est un isotope fertile comme l’uranium-238. Bombardé par les neutrons, il se transforme en uranium 233, matière fissile. Le thorium constitue une importante réserve d’énergie nucléaire, en raison de son abondance dans la croute terrestre ; il pourrait ainsi fournir trois à quatre fois plus d’énergie que l’uranium-238. Son utilisation nécessite la mise au point d’une nouvelle filière de réacteurs nucléaires surgénérateurs.
Les chercheurs qui défendent ce minerai aux qualités particulières estiment qu’il représente la possibilité d’un nucléaire propre. Bien plus abondant dans la nature que l’uranium, il est difficilement utilisable pour fabriquer des bombes atomiques. Il est aussi économe en déchets, la plupart d’entre eux pouvant être remis dans le circuit du réacteur.
Depuis plusieurs années déjà, des chercheurs du CNRS planchent théoriquement sur un réacteur sûr, très stable et facilement pilotable. Avec ce surgénérateur rapide à sels fondus (MSFR), qui utiliserait le thorium comme combustible liquide, 100% de la ressource utilisée comme combustible est consommée, Pour l’heure, il n’existe pas encore de prototype concret du MSFR en France.Cette solution se heurte à la réticence des industriels de la filière nucléaire. Mais les Chinois, eux, investissent massivement dans cette technologie nouvelle. Les Indiens qui disposent du quart des réserves mondiales de thorium l’utilisent déjà depuis quelques années, dans des réacteurs de troisième génération.
Le thorium se désintègre plus lentement que la plupart des autres matières radioactives mais sa radioactivité est de 14 milliards d’années. Les applications industrielles du thorium sont développées dans les alliages de magnésium utilisés pour les moteurs d’aéronefs.
5. L’énergie thermique des mers
L’idée de l’énergie thermique des océans est toute simple : tabler sur la différence de température entre les eaux chaudes de surface (+ 25° C dans les régions tropicales) et les eaux profondes (+5°C à 1000 mètres) pour produire de l’électricité et/ou de l’eau douce. Les océans représentent un gigantesque capteur d’énergie solaire contenue sous forme de chaleur dans la couche d’eau de surface. Ils reçoivent chaque année une quantité d’énergie équivalente à plus de mille fois la demande mondiale en énergie primaire. Un potentiel estimé à cent fois celui de la marée et cinq à dix fois celui du vent. L’exploitation de l’énergie thermique des mers (ETM) redevient d’actualité dans le contexte de la recherche d’énergies nouvelles, non polluantes, susceptibles de suppléer l’usage des combustibles fossiles qui renchérissent (pétrole, charbon, gaz,…). Bien que cela soit difficile, il est possible d’utiliser cet écart entre l’eau chaude et l’eau froide en installant des méga-pompes à chaleur capables de récupérer par « évapotranspiration » la vapeur qui va alimenter une turbine.
Les atouts d’une centrale reposant sur l’énergie thermique des océans sont non négligeables : énergie stable, peu de frais de fonctionnement, gratuité de l’eau de mer, exploitable gratuitement 24h sur 24 tous les jours de l’année, pas de confinement ou de stockage de l’eau.
6. Les bactéries carburants
Tout le monde connaît aujourd’hui les défauts des biocarburants : leur impact environnemental. Produits à partir de canne à sucre, de betterave ou de maïs, ils nécessitent l’utilisation d’importantes surfaces de terres arables et sont très forts consommateurs d’eau. En outre, ils nuisent à la biodiversité. Une entreprise Joule unlimited affirme avoir réussi à surmonter cette contrainte majeure en produisant un bio carburant inépuisable et abordable. Le e-éthanol qu’elle a mis au point est en effet issu de bactéries génétiquement modifiées.
Explication : les bactéries sont entreposées dans des tubes de trois centimètres de diamètre qui servent de réacteur, remplis d’eau non potable et de CO2 issu d’activités industrielles ; exposées au soleil, elles exploitent la photosynthèse pour produire de l’éthanol ou du gazole. Les rendements sont bien supérieurs aux biocarburants existants : 75 000 l/ha/an pour le e-éthanol, à comparer aux 7 000 l/ha/an de bioéthanol produit à partir de la betterave. Mais cela nécessiterait des installations énormes et l’efficacité de bactéries qui transforment le soleil en énergie, n’est pas aussi grande que celle des panneaux photovoltaïques.
7. Les bouées de récupération de l’énergie des vagues
L’énergie des vagues est liée au déplacement de la surface de la mer sous l’action de la houle. Le principe est simple. Lorsque les vagues arrivent sur un obstacle flottant ou côtier, elles cèdent une partie de leur énergie qui peut être convertie en courant électrique. L’intérêt de l’houlomotricité : les vagues se déploient de façon très économe. L’inconvénient : l’énergie perd en puissance lors de son acheminement vers les cotes. Pour que le dispositif soit rentable, il vaut mieux que les capteurs soient posés près du littoral, afin de récupérer le maximum d’énergie créée, soit 20 kW par mètre de côte. Selon la Commission Européenne, l’houlomotricité occuperait en 2020 la quatrième place des énergies renouvelables utilisées pour produire de l’électricité, derrière l’éolien on-shore et off-shore et l’hydraulique. Il existe aujourd’hui différentes technologies pour récupérer l’énergie des vagues : les bouées sous-marines en mouvement, les colonnes oscillantes, les débordements de chenal, les plates-formes à déferlement. Une cinquantaine de projets sont en cours dans le monde.
Parmi eux, le « Searev » ; il s’agit d’une sorte de ferme sur mer, conçue par Alain Clément, chercheur au Laboratoire de mécanique des fluides (LMF) : constituée d’une bouée, elle génère du courant électrique pour récupérer l’énergie de la houle. A l’intérieur de ce « système électrique autonome de récupération de l’énergie des vagues », un pendule de 400 tonnes, en oscillant sur les vagues, actionne tout un système de pistons et de pompes à huile. Le mécanisme fait tourner un arbre métallique entraînant vers un alternateur. Le tout est relié au continent par câble. L’objectif est de générer une puissance maximale comprise entre 500 et 700 kilowatts par bouée. De quoi alimenter jusqu’à 200 foyers en moyenne par an.
8. Les éoliennes entonnoirs
Même s’il fait partie des énergies renouvelables d’avenir, l’éolien, on le sait, présente bien des inconvénients : stockage, caprice du vent, raccordement au réseau… une petite entreprise américaine, Sheerwind, pense avoir trouvé la solution à ces difficultés : des éoliennes en forme d’entonnoir pour augmenter la vitesse du vent. D’où son nom Invelox (Increasing the velocity of the wind. Le principe est simple : l’air est aspiré dans un conduit où sa vitesse est multipliée par dix, avant de passer dans une turbine ou un générateur. Le rendement énergétique serait ainsi trois fois plus important qu’avec une éolienne classique, d’un coût 40% inférieur et d’une taille plus petite.
9. Les aérogénérateurs volants
De nombreux scientifiques ont les yeux rivés sur le « jet stream ». Pas le Gulf stream qui traverse l’océan. Non… le jet stream, juste à quelques 10 000 mètres au dessus de nos têtes, une source d’énergie qui souffle jour et nuit, 365 jours par an. A cette altitude, la force de ces vents représente une énergie pouvant produire cent fois plus d’énergie qu’une éolienne sur terre, capable de produire un kilowatt/heure pour deux centimes d’euros, soit la moitié du coût usuel d’énergie. Leur souffle est régulier et non capricieux comme sur terre. Ces puissants courants aériens qui ceinturent la planète sous la forme de deux anneaux atteignent parfois des vitesses surprenantes comprises entre 300 et 400 km par heure. Cette puissance résulte du contraste thermique existant à cette altitude entre la troposphère et la stratosphère. De l’air froid et de l’air chaud se rencontrent à des altitudes de 5 000 à 10 000 m, où les différences de température et de pression atmosphérique sont cependant beaucoup plus prononcées que dans les couches inférieures de l’atmosphère. Cette énergie des vents d’altitude suscite nombre de projets d’aérogénérateurs aussi originaux les uns que les autres.
Une nouvelle génération d’ingénieurs soucieux de l’environnement juge la technique des éoliennes déjà dépassée. Au lieu de gâcher les paysages en alignant des éoliennes terrestres, pourquoi ne pas installer des aérogénérateurs volants ? C’est fait avec le Sky WindPower. Plusieurs projets très imaginatifs de cerfs-volants, de ballons spatiaux ou de « kites » installés dans l’espace à dix mille mètres au dessus de nos têtes permettent de capter, au dessus des nuages, des vents puissants réguliers et non capricieux comme sur terre. Exemple : le prototype développé par Dave Sheppard, responsable d’une société établie à San Diego, Californie. Le prototype de Sky WindPower possède quatre rotors qui lui permettent de rester en suspension dans l’air et de faire tourner des dynamos générant de l’électricité. Dans son version commerciale, il serait relié à la terre par un long câble en aluminium conduisant l’énergie.
Un autre projet du même genre est mis au point par une entreprise italienne dans le cadre d’un partenariat européen. Le Manège KiWiGen, c’est son nom, est une sorte de manège de plusieurs centaines de mètres de diamètre, composé d’ un rotor et de bras pivotants sur lesquels sont tirés des câbles très résistants reliés à des cerfs-volants de quelques dizaines de mètres carrés, réalisées en polyéthylène alvéolaire. Disposés en batteries, ils peuvent atteindre 700 mètres de haut. Mis au point par une entreprise italienne et soutenu par des experts et des chercheurs européens, ce manège baptisé KiWiGen, (Kite Wind generator) produit des dizaines de mégawatts, via une turbine. Chaque cerf-volant est équipé de deux capteurs intelligents à même de détecter les accélérations du vent. Un programme électronique de contrôle calcule les variations d’orientation nécessaires pour lui faire suivre, toujours avec une portance maximale, un parcours circulaire. Les cerf-volants utilisés auront une envergure de quelques dizaines de mètres carrés.
10. Les films solaires de 3ème génération
Les cellules solaires organiques font actuellement l’objet d’une attention particulière. Très simples, elles sont compatibles avec des films et des textiles. Leur mise en forme, par exemple à partir d’encres ou de peintures, offre l’avantage de couvrir de grandes superficies. Cette flexibilité permet d’ouvrir à de nombreuses applications : emballages, vêtements, écrans, recharge de téléphones cellulaires ou d’ordinateurs portables.
Des chercheurs du CNRS et de l’Université d’Angers ont développé une approche avec des cellules solaires à base de molécules organiques et ont obtenu des rendements très élevés. Contrairement au silicium cristallin dont la production nécessite de très hautes températures, leur fabrication implique un faible coût énergétique et un faible impact environnemental.
A plus long terme, on peut imaginer une contribution décisive de leur potentiel à la conversion photovoltaïque de l’énergie solaire. Les tests montrent que les taux d’efficacité des molécules solaires organiques développées et synthétisés en laboratoire sont de 15% à 25% plus élevés que les cellules en silicium cristallin et les films solaires en couches minces, soulignent les ingénieurs de la société allemande Heliatek, la seule entreprise solaire au monde qui utilise le dépôt de molécules organiques à basse température. Ces dernières sont composées de fines couches nanométriques ultra-pures et d’une grande homogénéité. Cela permet de concevoir une architecture capable d’améliorer systématiquement l’efficacité et la durée de vie des cellules.
-
Énergie en Méditerranée
L'approvisionnement en énergie de l'Europe est très dépendant du pétrole et du gaz russe. Cette situation ne serait pas étrangère au projet de couvrir de panneaux solaires toute l'Afrique du Nord et les pays du Proche-Orient.
Les relations euro-méditerranéennes ont pris un tour décisif avec le lancement de l'Union pour la Méditerranée sous l'égide de Nicolas Sarkozy en 2007. En réalité, le président de la République a connu une défaite. En effet, son projet reposait sur l'idée d'établir des liens privilégiés entre les pays européens riverains de la Méditerranée et la rive sud. L'objectif était d'établir une zone d'influence française qui aurait fait contrepoids aux relations privilégiées de l'Allemagne en Europe centrale et orientale.
Opposition allemande
L'opposition acharnée d'Angela Merkel fit capoter le projet. En effet, lors d'une rencontre entre les chefs d'État français et allemand en mars 2008 à Hanovre, le chancelier exigea que tous les pays de l'Union européenne, dont l'Allemagne, participent au projet de l'Union pour la Méditerranée. Face à l'insistance d'Angela Merkel, le président français céda sur toute la ligne. Vidé de sa substance d'origine, le projet politique de Sarkozy s'est européanisé au profit des lobbies de Bruxelles et de leurs alliés de Berlin. Comment peut-on expliquer une telle volonté d'abattre le projet français au profit des instances européennes ? La réponse est simple ; elle tient à l'énergie.
En effet, l'approvisionnement en énergie de l'Europe pose problème. Dépendant du pétrole et du gaz, les dirigeants bruxellois se sentent pieds et poings liés face au géant russe Gazprom. Afin de se dégager de cette emprise, des dirigeants d'instituts européens en liaison avec des pays sud-méditerranéens ont décidé de lancer en 2003 un projet misant sur l'énergie solaire. Il s'agit de couvrir de panneaux solaires toute l'Afrique du Nord et les pays du Proche-Orient afin d'irriguer l'Europe en énergie.
Inversement, les pays sud-méditerranéens seront en mesure de bénéficier de la technique nécessaire pour dessaler l'eau de mer. Ainsi, leur agriculture verrait les rendements augmentés pour le plus grand profit de leurs économies. Sous l'égide de la branche allemande du Club de Rome, de la Fondation hambourgeoise pour la protection du climat (la HKF) et du Centre national de la recherche énergétique de Jordanie, une "Coopération trans-méditerranéenne pour les énergies renouvelables" (TREC) a vu le jour.
Ces compléments venus des déserts
C'est un véritable réseau international réunissant l'Europe (EU, essentiellement allemand), le Moyen-Orient (Middle East, ME) et l'Afrique du Nord qui, sous le sigle EU-MENA, a décidé de se lancer dans une politique définie comme suit : « Fournir de l'énergie propre à bon marché pour l'EUMENA, aussi rapidement que possible en se basant sur une coopération entre les pays de ces régions. TREC voit l'électricité en provenance des déserts comme un complément aux ressources européennes en énergie renouvelable ainsi qu'un moyen d'accélérer le processus de réduction des émissions européennes de CO² et d'augmenter la sécurité d'approvisionnement énergétique européenne. Pour les populations du Moyen-Orient et d'Afrique du Nord (MENA), ce projet apporterait une fourniture importante d'énergie propre, des emplois, des sources de revenus économiques, des infrastructures améliorées, des possibilités de dessalement d'eau de mer et de nombreux bénéfices potentiels (comme par exemple l'agriculture) apportés par l'ombre des collecteurs solaires. »
Projet titanesque
Afin de promouvoir cette coopération trans-méditerranéenne, TREC s'est doté d'un outil appelé Desertec. Lancé lors d'une réunion à Munich en juillet 2009, avec l'appui d'une multitude de groupes financiers essentiellement germaniques, il consiste à engager plus de 400 milliards d'euros jusqu'en 2050. Ce projet titanesque repose sur l'idée phare de resserrer les liens politiques et économiques entre les deux rives de la Méditerranée. Il préfigure cet idéal ancien d'unifier l'Occident et l'Orient en un seul et même bloc comme au plus beau temps de l'Empire romain. Toute la question est de savoir si les pays musulmans accepteront ce projet et sa finalité voulus par les financiers apatrides de Bruxelles, de Londres et de Berlin.
Pierre Hillard L’ACTION FRANÇAISE 2000 du 1er au 14 avril 2010