Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

08/02/2017

Passé Présent n°138 - Edison VS Tesla : La guerre des courants

09/01/2017

Le Yak-130, un « petit cauchemar » pour l’Otan

yak_otan.jpg

Le fameux Yak-130, chasseur d’entraînement avancé russe, est qualifié de « petit cauchemar » par des spécialistes américains, selon la revue bimensuelle américaine Le National Interest.

Le Yak-130 comporte plusieurs caractéristiques qui alertent l’Otan. Premièrement, grâce à ses systèmes d’accroche spéciaux, le chasseur est capable d’emporter trois tonnes d’armements modernes, comme des missiles air-air ou air-sol, des bombes guidées ou non-guidées et des roquettes.

Deuxièmement, un canon de 23 millimètres peut être fixé sous le fuselage du Yak-130, tandis que des roquettes air-air peuvent être accrochées aux bouts ses ailes.

De surcroit, un Yak-130 totalement équipé et rempli ne pèse que 10.300 kilogrammes ce qui fait un peu plus de la moitié du poids d’un chasseur multi-rôle, F-16 qui est le principal avion utilisé par les Etats-Unis et par leurs alliés.
Actuellement, les Yak-130 sont en service dans l’armée de l’Algérie. Le Bangladesh et la Biélorussie ont également signé des contrats visant à la fourniture de ces chasseurs russes.

Le Yak-130 a été construit dans le bureau d’études russe Yakovlev. Il a été choisi comme principal avion pour l’entrainement des pilotes des Forces aériennes de la Russie. Les Yak-130 permettent d’instruire les pilotes pour les avions russes et étrangers de génération 4+ et 5.

Source

http://www.voxnr.com/7598/le-yak-130-un-petit-cauchemar-p...

02/01/2017

NSA : «D'un point de vue technologique, la France est une colonie américaine»

Mediapart et Libération ont révélé ce mardi soir que les trois derniers présidents français ont été mis sur écoute par la NSA au moins de 2006 à 2012. Que vous inspire cette surveillance ? Est-elle inédite ?
Tout cela n'a rien de nouveau, et ce n'est pas la première fois qu'il est révélé que la NSA écoute des dirigeants Européens. La fois précédente, il s'agissait d'Angela Merkel. Qui pouvait s'imaginer un instant à l'époque que la Chancelière Allemande avait droit à un traitement privilégié par rapport aux présidents Français ?
De nos jours, du simple citoyen au plus haut dirigeant, la confiance a totalement disparu. Chez les politiques, cela se traduit par une explosion de la mise sous surveillance de tous -du Français lambda aux dirigeants politique (de son propre pays ou d'un pays étranger)-, chez les citoyens, cela se traduit par une explosion du phénomène des lanceurs d'alerte, dont Wikileaks est un symbole. La confiance est un phénomène réciproque. Si vous ne vous fiez pas à quelqu'un, il n'y a que peu de chance d'établir une relation de confiance réciproque avec lui. Si, en tant qu'État, vous espionnez vos alliés, la confiance va être difficile à établir. Si vous surveillez vos citoyens, il en sera de même, et si vous êtes dans un régime démocratique, rester au pouvoir sans avoir la confiance du peuple peut s'avérer délicat.
Edward Snowden avait déjà révélé les techniques de surveillance de la NSA en 2013. Les services de renseignement en ont-ils réellement tenu compte ?
Les services de renseignement étaient effectivement déjà largement au courant des pratiques de la NSA, et il est plus que certain qu'ils ont adapté leur approche au regard des détails fournis par Edward Snowden. Leur problème tient sans doute plus dans la difficulté qu'il y a pour les dirigeants français à adopter de “bonnes pratiques” les mettant à l'abri des écoutes. On voit régulièrement des ministres ou des présidents utiliser un smartphone, et cela fait rire de façon systématique tous les hackers. Maintenant, vous savez pourquoi
Une partie non négligeable des téléphones, et dans une moindre mesure des ordinateurs, vendus dans le commerces sont livrés avec des systèmes de surveillance pré installés -vouloir les utiliser pour échanger de façon confidentielle des informations est parfaitement idiot. Dans un autre ordre d'idée, si vous avez accès aux recherches Google issues du minsitère de l'écologie dans les mois qui précèdent un rendez vous comme COP21, vous avez des renseignements de premier plan sur les préoccupations de votre adversaire. 
Si cette difficulté des hommes politiques à adopter des bonnes pratiques est à mettre en cause, n'y-a-t-il pas également des failles de sécurité au sein du gouvernement français ?
Il n'y a que ça, et il est difficile d'en vouloir au gouvernement. Les technologies que nous utilisons pour construire nos infrastructures -celles utilisées par le gouvernement comme les autres- ne sont pas souveraines, et celles qui sont d'origine américaine (et elles sont nombreuses) sont presque systématiquement pensées pour permettre à la NSA d'en prendre le contrôle à des fins de surveillance. Nous n'avons pas, ou peu, de technologies souveraines. C'est une réalité avec laquelle il nous faut composer. Le fait d'être, d'un point de vue technologique, une colonie américaine est l'une des conséquences facheuse de ce manque de souveraineté. Les dirigeants politiques en sont souvent réduits à faire du face à face pour les discussions les plus confidentielles. Cela revient à s'éclairer à la bougie, et on s'imagine le manque de performance qui en découle de l'appareil qu'est le plus haut sommet de l'État.
Ajoutez à cela qu'à ce niveau de pouvoir, la compréhension de la chose technologique est proche du zéro absolu. Et pour cause : on a laissé cette chose aux techniciens, jusqu'au jour où l'on s'est aperçu que Facebook et Google -tous deux inventés par des techniciens- parlaient d'égal a égal avec les chefs d'État de la planète.
Comment donc assurer la confidentialité de nos communications en France?
Comme partout ailleurs, en diffusant au sein des entreprises un ensemble de bonnes pratiques qui, au fur et à mesure que les technologies de surveillance deviennent sophistiquées, doivent être revues et mises à jour. Il faut ensuite s'assurer que ces pratiques sont suivies scrupuleusement et établir un dialogue entre des spécialistes en sécurité et les utilisateurs de technologie, ce qui peut être très complexe.
L'écrasante majorité des dirigeants -qu'il s'agisse de l'État ou des grandes entreprises- ne comprend strictement rien à la chose technologique. On leur a vendu la technologie par petit bout, année après année: après celle du “search engine marketing” est arrivé l'année des réseaux sociaux, puis du mobile, de l'objet connecté, etc, jusqu'au moment où l'uberisation de l'économie leur a fait comprendre qu'ils n'avaient rien vu venir (tout comme avec la surveillance) et que du coup, il n'y comprennaient vraisemblablement pas grand chose.
«C'est l'arroseur arrosé. Voilà un gouvernement qui vient de faire voter une loi sur les écoutes et qui se plaint d'être écouté» a déclaré le sénateur UDI Yves Pozzo di Borgo. La loi sur le renseignement devrait en effet être adoptée définitivement ce mercredi. Ces révélations peuvent-elles avoir un impact sur ce vote ?
Je doute que les révélations de Wikileaks affectent le vote. La loi française sur le renseignement est le reproduction presque à l'identique du Patriot Act américain; Tout, y compris son timming post attentat, a été fait pour la faire adopter dans l'émotion plus que dans la raison, car si les députés avaient la moindre idée des perspectives que cela ouvre à l'évolution du régime politique en France, ils en seraient effrayés.
Est-ce un hasard que ces informations d'espionnage soient rendue publiques la veille de ce vote?
Je doute qu'il s'agisse du fruit du hasard. C'est une piqûre de rappel salutaire: au-delà de ce vote, il ne faut plus s'attendre à vivre encore longtemps dans un régime démocratique.
Sommes-nous déjà dans une société de surveillance généralisée?
Oui, nous sommes depuis quelques années dans une société de la surveillance, ou tout le monde est potentiellement surveillé par une autorité supérieure qui le fait dant la plus parfaite impunité et sans le moindre contrôle. Vous, moi, les journalistes, les avocats, les parlementaires, mais également les ministres et le président. 
La France est, dans cette période étrange de l'histoire de l'humanité qui débute, une des grandes puissances mondiales de la surveillance. En fournissant une aide logistique et un savoir-faire indéniable en matière de surveillance à de nombreuses dictatures étrangères, notamment en Afrique et au Moyen-Orient, la France surveille non seulement toute cette partie du monde qui reste obscure aux grandes oreilles américaines, mais elle appuie la continuité et l'expansion de la “france-afrique” sur de nouvelle bases, solidement ancrées et, j'en ai peur, durables. 
Sur le plan intérieur, la remise en question des élites dirigeantes par le peuple et la perte des illusions démocratiques ouvre une ère d'instabilité des institutions qu'il semble réaliste de contrer par un renforcement de l'autorité de l'État. Un État panoptique, omniscient et omniprésent à travers les technologies de notre quotidien, est perçu, sans doute à raison, comme une solution plus douce qu'un régime autoritaire. Mais d'une façon ou d'une autre, la classe dirigeante ne peut plus espérer longtemps faire reposer son pouvoir sur une quelconque légitimité, et il lui faut envisager un relais vers autre chose si elle veut continuer de diriger le pays. La surveillance de masse de tout citoyen est une forme de pression qui pourrait permettre demain de résoudre sans violence excessive de nombreux conflits. De récents documents mis à jour par Edward Snowden montrent comment les services anglais, en plus d'opérations de surveillance classiques, infiltrent les réseaux sociaux pour déstabiliser une opposition politique, discréditer un adversaire ou perturber le bon fonctionnement d'un groupe suceptible d'accéder au pouvoir. Ce type de comportement de la part d'un service de renseignement n'a rien de nouveau, mais les moyens techniques utilisés changent la donne de façon radicale.
En entrant de plein pied dans la société de la surveillance, nous avons profondément altéré les règles de bases des société démocratiques -là où les dictatures n'ont fait que moderniser un dispositif de surveillance plus ou moins passif et pré-existant. Nous sommes entrés dans l'ère du soupçon, une ère où la norme est de ne pas faire confiance. Ne pas faire confiance aux politiques est un réflexe adopté par près de 80% des français, mais cette défiance se généralise bien au delà du politique et des institutions. Ne perdons jamais de vue que la confiance est également la base de l'économie, et que cette dernière finira elle aussi par être affectée.
La loi sur le renseignement va-t-elle accentuer le phénomène ou peut-elle être un élément de lutte, comme l'estime le député François de Rugy: «La publication de ces écoutes montre justement qu'il faut une loi qui dit ce qui est autorisé ou pas pour les services de renseignement» ?
Il faut s'attendre à voir nos politique nous débiter dans les jours qui viennent un festival de stupidités. Celle de François de Rugy est assez pitoresque. Cette loi n'a jamais été pensée pour lutter contre les grandes oreilles américaines, car comme le sait parfaitement Mr de Rugy, la France a signé un accord de coopération et d'échange des données issues de la surveillance avec les USA en 2010. Ces accords portent le nom d'”accord Lustre”. Ce fait est connu de tous nos politiques qui prétendent, pour le moment, l'ignorer, quitte à se ridiculiser lors d'une prochaine fuite d'information.
Là où Mr de Rugy fait très fort, c'est qu'il y a fort à parier que les termes -et donc l'existence officielle- des accords Lustre fassent partie de ce que Wikileaks s'apprête à révéler dans les jours qui viennent. Il pourrait donc se voir taxer de menteur dans moins de 48h, ce qui, en toute logique, ne devrait en rien affecter sa carrière politique, car de toute façon, qui aujourd'hui peut croire ce que raconte un homme politique sur de tels sujets ?
 

23/12/2016

Galileo : l'Europe qu'on aime...

Oui, cela a pris du temps, c'est vrai : c'est en 1998 que le projet a été décidé et, s'il devait être actif en 2008, le déploiement opérationnel définitif de l'ensemble du système (que les ingénieurs appellent « constellation ») ne sera effectif qu'en 2020. Qu'importe ! Pour l'instant, 15 satellites sont déjà en place, permettant une précision d'un mètre, contre dix à quinze mètres pour le GPS états-unien (cela étant dit sans la moindre arrière-pensée de dénigrement : c'est simplement une constatation...)

Et, donc, l'Europe acquiert de haute lutte son indépendance en matière de géolocalisation, ce qui est d'autant plus méritoire que ses trois prédécesseurs (les Russes avec le système Glonass, les Chinois avec le système Beidou 2 et les Etats-Uniens avec leur GPS avaient une maîtrise d'œuvre unique car nationale*, et, de surcroît, confiée à un seul opérateur : leur armée.

Voilà un motif de satisfaction et, même, de fierté. Avec Galileo, l'Europe tient son rang, comme avec Airbus ou Arianespace. Elle existe pour le meilleur, comme, dans un domaine bien différent, avec les échanges estudiantins du programme Erasmus. Et elle offre la vision claire de ce qu'elle peut et doit être, « Europe réelle », Europe des peuples et des nations, Europe des compétences, à mille lieux de la caricature bouffonne et odieuse de l’ « Europe légale » avec son bâtiment genre stalinien du Berlaymont, son Parlement néfaste, sa Commission sans légitimité, ses figures de proue repoussantes (Juncker, Schultz...). 

L'Europe légale, qui est devenue ce monstre techno-bureaucratique que l'on ne connaît que trop bien, c'est comme l'OTAN : il faut la dissoudre et la réinventer, la refonder. Nul besoin de cette immense machine, de cette paperasserie accablante, de ces fonctionnaires par milliers et des lourdeurs administratives qu'ils induisent, des paralysies et des effets directement pervers sur les économies nationales (en tout cas, sur la nôtre) des fameuses « normes » et « directives » bruxelloises.

De simples accords entre les experts de chaque gouvernement national, et l'on retrouverait une souplesse qui a été écrasée sous un mammouth devenu lui-même sa propre raison d'être, et dont l'obésité n'a d'égale, évidemment, que l'inefficacité.

Voilà deux axes d'une politique qui redeviendrait une politique d'indépendance et de progrès ; on peut y rêver, au moins, au moment où Galileo nous emmène dans les étoiles, avec ses satellites à 23.200 kilomètres de la terre (!) :

- Supprimer l'OTAN ou - puisque cela ne dépend pas de nous - en faire sortir la France ; 

- Déclarer la fin de cette « Europe légale » morte de sa propre stérilité et de sa propre malfaisance, et repartir dans la direction de la première Europe des Six, en reprenant les intuitions utiles qui avaient présidé à son établissement, et avec le français comme langue officielle, comme l'avaient proposé les Allemands aux débuts prometteurs de l'Europe des Six...

Evidemment, pour l'instant, ce n'est qu'un songe, un vœu pieux. Mais l'Histoire est pleine de ces songes qu'une volonté politique ferme, et menée sur le long terme, a transformés en réalité heureuse. Qui a dit : « Là où il y a une volonté, il y a un chemin... » ?  

Soit dit en passant, et dans un autre domaine, là est l'explication principale des difficultés rencontrées par l'excellent et indispensable programme de l'Airbus militaire : trop de pays, trop de bureaux d'études, trop de différences de mentalités, trop de besoins différents, voire contradictoires...

http://lafautearousseau.hautetfort.com/

21:20 Écrit par pat dans actualité, Europe, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

La propagande LGBT n’a aucune légitimité scientifique

L'association REAL Women of Canada, un groupe nord-américain de femmes anti-féministes, a dénoncé les balivernes du lobby LGBT :

« Nous savons d’instinct qu’elles ne sont pas authentiques, ni dignes de notre adhésion. Cependant, les faiseurs de mythe tentent de nous imposer leurs absurdités par le bras armé de la loi, affirmant qu’il est « discriminatoire » de refuser d’accepter ces mythes comme vrais. Les juridictions qui ne se soumettent pas à leur diktat sont l’objet de punitions économiques, les parents se voient interdire de protéger leurs enfants des monstrueuses « lois toilettes » permettant aux hommes d’utiliser les douches et les vestiaires des filles. C’est une fraude fondée sur une propagande qui n’a aucune légitimité scientifique. »

L'association rappelle que deux « bombes » ont explosé récemment, réduisant en miettes ces mythes. La première fut celle constituée par l’étude publiée le 23 août  par le journal scientifique The Journal – The New Atlantis. Deux universitaires de renom, le Dr Lawrence Mayer, expert en psychiatrie et en statistiques, et le Dr Paul McHugh, y notaient d’emblée que la communauté LGBT est affectée de manière disproportionnée par des problèmes de santé mentale par rapport à la population dans son ensemble et qu’ils sont opposés à la « discrimination » à l’égard des personnes et de la communauté LGBT. Après étude de centaines d’articles scientifiques sur l’orientation sexuelle et l’identité de genre, ils affirment :

  • La croyance selon laquelle l’orientation sexuelle est innée, et constitue une caractéristique humaine fixée par la biologie – le fait que les hommes seraient « nés comme ça » – n’est validée par aucune preuve scientifique.
  • La croyance selon laquelle l’identité de genre est une caractéristique humaine fixe et innée, indépendante du sexe biologique – de telle sorte qu’une personne pourrait être « un homme prisonnier d’un corps de femme » ou « une femme prisonnière un corps d’homme » – n’est validée par aucune preuve scientifique.
  • Seule une minorité d’enfants qui expriment des pensées ou ont des comportements atypiques par rapport à leur genre continueront de le faire à l’adolescence ou à l’âge adulte. Il n’existe aucune preuve selon laquelle de tels enfants devraient être encouragés à devenir transgenres, sans même parler de leur faire subir des traitements hormonaux ou chirurgicaux.
  • Les personnes non hétérosexuelles et transgenres présentent un taux de problèmes mentaux (anxiété, dépression, suicide) ainsi que les problèmes comportementaux et sociaux (toxicomanie, violences sur partenaires) plus élevés que celui de la population en général. La discrimination seule ne rend pas compte de la disparité en son ensemble.

La deuxième bombe concerne les recherches de l’activiste lesbienne, le Dr Lisa Diamond, de l’American Psychological Association (APA), qui vient de reconnaître que l’orientation sexuelle est « fluide » et susceptible de changer. Ce faisant, elle a confirmé que l’idée selon laquelle « les homosexuels ne peuvent pas changer » est aujourd’hui une théorie dans l’impasse. La recherche, a-t-elle assuré lors d’une conférence à Cornell University, a aujourd’hui établi que « l’orientation sexuelle, y compris l’attraction, le comportement et l’identité perçue, est fluide à la fois pour les adolescents et pour les adultes des deux genres », résume REAL Women. Et pourtant, des lois de divers Etats des Etats-Unis ainsi que de l’Ontario interdisent la « thérapie réparatrice » qui cherche à venir en aide aux patients aux prises avec une attraction homosexuelle dont ils ne veulent pas. Ces lois sont fondées sur l’immutabilité de l’orientation sexuelle, dont la science vient pourtant de confirmer qu’il s’agit d’un mythe.

Les grands médias n’ont pas donné un grand retentissement à ces études mais la panique gagne les groupements LGBT. Le groupe homosexualiste Human Rights Campaign s’est fendue d’une attaque frontale contre New Atlantis, accusant les auteurs de l’étude, Mayer et McHugh, de faire de l’activisme anti-LGBTQ pour « marginaliser » les gens à travers des « déclarations trompeuses » et des « interprétations tendancieuses ». La réponse n’a pas tardé : l’équipe éditoriale de New Atlantis a tôt fait de démontrer que la plupart des accusations du HRC étaient fondée sur des « distorsions » du texte initial.

La France vient de lancer un plan de propagande LGBT, sur la base de mythes. Ces vérités officielles ne peuvent survivre qu'avec l'appui de la force publique. On appelle cela le totalitarisme.

Michel Janva

http://lesalonbeige.blogs.com/my_weblog/web.html

17/11/2016

Galileo, les limites de « leur » Europe

C’est aujourd’hui qu’Emmanuel Macron annonce sa déclaration de candidature à la présidentielle. Fini la visite au Puy-du-Fou, c’est sous le signe des banlieues, du multiculturalisme, de la France plurielle que l’ex ministre de l’Economie et protégé de Jacques Attali se lance dans la course. Aujourd’hui à Bobigny (Seine-Saint-Denis), il sera demain dans le 13e arrondissement de Marseille, dont le maire n’est autre que notre camarade Stéphane Ravier. M. Macron a placé résolument son combat sous le signe de la lutte contre le populisme, le FN, et en cela il ne diffère guère de ses concurrents  Mais aussi peut être avec moins d’ambiguïté, plus de franchise que d’autres, en faveur de l’ouverture libérale et d’une adhésion renouvelée à l’Europe libre-échangiste bruxelloise.Une Europe dont il est encore question dans l’actualité pour se féliciter d’une de ses réussites (la réalité est en fait bien plus contrastée) avec le lacement ces prochaines heures par la fusée Ariane de quatre nouveaux satellites du programme de la constellation Galileo. Saluons de nouveau ici le niveau d’excellence de nos ingénieurs et techniciens, de notre bade de Kourou et de l’agence spatiale européenne, capables de réaliser ce type de mission toujours très délicates. Et félicitons nous de cette réponse du vieux continent, bénéficiant des dernières avancées technologiques, au système de localisation yankee, qui devrait être encore plus précis et performant que le GPS américain

L’enjeu n’est pas mince. Outre les nombreux pays a travers le monde intéressés par une coopération au sein de ce projet,  la Commission européenne rappelait dans un communiqué en janvier 2011 que «le marché mondial des applications de navigation par satellite devrait atteindre une valeur de 240 milliards d’euros d’ici 2020 et connaît un rythme de croissance de 30 % depuis quelques années. Selon les estimations, 6 à 7 % du PIB des pays développés (800 milliards d’euros en Europe) dépendent actuellement de la navigation par satellite.»

Bruno Gollnisch l’a dit, il estime que « la recherche est un des rares domaines légitimes de coopération au niveau de l’Union européenne», citant à l’appui de son propos le financement de certaines infrastructures de transports mais aussi des programmes comme Airbus, Ariane, Erasmus, ITER, le Cern ou encore Galileo . Rappelons tout de même, et  les députés frontistes s’en sont souvent émus, que ce programme Galileo, lancé et financé par la Commission européenne en 1999, devait être mis en service il y a déjà neuf ans et a empilé les retards.

Dans un rapport remis au Premier ministre en début d’année,  la Cour des comptes relevait le coût, sur la période 1994-2020, des programmes Galileo et EGNOS (European Geostationary Navigation Overlay Service, soit Service Européen de Navigation par Recouvrement Géostationnaire). En l’espèce «plus de 13 milliards d’euros» (trois fois plus que la somme initiale annoncée de 4,6 milliards d’euros), dont «2,45 milliards» pour notre pays. Dans le détail plus de 10,2 milliards d’euros ont été dépensées pour le seul programme Galileo dont la moitié avait été utilisée à fin 2013.

La Cour des comptes pointe ce qui relève des impondérables difficiles à budgéter («les déboires techniques») , mais aussi «une conduite de projet peu performante», citant la facture du déploiement EGNOS, (700 millions d’euros, «soit deux fois plus cher que prévu»).

Les Sages, qui face à la concurrence d’uns service gratuit comme le GPS appelaient «à réviser à la baisse les perspectives de recettes commerciales susceptibles d’être procurées directement par Galileo»,  dont les applications seront déclinées sous forme d’un service ouvert et gratuit ou d’un service commercial et payant, insistaient cependant sur la nécessaire promotion commerciale de Galileo et Egnos. Ils déploraient que la France, qui a joué un rôle de tout premier plan dans leur élaboration, ne s’investisse que trop  timidement.  Or, « le succès de la nouvelle infrastructure européenne requiert une promotion efficace de ses utilisations potentielles, en s’appuyant particulièrement sur les avantages de Galileo soit son service commercial (payant), par rapport au GPS».

«(L’influence de la France) s’est, ces dernières années, érodée dans les instances de pilotage de la maîtrise d’ouvrage des deux programmes», la Cour pointant «la faible visibilité politique d’EGNOS et de Galileo», l’avenir incertain des deux programmes. «Tout comme sur le plan industriel, le risque existe que la France ne tire pas suffisamment parti de Galileo et d’EGNOS, après en avoir été pourtant le premier et le plus tenace promoteur».

Bruno Gollnisch le répète,  les grandes réussites dites européennes ne doivent rien à l’Europe bruxelloise. Elles sont d’abord à mettre « au crédit de l’excellence de nos scientifiques, ingénieurs, chercheurs Français et Européens, le fruit d’une coopération concrète menée hors du cadre de l’Union européenne »… C’est cette Europe des nations performante là, cette Europe de la libre coopération qui a les faveurs du FN. Une Europe de libre coopération des nations libres qui auraient été certainement plus  à même d’éviter les écueils qui ont frappé le projet  Galileo, «les tergiversations et les imbroglios politico-administratifs». En 2005, les élus frontistes au parlement européen relevaient qu’au moins cinq ans avaient été perdus du fait de la méthode choisie : partenariat public-privé, coopération internationale au delà de l’Union européenne, participation impérative de tous les Etats-membres, rôle imposé de la Commission européenne…

Enfin, rappelons aussi une crainte exprimée par Bruno Gollnisch, au sujet de la faille que laisse apparaître Galileo quant à l’autonomie politique, du fait de sa vocation purement civile qui laisse l’Europe dans la dépendance du système militaire américain pour les applications de défense.

http://gollnisch.com/2016/11/16/galileo-limites-de-europe/

07:38 Écrit par pat dans actualité, Europe, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

04/10/2016

Journal du Mardi 4 octobre 2016 - Société / Le mondial de l’auto dans la ville anti-voiture

11/07/2016

L'avenir à l'ère de Tesla

17/05/2016

Philippe Mesnard - Le transhumanisme

18/04/2016

#Nuit debout - Orages d'acier - 10/04/16

31/03/2016

Henri Poincaré, « le dernier grand savant universel »

Jules Henri Poincaré est né le 29 avril 1854 à Nancy et mort le 17 juillet 1912 à Paris. Il fut un mathématicien hors pair, physicien, philosophe et ingénieur. Il a réalisé des travaux d’importance majeure en optique et en calcul infinitésimal.

Ses avancées sur le problème des trois corps en font un fondateur de l’étude qualitative des systèmes d’équations différentielles et de la théorie du chaos ; il est aussi un précurseur majeur de la théorie de la relativité restreinte et de la théorie des systèmes dynamiques. Enfin, il est aussi connu des physiciens pour ses études sur la stabilité du système solaire, mais aussi des cercles philosophiques pour ses réflexions sur les fondements des sciences.

Les études de Poincaré sont brillantes: plusieurs fois premier prix au Concours Général, bachelier ès lettres, bachelier ès sciences. En Mathématiques Spéciales, il se lie d’amitié avec Paul Appell, qui deviendra lui aussi un très bon mathématicien. Reçu à l’École Normale Supérieure, et à l’École Polytechnique, il opte pour cette dernière.

Sorti ingénieur des Mines, Poincaré se consacre toutefois à la rédaction d’une thèse de doctorat qu’il défend le 1er octobre 1879. Le 20 avril 1881, Henri épouse Louise Poulain d’Andecy, avec qui il aura 3 filles et un fils. Le couple s’établit à Paris car Henri vient d’être nommé maître de conférences à la Sorbonne. C’est le début d’une intense activité scientifique pour Poincaré.

C’est en 1889 que le nom d’Henri Poincaré devient vraiment connu de tous. Il reçoit en effet le prix du roi Oscar de Norvège et de Suède, un passionné de mathématiques, pour un brillant mémoire sur le problème des trois corps.

En physique proprement dite, il s’est notamment penché sur la polarisation de la lumière par diffraction, les ondes hertziennes et la théorie de Lorentz, où il préfigure certains aspects de la relativité restreinte. Il possède tous les éléments de cette théorie en 1904, à la veille des travaux décisifs d’Albert Einstein. Il adhère pleinement au principe de relativité comme loi générale de la nature. Mais, s’il s’approche des conceptions d’Einstein, il n’a pas l’audace nécessaire pour franchir le pas et nier par exemple la simultanéité absolue, à distance, des phénomènes.

En 30 ans, il publie une trentaine de volumes, et près de 500 notes, articles ou longs mémoires. Ses travaux changeront totalement le paysage mathématique de son époque. Il crée notamment de toutes pièces la théorie des fonctions fuchsiennes, révolutionne l’étude des équations différentielles par ses études qualitatives de solutions.

Poincaré était également un philosophe des sciences reconnu. Dans « La Science et l’hypothèse« , publié en 1902, il affirme le rôle essentiel du principe de récurrence. Plus tard, il interviendra dans la crise des fondements des mathématiques, s’opposant aux idées de Hilbert et de Russell. Le 28 juin 1909, il entre à l’Académie Française, privilège rare pour un scientifique.

Bibmath, Le Larousse & les articles de Keswani dans The British Journal for the Philosophy of Science

http://www.fdesouche.com/711213-ces-francais-extraordinai...

08/03/2016

Soutien inattendu à Apple contre le FBI

Apple et le FBI se livrent une bataille sans merci autour du décryptage d’un iPhone utilisé lors de l’attentat de San Bernardino. Le constructeur à la pomme a reçu le soutien de l’ONU

C’est un soutien de poids qu’a reçu Apple dans sa bataille juridique et communicationnelle contre le FBI. Il n’est en effet pas courant que les Nations Unies se positionnent en faveur d’une entreprise privée contre un État.
Bref rappel des faits pour ceux qui n’auraient pas suivi l’affaire : le FBI demande à Apple de concevoir un procédé permettant d’accéder aux données cryptées contenues dans l’iPhone d’un des terroristes musulmans auteur de la tuerie de San Bernardino, en Californie (14 morts). L’agence fédérale accuse le constructeur californien de faire obstruction à une enquête pour terrorisme et met en avant la sécurité des Américains.
Outre une base juridique mince et qui a été depuis invalidée, Apple craint que cela ne crée un dangereux précédent, permettant non seulement aux USA, mais aussi à tous les régimes autoritaires de la planète, d’exiger le « déplombage » des téléphones à la pomme, compromettant gravement le respect de la vie privée et les libertés publiques. Le FBI a d’ailleurs fini par admettre qu’il comptait bien s’appuyer sur le succès de la requête de San Bernardino pour pousser d’autres demandes similaires.

L’affaire a fait pas mal de bruit jusque sur notre rive de l’Atlantique, avec notamment l’amendement Ciotti au projet de loi de réforme pénale, qui prévoyait des amendes allant jusqu’à 2 millions d’euros et d’interdire la commercialisation de produits ou services dont les concepteurs refusent de coopérer avec la justice. Il a été rejeté d’une courte tête.

C’est donc l’ONU, par la voix de son haut-commissaire aux droits de l’homme, le prince Zeid bin Ra’ad, qui vient de prendre position dans le débat qui oppose Apple au FBI. En l’espèce, l’organisation internationale plaide en faveur de la firme de Cupertino au motif que permettre aux autorités fédérales américaines d’accéder aux données chiffrées d’un iPhone reviendrait à, pour reprendre les termes du prince, « ouvrir la boîte de Pandore » et faire un cadeau aux régimes autoritaires et aux pirates informatiques.

Le chiffrement et l’anonymat sont nécessaires pour préserver la liberté d’expression et d’opinion, ainsi que le droit à la vie privée. Il n’est pas exagéré de dire que, sans outils de chiffrement, des vies seraient en danger. […] Les autorités risquent d’ouvrir une boîte de Pandore, et cela pourrait avoir des conséquences extrêmement graves pour les droits humains de millions des gens ainsi que pour leur sécurité financière et physique.

Quoi que l’on pense de l’ONU, de la présence à la tête de la commission aux droits de l’homme d’un prince saoudien et de ses éventuelles arrière-pensées, force est de reconnaître que cet avis est frappé au coin du bon sens. Il est faux de croire que nous sommes placés face à un dilemme entre nos libertés civiles et notre sécurité. Si Apple cède, nous ouvrons effectivement la boîte de Pandore, mais, au-delà de la seule affaire de San Bernardino, nous ne gagnerons rien : qui peut croire, en toute honnêteté, que les terroristes sont assez stupides pour continuer à utiliser des iPhone s’ils savent que le FBI dispose d’un moyen d’accéder à leurs données ?

En revanche, il est certain que si le constructeur à la pomme cède au FBI, c’est un clou de plus dans le cercueil de nos libertés publiques et de notre droit à l’intimité. Une fois de plus, le terrorisme est une merveilleuse occasion pour nos dirigeants de réduire nos libertés au nom de la sécurité. Et la citation de Benjamin Franklin qui circule beaucoup n’en reste pas moins pertinente :

Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l’une ni l’autre, et finit par perdre les deux.

http://fr.novopress.info/199138/soutien-inattendu-apple-c...

28/02/2016

Révolution numérique : miracle ou imposture. 2e partie

On est fasciné par la technologie numérique, sans comparer rationnellement ses avantages et ses inconvénients. Une innovation technologique n’a de sens – depuis la révolution néolithique – que si elle fait baisser les coûts et les efforts de production des biens et services et augmente leur nombre et leurs qualités. Comme nous l’avons vu dans la première partie de cet article, l’utilité marginale des technologies informatiques et numériques depuis les années 80 est en baisse par rapport à celle des révolutions techno–industrielles précédentes. Problème.   

Une révolution technologique non maîtrisée

Ni l’informatique, ni Internet ni le smartphone, ni le GPS, etc. n’ont créé de bouleversements ni d’améliorations comparables aux innovations de la période 1840–1960. C’est le phénomène de l’utilité marginale décroissante. La révolution numérique crée des mutations comportementales, sociales et économiques mais au fond assez peu d’améliorations concrètes en termes de performances et de commodités ou même d’emplois créés : les innovations technologiques de l’informatique de seconde génération, n’ont pas généré le moindre emploi supplémentaire.  Elles n’ont pas accéléré non plus la transmission des informations. Et parfois elles l’ont ralentie du fait de la complexité et de la fragilité des nouvelles machines. Quand j’envoie un SMS à un correspondant, mon message ne va pas plus vite que jadis un appel téléphonique sur un poste fixe avec fil ; en revanche, le système est moins fiable et…plus cher – contrairement à ce que croit le consommateur abusé.   

Les précédentes révolutions industrielles ont connu un  développement linéaire ; la révolution numérique connaît un développement géométrique, exponentiel. Loi de Moore : la puissance des ordinateurs double tous les dix-huit mois. En réalité, c’est, selon moi, inexact : ce n’est pas la puissance électro-physique des ordinateurs qui double à cette allure, mais ce sont leurs champs d’applications, leurs connections.

La révolution numérique n’épargne aucune activité ; mais cette largeur d’éventail n’est pas synonyme d’amélioration.  Contrairement aux premières révolutions industrielles, les sociétés n’ont pas le temps de s’adapter au processus galopant de la révolution numérique. Cette dernière, comme toutes les mutations techno-économiques de l’histoire – mais bien plus encore –  s’apparente à un phénomène subi dont on n’a pas prévu  les conséquences ; ou plus exactement, dont les conséquences surprenantes ne sont pas exactement celles recherchées : c’est l’ « hétérotélie » décrite par Jules Monnerot. Heidegger parlait à propos de la progression de l’économie technologique de « processus sans sujet ».   

Une révolution technologique en trompe l’oeil

Les nanotechnologies et les biotechnologies, dont les prix baissent continuellement, n’amèneront probablement pas la même valeur ajoutée globale que les innovations des précédentes révolutions industrielles. Elles sont frappées par le redoutable effet marginal déclinant, c’est-à-dire la dégradation mathématique du rapport entre le coût des innovations et le bénéfice de leurs résultats. 

Les voitures électriques autoguidées, les bio-organes de remplacement, les objets connectés qui obéissent à la voix, les puces implantées dans le cerveau et autres ”innovations” n’auront certainement pas les mêmes effets révolutionnaires que le moteur à explosion, le téléphone, le macadam, la radio, la pénicilline ou l’avion.   

Les deux premières révolutions industrielles (vapeur et électricité + moteur à explosion) ont été précédées par d’importantes innovations techniques. D’où le bouleversement des systèmes de production, de distribution et de consommation et, en conséquence, transformation des sociétés. En effet, depuis le néolithique (invention de l’agriculture et de l’élevage), les innovations technologiques sont les racines causales des mutations des civilisations, y compris dans le domaine artistique. Avec la biologie (démographie et caractéristiques héréditaires des populations), la technologie est le second pilier de l’infrastructure des civilisations.

Les deux premières révolutions industrielles ont considérablement accru le niveau et l’espérance de vie, comme le confort matériel (et provoqué dans le monde entier une explosion démographique par recul de la mortalité) parce qu’à l’offre économique technique répondait, comme cause/effet, la demande d’une classe moyenne aisée en constante expansion. Mon soupçon est que les deux révolutions techno–industrielles suivantes à partir de la fin du XXe siècle (informatique puis numérique) ne produiront pas les mêmes effets.

Artefacts et gadgets

La sécurité bancaire a été dégradée par le numérique, et les achats ou paiements en ligne ne sont pas fiables. Aucun site n’est réellement sécurisé. Pourquoi ? Parce que derrière les machines, il y a les hommes et donc leur proportion constante d’escrocs.

En matière de rapidité et de fiabilité dans la transmission des informations, les techniques  électroniques et numériques n’ont pas montré une supériorité écrasante. Le ” facteur d’incertitude” est une cause : on s’en remet aux machines, aux process artificiels, toujours menacés par une panne ou un piratage, ce qui est créateur d’angoisse, donc de baisse de la qualité du travail et de hausse des coûts de protection. 

 Cette ”révolution numérique” produit beaucoup de spectacles, de simulacres et d’artefacts, bouleversements apparents plus que concrets, qui ne simplifient pas forcément le quotidien. Festivisme et spectacularisme. En tant que journaliste, quand j’écrivais et envoyais mes articles par les procédés traditionnels (machine à écrire et offset) la rapidité et la fiabilité étaient plutôt supérieures aux procédés numériques actuels. Où est donc le ”progrès ” ?

Ce phénomène est connu des historiens des sciences et des techniques : la baroquisation et la complexification de certaines technologies qui finissent par les rendre plus chères et moins efficaces, sous prétexte d’innovation à tout prix. De fait, la multiplication d’artefacts, d’applications et d’objets virtuels et non pas réels, rend l’environnement technique plus lourd, plus encombré. Ces béquilles informatiques et numériques de plus en plus nombreuses (voir les applications des smartphones) ne procurent pas une véritable valeur ajoutée mais s’imposent comme desgadgets. Ces artefacts–gadgets sont souvent des illusions pour les consommateurs fascinés mais une source de profit importante pour les sociétés qui les créent.  Charlatanisme ?    

Les six inconvénients majeurs de l’économie numérique et d’Internet 

Ils n’abolissent évidemment tous leurs indéniables avantages. Mais il faut les recenser pour mieux les combattre.    

1) Une cybercriminalité non maîtrisée

L’explosion des escroqueries et des arnarques dans les transactions, ainsi que la piraterie et le cyber–terrorisme ont généré une cybercriminalité (entreprises, États, institutions, particuliers) qui est plus forte que toutes les contre mesures. Sans oublier la radicalisation djihadiste, les réseaux de prostitution ou de pédophilie favorisés par le Web. D’où le risque global de fragilisation du nouveau système et, à terme, sa rétraction, si les choses s’aggravent trop.   

2) Une complexification  des processus

La promesse de facilitation des tâches par l’économie numérique et Internet n’est pas toujours au rendez-vous, bien au contraire. Les bugs incessants, les logiciels mal conçus (plus de 50%) et la mauvaise formation des utilisateurs contribuent à dégrader le nouveau système ”miraculeux”.   

La complexité remplace souvent la commodité promise. Le slogan est connu : ” d’un simple clic, tout est facile”. Hélas, tout est souvent rendu beaucoup plus difficile, plus lent et plus cher ; pour les particuliers comme pour les entreprises. Mentionnons les ”e-billets” d’avion ou de train, les démarches ou renseignements administratifs par Internet ou robots répondeurs téléphoniques, etc. J’y reviendrai.

3) Une dépendance paralysante envers la machine

Des tâches qui, jadis, semblaient simplissimes requièrent aujourd’hui un environnement informatique très couteux et pas toujours très fiable, avec souvent  une dégradation des prestations par rapport à l’ancien système. De plus, à l’échelle macroéconomique, l’énorme consommation énergétique des ordinateurs sur la planète et des centres de stockage des données (big data) n‘est pas vraiment écologique… 

4) Une fragilisation des échanges financiers  

 L’instantanéité par algorithmes des transactions financières (Bourse, emprunts, etc.) est préoccupante. L’ordinateur quasi-autonome a remplacé la Corbeille et les réflexions ou calculs humains. Ce qui favorise une volatilité des échanges, source de spéculations hors contrôle et de dérapages : effets de panique ou d’enthousiasme artificiels. La sphère financière mondiale, robotisée et non plus maîtrisée, est devenue une source de crises brutales et imprévisibles. : les bulles de savon, qui crèvent aussi vite qu’elles ont grossi.  

5) Une baisse de fiabilité des informations

Le raz-de-marée de communication et d’informations charriés par Internet autorise toutes les impostures, les désinformations, les erreurs à répétition, les rumeurs infondées. Il n’y a plus de hiérarchie des informations, plus de recul. Trop d’impôt tue l’impôt ; trop de communication et d’informations tue la communication et l’information.

 6) Une menace pour les libertés individuelles

Pour l’instant, l’accessibilité de toutes les données et profils individuels se limite au ciblage publicitaire par les algorithmes. Mais demain, un État ou une organisation pourront faire pression sur un individu par ce moyen, en espionnant tout son contenu Internet et numérique. Néanmoins, cela pose un problème, concernant la surveillance des réseaux terroristes, et il est loin d’être résolu, comme le montre le conflit entre Google et le gouvernement américain.   

La possibilité d’un déclin d’Internet

Bien entendu, ces constats n’annulent pas les avantages d’Internet et de la révolution numérique, par la création d’une Toile en réseau qui joue le rôle d’un super cerveau planétaire. Simplement, il faut toujours comparer les avantages et les inconvénients d’un nouveau système, sans oublier ces derniers : ils sont une menace pour Internet, à cause de sa fragilité et de sa faible fiabilité en matière de protection des échanges.

Déjà des entreprises, des organisations, des individus ont délaissé les communications numériques pour des raisons de sécurité.  Puisque même les procédés de cryptage sont cassables. Ils en sont revenus aux vieux systèmes,  comme le courrier écrit, un peu plus lent mais nettement plus fiable et plus discret. Il faut savoir, par exemple, que la majorité des sociétés américaines travaillant pour la Défense ou des secteurs nationaux sensibles interdisent à leurs cadres de communiquer par Internet ou réseaux sociaux  Tout doit  passer par le courrier écrit traditionnel, pratiquement impossible à intercepter. Intéressant… La troisième partie de cet article sur la révolution numérique sera publiée très bientôt (1) J’y aborderai notamment les illusions du big data et des réseaux sociaux.

(1) Le prochain article concernera le Front National. Il s’intitulera : « L’ennemi du FN a un nom : Florian Philippot ».

http://www.gfaye.com/revolution-numerique-miracle-ou-impo...

20:32 Écrit par pat dans lobby, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

24/02/2016

[Paris] JEAN-MARIE LE MENE AU CERCLE DE FLORE, le 18 mars

A Paris, vendredi 18 mars à 20h00, ne manquez pas le prochain Cercle de Flore.

Jean-Marie Le Mené, président de la Fondation Jérôme-Lejeune. viendra présenter son dernier ouvrage "Les premières victimes du transhumanisme"

Vendredi 18 mars 2016, à 20h00

10 rue Croix des Petits Champs 75001 Paris, Escalier A, 2 ème étage

M° Palais-Royal

PAF : 3€ , gratuité pour les adhérents.

cercle_de_flore_le_mene.jpg

http://www.actionfrancaise.net/craf/?Paris-JEAN-MARIE-LE-...

 

21/02/2016

Révolution numérique : miracle ou imposture ? (2e partie) – par Guillaume Faye

avec Guillaume Faye)

On est fasciné par la technologie numérique, sans comparer rationnellement ses avantages et ses inconvénients. Une innovation technologique n’a de sens – depuis la révolution néolithique – que si elle fait baisser les coûts et les efforts de production des biens et services et augmente leur nombre et leurs qualités. Comme nous l’avons vu dans la première partie de cet article, l’utilité marginale des technologies informatiques et numériques depuis les années 80 est en baisse par rapport à celle des révolutions techno–industrielles précédentes. Problème.

Une révolution technologique non maîtrisée

Ni l’informatique, ni Internet ni le smartphone, ni le GPS, etc. n’ont créé de bouleversements ni d’améliorations comparables aux innovations de la période 1840–1960. C’est le phénomène de l’utilité marginale décroissante. La révolution numérique crée des mutations comportementales, sociales et économiques mais au fond assez peu d’améliorations concrètes en termes de performances et de commodités ou même d’emplois créés : les innovations technologiques de l’informatique de seconde génération, n’ont pas généré le moindre emploi supplémentaire. Elles n’ont pas accéléré non plus la transmission des informations. Et parfois elles l’ont ralentie du fait de la complexité et de la fragilité des nouvelles machines. Quand j’envoie un SMS à un correspondant, mon message ne va pas plus vite que jadis un appel téléphonique sur un poste fixe avec fil ; en revanche, le système est moins fiable et…plus cher – contrairement à ce que croit le consommateur abusé.

Les précédentes révolutions industrielles ont connu un développement linéaire ; la révolution numérique connaît un développement géométrique, exponentiel. Loi de Moore : la puissance des ordinateurs double tous les dix-huit mois. En réalité, c’est, selon moi, inexact : ce n’est pas la puissance électro-physique des ordinateurs qui double à cette allure, mais ce sont leurs champs d’applications, leurs connections.

La révolution numérique n’épargne aucune activité ; mais cette largeur d’éventail n’est pas synonyme d’amélioration. Contrairement aux premières révolutions industrielles, les sociétés n’ont pas le temps de s’adapter au processus galopant de la révolution numérique. Cette dernière, comme toutes les mutations techno-économiques de l’histoire – mais bien plus encore – s’apparente à un phénomène subi dont on n’a pas prévu les conséquences ; ou plus exactement, dont les conséquences surprenantes ne sont pas exactement celles recherchées : c’est l’ « hétérotélie » décrite par Jules Monnerot. Heidegger parlait à propos de la progression de l’économie technologique de « processus sans sujet ».

Une révolution technologique en trompe l’oeil

Les nanotechnologies et les biotechnologies, dont les prix baissent continuellement, n’amèneront probablement pas la même valeur ajoutée globale que les innovations des précédentes révolutions industrielles. Elles sont frappées par le redoutable effet marginal déclinant, c’est-à-dire la dégradation mathématique du rapport entre le coût des innovations et le bénéfice de leurs résultats.

Les voitures électriques autoguidées, les bio-organes de remplacement, les objets connectés qui obéissent à la voix, les puces implantées dans le cerveau et autres ”innovations” n’auront certainement pas les mêmes effets révolutionnaires que le moteur à explosion, le téléphone, le macadam, la radio, la pénicilline ou l’avion.

Les deux premières révolutions industrielles (vapeur et électricité + moteur à explosion) ont été précédées par d’importantes innovations techniques. D’où le bouleversement des systèmes de production, de distribution et de consommation et, en conséquence, transformation des sociétés. En effet, depuis le néolithique (invention de l’agriculture et de l’élevage), les innovations technologiques sont les racines causales des mutations des civilisations, y compris dans le domaine artistique. Avec la biologie (démographie et caractéristiques héréditaires des populations), la technologie est le second pilier de l’infrastructure des civilisations.

Les deux premières révolutions industrielles ont considérablement accru le niveau et l’espérance de vie, comme le confort matériel (et provoqué dans le monde entier une explosion démographique par recul de la mortalité) parce qu’à l’offre économique technique répondait, comme cause/effet, la demande d’une classe moyenne aisée en constante expansion. Mon soupçon est que les deux révolutions techno–industrielles suivantes à partir de la fin du XXe siècle (informatique puis numérique) ne produiront pas les mêmes effets.

Artefacts et gadgets

La sécurité bancaire a été dégradée par le numérique, et les achats ou paiements en ligne ne sont pas fiables. Aucun site n’est réellement sécurisé. Pourquoi ? Parce que derrière les machines, il y a les hommes et donc leur proportion constante d’escrocs.

En matière de rapidité et de fiabilité dans la transmission des informations, les techniques électroniques et numériques n’ont pas montré une supériorité écrasante. Le ” facteur d’incertitude” est une cause : on s’en remet aux machines, aux process artificiels, toujours menacés par une panne ou un piratage, ce qui est créateur d’angoisse, donc de baisse de la qualité du travail et de hausse des coûts de protection.

Cette ”révolution numérique” produit beaucoup de spectacles, de simulacres et d’artefacts, bouleversements apparents plus que concrets, qui ne simplifient pas forcément le quotidien. Festivisme et spectacularisme. En tant que journaliste, quand j’écrivais et envoyais mes articles par les procédés traditionnels (machine à écrire et offset) la rapidité et la fiabilité étaient plutôt supérieures aux procédés numériques actuels. Où est donc le ”progrès ” ?

Ce phénomène est connu des historiens des sciences et des techniques : la baroquisation et la complexification de certaines technologies qui finissent par les rendre plus chères et moins efficaces, sous prétexte d’innovation à tout prix. De fait, la multiplication d’artefacts, d’applications et d’objets virtuels et non pas réels, rend l’environnement technique plus lourd, plus encombré. Ces béquilles informatiques et numériques de plus en plus nombreuses (voir les applications des smartphones) ne procurent pas une véritable valeur ajoutée mais s’imposent comme des gadgets. Ces artefacts–gadgets sont souvent des illusions pour les consommateurs fascinés mais une source de profit importante pour les sociétés qui les créent. Charlatanisme ?

Les six inconvénients majeurs de l’économie numérique et d’Internet

Ils n’abolissent évidemment tous leurs indéniables avantages. Mais il faut les recenser pour mieux les combattre.

1) Une cybercriminalité non maîtrisée

L’explosion des escroqueries et des arnarques dans les transactions, ainsi que la piraterie et le cyber–terrorisme ont généré une cybercriminalité (entreprises, États, institutions, particuliers) qui est plus forte que toutes les contre mesures. Sans oublier la radicalisation djihadiste, les réseaux de prostitution ou de pédophilie favorisés par le Web. D’où le risque global de fragilisation du nouveau système et, à terme, sa rétraction, si les choses s’aggravent trop.

2) Une complexification des processus

La promesse de facilitation des tâches par l’économie numérique et Internet n’est pas toujours au rendez-vous, bien au contraire. Les bugs incessants, les logiciels mal conçus (plus de 50%) et la mauvaise formation des utilisateurs contribuent à dégrader le nouveau système ”miraculeux”.

La complexité remplace souvent la commodité promise. Le slogan est connu : ” d’un simple clic, tout est facile”. Hélas, tout est souvent rendu beaucoup plus difficile, plus lent et plus cher ; pour les particuliers comme pour les entreprises. Mentionnons les ”e-billets” d’avion ou de train, les démarches ou renseignements administratifs par Internet ou robots répondeurs téléphoniques, etc. J’y reviendrai.

3) Une dépendance paralysante envers la machine

Des tâches qui, jadis, semblaient simplissimes requièrent aujourd’hui un environnement informatique très couteux et pas toujours très fiable, avec souvent une dégradation des prestations par rapport à l’ancien système. De plus, à l’échelle macroéconomique, l’énorme consommation énergétique des ordinateurs sur la planète et des centres de stockage des données (big data) n‘est pas vraiment écologique…

4) Une fragilisation des échanges financiers

L’instantanéité par algorithmes des transactions financières (Bourse, emprunts, etc.) est préoccupante. L’ordinateur quasi-autonome a remplacé la Corbeille et les réflexions ou calculs humains. Ce qui favorise une volatilité des échanges, source de spéculations hors contrôle et de dérapages : effets de panique ou d’enthousiasme artificiels. La sphère financière mondiale, robotisée et non plus maîtrisée, est devenue une source de crises brutales et imprévisibles. : les bulles de savon, qui crèvent aussi vite qu’elles ont grossi.

5) Une baisse de fiabilité des informations

Le raz-de-marée de communication et d’informations charriés par Internet autorise toutes les impostures, les désinformations, les erreurs à répétition, les rumeurs infondées. Il n’y a plus de hiérarchie des informations, plus de recul. Trop d’impôt tue l’impôt ; trop de communication et d’informations tue la communication et l’information.

6) Une menace pour les libertés individuelles

Pour l’instant, l’accessibilité de toutes les données et profils individuels se limite au ciblage publicitaire par les algorithmes. Mais demain, un État ou une organisation pourront faire pression sur un individu par ce moyen, en espionnant tout son contenu Internet et numérique. Néanmoins, cela pose un problème, concernant la surveillance des réseaux terroristes, et il est loin d’être résolu, comme le montre le conflit entre Google et le gouvernement américain.

La possibilité d’un déclin d’Internet

Bien entendu, ces constats n’annulent pas les avantages d’Internet et de la révolution numérique, par la création d’une Toile en réseau qui joue le rôle d’un super cerveau planétaire. Simplement, il faut toujours comparer les avantages et les inconvénients d’un nouveau système, sans oublier ces derniers : ils sont une menace pour Internet, à cause de sa fragilité et de sa faible fiabilité en matière de protection des échanges.

Déjà des entreprises, des organisations, des individus ont délaissé les communications numériques pour des raisons de sécurité. Puisque même les procédés de cryptage sont cassables. Ils en sont revenus aux vieux systèmes, comme le courrier écrit, un peu plus lent mais nettement plus fiable et plus discret. Il faut savoir, par exemple, que la majorité des sociétés américaines travaillant pour la Défense ou des secteurs nationaux sensibles interdisent à leurs cadres de communiquer par Internet ou réseaux sociaux Tout doit passer par le courrier écrit traditionnel, pratiquement impossible à intercepter. Intéressant… La troisième partie de cet article sur la révolution numérique sera publiée très bientôt (1) J’y aborderai notamment les illusions du big data et des réseaux sociaux.

PS : Pour relire la 1ère partie, c’est ici !

http://fr.novopress.info/198490/revolution-numerique-mira...

15/02/2016

Révolution numérique : miracle ou imposture ? 1ère partie

Cet  article de fond, qui sera publié en quatre parties distinctes au cours de ce mois de février, pose la question : la révolution numérique et Internet ne seraient-ils pas des faux-semblants, qui n’amènent pas d’améliorations substantielles mais au contraire compliquent les choses ? Cette hypothèse incorrecte doit être soigneusement examinée.   

La petite musique de l’utopie numérique

 Le journaliste économique Jean–Pierre Robin, assez sceptique envers les promesses de cette révolution numérique, écrit dans Le Figaro : « L’utopie est au coin de la rue. À moins qu’elle ne transmue en son contraire, la dystopie, dont la plus célèbre, Le Meilleur des Mondes d’Aldous Huxley  semble avoir anticipé très exactement le nôtre : moyens de surveillance tentaculaires, perte de confidentialité, grégarisme des comportements ».

 La révolution numérique nous promet aussi la transplantation d’organes artificiels fabriquées par des imprimantes 3D, la robotique généralisée, les nanomatériaux, (le graphène, 100 fois plus résistant que l’acier), l’Internet des objets, la connexion aux capteurs (un milliard de capteurs prévus  en 2025) et des tas d’autres merveilles, notamment le fameux ”surhumanisme”. Nous verrons plus loin, dans le cours de cet article, qu’il s’agit souvent de plaisanteries.  

 Dans The Fourth Industrial Révolution, Klaus Schwab, l’organisateur des forums de Davos, explique que cette quatrième révolution techno-industrielle est caractérisée par trois facteurs  : «  sa rapidité (contrairement aux autres révolutions industrielles, son évolution est exponentielle et non pas linéaire) ; son amplitude (de multiples techniques sont à l’œuvre) ; son impact systémique (sur les entreprises, les pays et la société »).

Selon deux chercheurs du MIT, Erik Brynjolfsson et Andrew McAfee, nous entrons dans « le deuxième âge de la machine ». Cette révolution technologique pourrait « rendre les hommes inutiles », notamment les moins qualifiés et provoquer des inégalités ingérables. Jusqu’à présent, selon eux, la performance instrumentale des machines progressait de 2% à 5% par an. Actuellement, elle aurait doublé.  

La révolution numérique serait porteuse d’ « innovations disruptives », terme crée en 1995 par l’Américain Clayton Christensen (« disruptive technology »), c’est-à-dire de ruptures technologiques qui modifient le fonctionnement de l’économie et bouleversent les modes de vie. Ce fut déjà le cas avec la machine à vapeur, l’électricité et l’ordinateur.

C’est précisément ce que je conteste : la révolution numérique n’est pas ”disruptive ”. Ses bouleversements sont beaucoup moins puissants que ceux des précédentes révolutions industrielles. Et surtout, ses effets négatifs sont inquiétants.  

Le mythe de la ”quatrième révolution industrielle”

La première révolution industrielle – début du XIXe siècle– s’organisait autour de la machine à vapeur, la deuxième (fin du XIXe) autour de l’électricité, la troisième autour de l’informatique (milieu XXe). La quatrième révolution (début XXIe), issue des deux dernières, l’électrique et l’électronique, concernerait la généralisation d’Internet et des connections universelles numériques par le web. Le concept de « 4e révolution industrielle » est né après la foire de Hanovre en 2011, où l’on a célébré la naissance de l’ ”usine connectée” ; cette dernière, entièrement ”webisée” et branchée directement sur les clients, est robotisée et emploie de moins en moins de salariés. On a créé l’expression abstraite d’ ” industrie 4.0”. C’est un concept assez creux : à quand, l’ ”industrie 5.0” ?

Un des gourous néo-romantiques de cette « 4e révolution industrielle » est – comme indiqué plus haut – le Pr. Klaus Schwab, fondateur et animateur du forum économique mondial de Davos. Le colloque de janvier 2016 a été consacré à la 4e révolution industrielle. Au programme : l’intelligence artificielle, la robotique, les objets connectés, les nanotechnologies, des innovations « révolutionnaires ». Pourquoi pas ? Ce qui est à la fois intéressant  mais par ailleurs comique, c’est que tous les médias, sans aucun recul, ont cru sur parole les conclusions (idéologiques plus que scientifiques) de ce forum de Davos. Personne ne s’est posé la question de savoir quelles améliorations concrètes apportait cette miraculeuse économie numérique qui est pourtant parallèle d’une dégradation de la situation mondiale.  L’invasion migratoire qui déstabilise l’Europe, la montée du djihad islamique, l’effondrement des cours du pétrole, l’accélération planétaire de tous les types de pollution ne furent pas des sujets abordés. La ”révolution numérique” est censée résoudre tous les problèmes. C’est la croyance aux miracles, qui relève plus de la pensée magique que de la réflexion rationnelle. 

Le néo–scientisme et l’écologisme

Les prophéties sur la révolution de l’économie numérique, avec ses mots fétiches, cloud, big data,transhumanisme, etc, appartiennent à une idéologie néo–scientiste qui risque de déboucher sur des désillusions terribles. Or, ce néo-scientisme sans prise de recul, comme celui de la fin du XIXe siècle, cohabite curieusement, chez les mêmes, avec un anti–progressisme écologiste. Il est aussi stupide que les théories de la ”décroissance : il relève du même extrémisme.

 Ce romantisme néo-scientiste est l’exact pendant de celui de la fin du XIXe siècle – relisez Jules Vernes et Victor Hugo –  où l’on s’imaginait l’avenir en rose sous l’influence du concept magique et au fond peu rationnel de ”Progrès”. À la fin de son poème La légende des siècles, Victor Hugo brossait une vision idyllique du XXe siècle.

Les erreurs des pronostics technologiques sont une habitude. Jules Vernes prévoyait qu’en 1960, les habitants des villes se déplaceraient en engins volants individuels. Mais il n’avait pas prévu l’automobile.  Et, dans les années 60, on pronostiquait des bases humaines nombreuses sur la Lune et sur Mars, astronomiques et d’extraction minière, la généralisation des transports aériens supersoniques et hypersoniques stratosphériques ainsi que la diffusion de l’énergie de fusion nucléaire. Bien des pronostics sur le futur de la ”révolution numérique” relèvent probablement des mêmes erreurs utopiques de jugement.

L’utilité marginale déclinante de l’économie numérique

Le téléphone, l’électrification, le chemin de fer et l’automobile, l’aviation comme la radio et la télévision, la pénicilline, l’anesthésie, etc. ont été des bonds technologiques énormes, de par leurs conséquences, bien plus qu’Internet ou l’économie numérique. Le binôme numérique/ informatique offre moins de facilités qu’on ne croit ; parce qu’il complique les processus autant qu’il ne les simplifie. Les innovations technologiques de la ”révolution numérique” ne répondent pas dans la pratique quotidienne, à leurs promesses. Elles sont inférieures en terme d’avantages marginaux aux innovations des précédentes mutations techno–industrielles.   

Les systèmes de communication, d’écriture et de transmission de tous types de données par Internet et les techniques numériques amènent des avantages inférieurs à ce qu’on croit. Et pas seulement pour une raisons d’obsolescence des matériels, à remplacer sans cesse, ou de course à des ”innovations. 

La fréquence des ”bugs” des pannes, la fragilité des transmissions, rendent les nouveaux modes de communication moins fiables que les anciens. Certes, ils sont plus rapides et instantanés mais a-t-on réellement besoin d’une telle rapidité ? 90% des messages entre les humains ne sont pas urgents. 

La thèse que je défends est celle de l’utilité marginale déclinante des avancées de l’économie numérique. Autrement dit, le ”progrès”, en termes d’avantages économiques et pratiques, a été beaucoup plus important au cours des trois précédentes révolutions industrielles, surtout les deux premières, que depuis l’arrivée de l’informatique puis du numérique. On observe un ralentissement des avantages procurés, voire une stagnation ou un recul. 

 Il faut se fonder sur la notion, centrale en économie, d’utilité marginale croissante – ou décroissante. Quel avantage objectif (et non pas subjectif ou spectaculaire) amène une innovation ? À la fois en termes de coûts, de bien–être et de commodités : c’est-à-dire de percées concrètes, de facilitations réelles. À cet égard, l’économie numérique et connectée peut-être soupçonnée de ne pas être à la hauteur. Nous verrons dans la deuxième partie de cet article (1) que ses innovations sont souvent des gadgets et qu’elle comporte nombre d’inconvénients, à côté bien sûr de ses indéniables avantages.

(1) La deuxième partie de cet article comme la 3e et la  4e seront publiées au cours de ce mois de février, pas nécessairement à la suite les unes des autres. Le prochain article, quant à lui, à paraître très bientôt, sur un tout autre sujet, s’intitulera : « Un projet de génocide des peuples européens ? » 

http://www.gfaye.com/revolution-numerique-miracle-ou-impo...

05/02/2016

Théorie des Cordes : Ce qu' Einstein ne savait pas encore

03/02/2016

http://aucoeurdunationalisme.blogspot.fr/

07/01/2016

Moteurs de recherche : les alternatives à Google

Google est de loin le moteur de recherche dominant en France (plus de 90 % de parts de marché), mais nombre d’internautes cherchent aujourd’hui des alternatives. Voici donc une sélection de 6 moteurs de recherche alternatifs que vous pourrez tester.

Grâce à ses algorithmes à la qualité incontestable et à une ergonomie longtemps inégalée, Google s’est imposé presque partout dans le monde comme le moteur de recherche incontournable, que les internautes utilisent aussi bien par choix que par réflexe. Mais la puissance de l’entreprise américaine et sa main-mise sur les données personnelles des internautes peut faire peur.

D’un point de vue plus sociétal, le fait que tous les internautes arrivent peu ou prou aux mêmes résultats pour les mêmes questions peut aussi avoir des effets que l’on mesure encore mal, en terme de diversité des connaissances et des opinions. La puissance de Google est autant économique et technologique que culturelle.

Que ce soit pour mieux protéger sa vie privée ou par militantisme contre l’hégémonie d’un acteur accusé d’abuser de sa position dominante, il y a beaucoup de raisons différentes de chercher à se rendre indépendant de Google. Si vous recherchez une alternative à Google, voici donc une sélection de moteurs de recherche alternatifs qui pourront vous rendre service.

numerama-qwant

Qwant est le concurrent « made in France » de Google. Lancé en 2013 après deux ans de développement, le moteur de recherche a connu sa première véritable mue au printemps dernier puis a lancé des déclinaisons spécialisées de son outil : l’une d’entre elles présente un habillage très minimaliste (Qwant Lite), tandis qu’une autre est pensée pour être utilisée par les enfants, avec un filtrage des résultats (Qwant Junior).

Si Qwant mise en France sur le fait d’être un service français pour essayer de séduire les internautes, d’autres arguments plus fondamentaux sont à mettre en avant. Outre la refonte générale du site il y a un peu moins d’un an, justifiée par des considérations de lisibilité, d’esthétique et d’efficacité, la société met en avant son respect scrupuleux de la vie privée des internautes avec une collecte de données personnelles aussi minime que possible.

Doté depuis 2015 d’un design adaptatif (« responsive design »), c’est-à-dire dont l’interface s’adapte aux dimensions de l’écran, Qwant arbore une page d’accueil fournie, avec une barre latérale incluant les options de tri d’une recherche (web, photos, vidéos, etc) et une mosaïque centrale indiquant les tendances du jour (il s’agit de l’actualité ou des nouvelles de Qwant lui-même).

Des suggestions sont proposées lors de la recherche, à mesure que la requête est tapée au clavier. Outre les rubriques habituelles, un onglet particulier, baptisé « carnets », est dédié à des contenus organisés par thème. Il ne s’agit pas à proprement parler d’une recherche mais plutôt d’une exploration d’un sujet, qui peut aller de Tolkien à l’économie, en passant par le support, le respect de la vie privée et la musique.

Contrairement aux autres moteurs, Qwant affiche ses résultats sur plusieurs colonnes côte à côte. La première regroupe les résultats issus du web, la deuxième est un encadré synthétique issu de Wikipédia présentant le profil de ce qui est recherché, la troisième liste les liens en rapport avec l’actualité et la quatrième montre l’intérêt des internautes sur ce sujet en mettant en lumière l’activité sur les réseaux sociaux.

DUCKDUCKGO

numerama-duckduckgo

DuckDuckGo est un moteur de recherche qui connaît une notoriété croissante depuis deux ans, grâce aux révélations d’Edward Snowden sur la surveillance électronique. Se plaçant sur le terrain de la protection des données privées, DuckDuckGo indique ne faire aucun pistage de ses utilisateurs (DontTrack.Us) et ajoute qu’il ne les enferme pas dans une « bulle » de résultats (DontBubble.Us). C’est-à-dire qu’il ne cherche pas à afficher les résultats qui confortent l’utilisateur dans ses opinions ou ses centres d’intérêt, ce qui peut avoir des effets pervers.

Bénéficiant d’une interface revue et corrigée au cours du printemps 2014, DuckDuckGo assure être rentable sans avoir besoin de suivre les internautes à la trace. C’est aussi en 2014 que ce moteur est apparu dans Firefox comme alternative à Google, avant d’être ajouté dans iOS 8 et OS X Yosemite. Toutefois, la pertinence des résultats sur DuckDuckGo n’est pas toujours au rendez-vous, surtout sur les recherches francophones.

En ce qui concerne l’interface, DuckDuckGo affiche un look minimaliste à la Google. Le logo, la barre de recherche et un bref rappel de la tâche que s’est assigné le site : s’interdire d’espionner ses utilisateurs. En cherchant un peu, on peut toutefois faire surgir un menu en haut à droite afin de modifier le thème de la page, accéder aux paramètres avancés ou voir des informations sur DuckDuckGo.

Pour la recherche, des propositions sont proposées à mesure que l’utilisateur renseigne sa requête. Les options de tri ne sont pas proposées sur la page d’accueil : il faut valider sa recherche pour les voir (recherche par image, par vidéo ou par produit ; géolocalisation ou non). Un cadre horizontal d’information peut apparaître en haut de l’écran pour délivrer des indications supplémentaires, comme le Knowledge Graph de Google.

Sur les résultats, DuckDuckGo fait dans la sobriété. Tout est écrit en noir. Les résultats sont placés dans une colonne étroite placée à gauche et fonctionnent selon le principe du défilement infini : plus vous descendez, plus vous verrez de nouveaux résultats à consulter. DuckDuckGo n’organise donc pas ses résultats dans des pages. Enfin, on trouve aussi de la publicité juste sous la recherche.

Gros avantage à signaler, qui fait la force de DuckDuckGo : les bangs et les hacks. DuckDuckGo ouvre sa plateforme aux développeurs, qui peuvent développer de mini applications pour répondre aux requêtes. Les bangs permettent d’effectuer une recherche sur un site visé (par exemple commencer la recherche par « !amz » pour rechercher Amazon), tandis que les hacks complètent le Knowledge Graph. Le site a ainsi plus de 650 types de requêtes auxquelles il sait répondre directement.

BING

numerama-bing

Bing est sans aucun doute le principal adversaire de Google. Édité par Microsoft à la fin des années 2000 et désormais très intégré à Windows 10, il propose des fonctionnalités très proches de celles fournies par Google. C’est aussi Bing qui gère le moteur de recherche de Yahoo (ce qui lui permet au passage d’ajouter la part de marché de Yahoo à la sienne dans les classements).

Mais Bing a aussi les mêmes travers que Google, en particulier pour le suivi publicitaire similaire à Google, qui lui enlève tout intérêt pour celui qui met en haut de ses priorités la protection de sa vie privée.

Du côté de l’interface, Bing tranche avec Google avec un design plus chargé. Pas de fond blanc : à la place, une nouvelle image est proposée chaque jour en fond d’écran (qu’il est possible de télécharger sur son PC), ce qui permet du même coup à Microsoft de faire découvrir un sujet aux visiteurs. Par exemple dans l’illustration ci-dessus, il s’agit d’une carouge à épaulettes, aperçue à Minneapolis, dans le Minnesota.

En terme de recherche, Bing propose des suggestions lors de la saisie mais les options avancées ne sont pas accessibles sur la page d’accueil. Il faut d’abord valider une requête pour pouvoir ensuite filtrer selon le contenu (web, images, vidéos, cartes, actualités), la date, la langue et le pays. Sur le côté, quand la requête s’y prête, un cadre similaire au Knowledge Graph de Google fournit des indications additionnelles.

La page de résultats de Bing est très proche de Google dans sa présentation. Même le code couleur est repris, avec les titres en bleu, les adresses en vert et la description en noir. Les résultats sont rassemblés dans une colonne étroite qui est située à gauche de l’écran. Les publicités (qui sont ciblées, en se basant sur les données personnelles) encadrent les résultats, en haut et à droite de la colonne.

En somme, Bing est un Google-like pour ceux qui ne veulent pas utiliser le vrai Google.

FRAMABEE

numerama-framabee

Dans sa stratégie de dégoogliser le web, Framasoft propose une liste de logiciels libres qui peuvent remplacer au pied levé les solutions fournies par des entreprises comme Google, Facebook, Twitter, YouTube, Skype ou encore Dropbox. Mais ce n’est pas tout : l’association a aussi mis sur pied un méta-moteur, baptisé Framabee, qui se propose de rechercher à votre place des informations sur d’autres moteurs de recherche.

C’est en effet un méta-moteur. L’intérêt ? Regrouper dans une interface dédiée les résultats de Google « mais sans conserver d’informations sur les utilisateurs ». « Framabee ne vous trace pas, ne partage aucune donnée avec un tiers et ne peut pas être utilisé pour vous compromettre », poursuit le site. Framabee joue ainsi un rôle d’écran protecteur entre vous et les moteurs de recherche consultés.

Framabee présente une page d’accueil très fournie. Le moteur de recherche est intégré dans le site de l’association, et reprend donc son interface. Outre un header et un footer, des encadrés sont affichés pour expliquer le rôle de Framabee, son fonctionnement et la manière de le développer. Les options de recherche (par fichier, par image, etc) sont proposées dès la page d’accueil, tout comme les préférences.

Aucune suggestion de recherche n’est proposée au fil de la frappe. Les résultats ne sont pas fournis directement par Framabee. Le site se contente d’interroger d’autres sites (de Google à Bing, en passant par Wikipédia et Yahoo), en affichant pour chaque résultat une indication de sa provenance. Les sites peuvent être atteints en cliquant dessus. À aucun moment, l’utilisateur n’est redirigé sur un autre moteur.

Contrairement à beaucoup d’autres moteurs de recherche, les résultats sont centrés. Il est possible de filtrer la recherche par rubrique (photo, vidéo, etc) et des encadrés situés sur le côté droit permettent d’avoir un résumé de votre recherche (cela va des suggestions de recherche aux informations tirées de Wikipédia, en passant par des outils permettant de garder en favori la page ou de la télécharger dans un format particulier).

WOLFRAM ALPHA

numerama-wolframalpha

Wolfram|Alpha n’est pas tout à fait un moteur de recherche. Son fonctionnement atypique le rapproche plutôt d’un moteur de réponse. S’il n’est pas adapté à une requête classique (comme la recherche d’une adresse web par exemple), il s’avère performant pour obtenir des informations sur un personnage historique, donner des définitions diverses, effectuer des calculs et répondre à des questions.

La qualité du travail fourni par Wolfram|Alpha n’est d’ailleurs pas passé inaperçu chez la concurrence, visiblement convaincue par la pertinence des résultats. Des accords ont été passés avec Bing et DuckDuckGo pour pouvoir fournir des réponses aux questions des internautes. Des partenariats du même genre ont aussi été tissés avec Apple (pour Siri) et BlackBerry afin de traiter des requêtes prononcées oralement.

Hélas, l’interface proposée par Wolfram|Alpha n’est qu’en anglais. Il est certes possible de passer des requêtes en français, mais les résultats seront donnés avec des indications dans la langue de Shakespeare. Si vous avez un petit bagage linguistique, vous ne devriez pas être trop perdus. Par contre, pas de souci du côté des calculs, les symboles des opérations en math étant universellement compris.

La page d’accueil liste 30 domaines différents dans lesquels Wolfram|Alpha est capable de donner des résultats. Cela va des mathématiques aux transports, en passant par l’art, la musique, la chimie, la météo ou encore la culture. Et pour chaque rubrique, des exemples sont donnés. En math, on peut par exemple faire des calculs, résoudre une équation, faire de la logique, établir une fonction ou encore demander une définition.

Concernant les résultats et la recherche, il est délicat de jauger Wolfram|Alpha puisqu’il ne travaille pas comme un moteur classique. Cela dit, la précision de ses réponses dépend bien sûr de la qualité des requêtes qui lui sont transmises (comme tout moteur, en fait). Le choix des mots-clés est donc important, même si sur une recherche d’un personnalité, le site a tendance à délivrer tout ce qu’il sait.

STARTPAGE

startpage-numerama

Né en 2009, StartPage mise sur la confidentialité de son service pour se faire une place parmi la concurrence. Le service a pris la succession de Ixquick, qui avait reçu l’année précédente une distinction, le label pour la protection des informations personnelles, des mains du contrôleur de la protection des données pour l’Europe, prouvant ainsi ses efforts en la matière.

Concrètement, lors d’une recherche, StartPage assure qu’il n’enregistre ni l’adresse IP ni les informations personnelles des visiteurs. Aucun cookie n’est laissé sur le PC de l’usager et les recherches sont protégées des indiscrétions avec le chiffrement du trafic (HTTPS). On note toutefois au cours d’une requête que de la publicité fournie par Google est susceptible d’apparaître dans les pages de résultat.

StartPage arbore une interface très épurée. Contrairement à d’autres moteurs, il ne propose aucune suggestion pendant la frappe d’une requête. Des paramètres de recherche sont en revanche proposés directement sur la page d’accueil (recherche sur le web, d’images, de vidéos, réglages avancés) ainsi que des options permettant de faire de StartPage son moteur de recherche par défaut ou de l’installer dans son navigateur.

Une colonne resserrée, des liens commerciaux en haut d’une recherche et code couleur qui n’est pas sans rappeler celui utilisé par Google. StartPage ne déstabilisera les adeptes de la firme de Mountain View. Des recherches associées et des filtres par date pour ne garder que les résultats récents sont également proposés.

Côté résultat, StartPage s’appuie sur les ressources de Google mais en agissant comme un filtre pour préserver vos données personnelles. « Lorsque vous effectuez une recherche avec StartPage, nous supprimons tous les renseignements d’identification provenant de votre requête et l’envoyons nous-mêmes anonymement à Google. Nous obtenons les résultats et nous vous les transmettons en toute confidentialité »

YACY

numerama-yacy

Dans cette sélection, YaCy fait figure d’OVNI. En effet, il s’agit d’un moteur de recherche décentralisé reposant sur le principe du peer-to-peer (P2P), une technologie décentralisée que l’on connaît plutôt chez les amateurs de logiciels de partage de fichiers comme eMule ou BitTorrent. Plutôt que de passer par des serveurs centraux, YaCy fait de chaque participant un robot d’indexation en puissance, qui peut parcourir le web et partager ses trouvailles via une banque de données qui indexe ce qu’on lui envoie.

Dès lors, ce sont les utilisateurs qui construisent l’index de YaCy, à travers un programme à installer sur l’ordinateur. L’avantage, c’est qu’une approche de ce type minimise clairement une censure des résultats, aucun nœud du réseau n’ayant plus de poids qu’un autre. Mais le souci, c’est que YaCy doit compter sur ses utilisateurs pour parcourir le web et donc être pertinent. Or, c’est un moteur encore très confidentiel.

Une fois le logiciel adéquat installé, YaCy s’insère dans la barre des tâches et ouvre un onglet dans le navigateur (ou une nouvelle fenêtre). L’interface est sobre, avec quelques réglages accessibles dès la page d’accueil, comme la recherche par texte ou par image. Des paramètres plus pointus sont aussi de la partie.

En terme de recherche, un temps d’attente peut être constaté au moment de l’envoi de la requête, le temps de se connecter aux autres membres du réseau YaCy. Des suggestions de recherche peuvent être proposées au moment de taper la requête et des options de tri sont disponibles dans une colonne placée à gauche. Un mode « furtif » est aussi proposé, afin de ne compter que sur son propre index de sites et pas sur ceux des autres.

La page de résultat se décompose en deux grandes parties. À gauche figurent les différents outils de tri pour affiner sa recherche (par provenance, type de fichier, langue, auteur). À droite se trouve l’encadré affichant les résultats. Du fait de sa relative confidentialité, YaCy ne propose pas des millions de propositions à chaque recherche. Les résultats se comptent plutôt en dizaines ou en centaines, rarement plus.

source: http://www.numerama.com/magazine/22300-moteurs-de-recherc...

http://www.altermedia.info/france-belgique/uncategorized/...

17:39 Écrit par pat dans actualité, divers, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

04/01/2016

Triploïde : enquête sur les huîtres génétiquement trafiquées

Enquête sur l’huître triploïde qui représente plus de 50% du marché français. Au menu : hécatombe dans les parcs ostréicoles depuis 2008. Aperçu du rôle trouble de l’Ifremer, censé contrôler la production ostréicole, et qui détient pourtant le monopole de la vente des huîtres génétiquement trafiquées en France. Enfin, grand angle sur des ostréiculteurs qui se battent pour commercialiser (et le signaler aux clients) des huitres « naturelles ».

http://www.contre-info.com/

31/12/2015

Libre Journal des Sciences - 18 décembre 2015 part 2

18:03 Écrit par pat dans actualité, divers, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

Libre Journal des Sciences et des Techniques - 18 décembre 2015 part 1

14:38 Écrit par pat dans actualité, divers, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

26/12/2015

Francis Cousin - Désaliénation de la technique

11:08 Écrit par pat dans actualité, entretiens, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

18/12/2015

zoom - Jean-Pierre Dickès : le transhumanisme ou la fin de l’espèce humaine

11:01 Écrit par pat dans actualité, divers, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |

04/12/2015

L’information scientifique sur l’obésité achetée par Coca-Cola

L’affaire ne fait pas grand bruit en France, pourtant c’est un scandale de plus dans la communauté scientifique. Les chercheurs impliqués étaient tous des scientifiques influents, auteurs de travaux appuyant la fameuse thèse dans des revues médicales réputées, et intervenaient dans des conférences scientifiques prestigieuses. Un article de Francetvinfo à lire jusqu’au bout.

Les scientifiques membre du Global Energy Balance Network (GEBN) l’affirmaient à qui voulait l’entendre : la consommation de boissons sucrées ne participe pas à l’épidémie d’obésité, celle-ci s’expliquant essentiellement par le manque d’activité sportive du citoyen flemmard. Durant l’été, la presse nord-américaine a révélé que ces experts étaient très largement subventionnés par l’entreprise Coca-Cola. L’ampleur de la fraude s’est révélée semaine après semaine. Le site du GEBN a fermé ce 30 novembre, et le réseau dissout dans la foulée.

Le 9 août 2015, le New York Times révélait que le plus grand producteur de boissons sucrées au monde – The Coca-Cola Company – subventionnait de façon très discrète le Global Energy Balance Network (GEBN). Cette société savante, prétendument à but non lucratif, regroupait des experts de renom, défenseurs d’une thèse peu académique : à savoir que la prise de poids et le développement du diabète de type 2 ne trouvent pas leurs causes principales dans la nutrition, mais dans un déficit d’activité physique.

Selon le vice-président du GEBN, le très respecté Steven Blair [1], il n’existait « pratiquement aucune preuve scientifique » du fait que la restauration rapide et les boissons sucrées « étaient à blâmer »dans la crise actuelle de l’obésité. Dans les communiqués d’information diffusés par le réseau, le message était tout aussi catégorique.

Des soupçons rapidement éveillés

L’immense majorité des nutritionnistes s’inscrivaient en faux contre ce discours. Deux universités employant des membres du GEBN ont entrepris des démarches administratives pour en savoir un peu plus sur le financement de l’étrange réseau.

Les informations comptables qui leur ont été transmises révélaient que l’année précédant son lancement officiel, 1,5 million de dollars lui avait été baillés par The Coca Cola Company. En outre, depuis 2008, Coca Cola avait financé à hauteur de 4 millions de dollars divers travaux de deux fondateurs du réseau : Gregory Hand, doyen de l’École de santé publique de l’Université West Virginia, et Steven Blair.

Financer sans faire de bruit

Dès le 10 août, The Coca-Cola Company se défendit de toute malversation, expliquant par voie de communiqué que l’entreprise avait toujours « soutenu la recherche scientifique » sur les questions d’équilibre énergétique. De leur côté, les scientifiques affiliés au GEBN ont affirmé que l’entreprise n »avait jamais influencé leur discours ou leur message, et qu’ils n’avaient jamais cherché à dissimuler les financements.

Il est vrai que l’article fondateur du British Journal of Sports (voir encadré) mentionnait que le réseau avait reçu une donation de Coca-Cola, sans précision du montant. Mais le site web du réseau avait pourtant omis de faire toute référence à cette « subvention » jusqu’à ce qu’un expert de l’obésité à l’Université d’Ottawa signale ce manquement aux administrateurs. Et sur les réseaux sociaux, où le GEBN cherchait à gagner de l’influence, aucune mention de Coca-Cola® n’avait non plus jamais été faite…

Marchands de doute

Les critiques de la communauté scientifique n’ont pas tardé. Dans les colonnes de plusieurs médias, certains n’ont pas hésité à comparer la stratégie de Coca-Cola à l’enrôlement d’experts par l’industrie du tabac « pour devenir des marchands de doute quant aux dangers du tabagisme sur la santé ».

Dans le New York Times, 35 spécialistes en médecine et nutrition ont dénoncé mi-août le « non-sens scientifique » des thèses défendues par le GEBN.

« L’ordre du jour de Coca-Cola ici est très clair », a ailleurs déclaré Marion Nestle, professeur en nutrition et en santé publique à l’Université de New York. « [Il s’agit] d’obtenir de ces chercheurs de créer de la confusion [sur l’état des connaissances scientifiques] et de détourner l’attention [sur le rôle] l’apport alimentaire ».

CocaLeaks

Des courriels révélés fin novembre par l’Associated Press donne une idée de l’implication de Coca-Cola dans le GEBN : choix des représentants du groupe, proposition d’articles ou de vidéos à diffuser…

Ces échanges éléctroniques font remonter le projet de cette campagne de désinformation à octobre 2012. L’institution fantoche est entièrement imaginée par Coca-Cola. Le site web du GEBN, officiellement enregistré et administré par l’Université de Caroline du Sud, était une pure œuvre de la multinationale [2].

L’une des interlocutrices privilégiées du GEBN – et vraisemblable initatrice du projet – n’était autre que la « directrice de la santé et de la science » chez The Coca-Cola Company. Dès les premiers messages, elle insiste sur le fait que « les personnes impliquées [dans le GEBN] devront être ouvert sur la collaboration avec le secteur privé ». Une clause « non négociable »… Elle donne même son avis sur le logo du réseau : « aucune couleur ne pose problème, excepté le bleu, vous comprendrez pourquoi. » Le bleu est proscrit de la communication de Coca-Cola, car il s’agit de la couleur de son concurrent, Pepsi !

Dans les courriels, le président du GEBN, James Hill [3] déclare rapidement « vouloir aider » Coca-Cola à véhiculer une image positive… L’entreprise suggère en retour que le GEBN travaille à se positionner comme une référence « pour les médias » sur la question de l’obésité, et emploie les réseaux sociaux pour lutter contre les messages des « extrémistes de la santé publique »…

Moins de quatre mois après le début de l’affaire, le Global Energy Balance Network a été dissout, officiellement « pour restrictions budgétaires ». La directrice de la santé et de la science a démissionné de son poste.

[1] Professeur à l’Université de Caroline du Sud, ses travaux menés depuis le début des années 1990 ont servi de base à l’établissement de nombreuses préconisations sanitaires, au niveau fédéral, aux Etats-Unis.

[2] Peu après ces révélations, le président du GEBN, le très respecté James Hill (voir note suivante), déclara que Coca-Cola« avait enregistré le site parce que les membres du réseau ne savent pas comment réaliser cette opération ». Il eut un peu plus de mal à expliquer pourquoi le site était hébergé sur les serveurs de l’entreprise.

[3] Professeur à l’Université du Colorado, James Hill a longtemps siégé aux comités de l’Organisation mondiale de la santé et des National Institutes of Health (institutions gouvernementales étasuniennes pour la recherche médicale). Il est également co-fondateur du National Weight Control Registry, programme scientifique destiné à évaluer les conséquences sanitaires de la perte de poids.

[4] Dans le corps d’étude analysée, cinq fois plus d’études financées par l’industrie concluaient à l’absence de lien, en comparaison avec les études indépendantes. Ce constat permet d’estimer qu’un tel mode de financement augmente la probabilité d’une conclusion négative « au moins de 30% ». Voir : Financial Conflicts of Interest and Reporting Bias Regarding the Association between Sugar-Sweetened Beverages and Weight Gain: A Systematic Review of Systematic Reviews. M. Bes-Rastrollo et coll. PlOS Medicine, 31 déc. 2013 doi:10.1371/journal.pmed.1001578

http://www.contre-info.com/linformation-scientifique-sur-...

25/11/2015

« Quand la science se fait propagande », par Jean-Gérard Lapacherie

« Les races n’existent pas ». C’est ce que, selon un journaliste du Point, démontrerait la Galerie de l’Homme, inaugurée en octobre 2015. Certes, mais les races ont existé, sinon dans la réalité, du moins dans la science, et la Galerie ne dit pas qui les a inventées ou dans quel but cela a été fait. Quoi qu’il en soit, si les races n’existent pas, la propagande en faveur de la non-existence des races, elle, existe, plus vivace que jamais, au point que l’on peut se demander si ce qui est montré est la non-existence des races ou leur banale existence, car la propagande a pour seule règle la dénégation, laquelle consiste à nier ce qui est avéré.

Il est révélateur que ce lieu ait été nommé galerie. Une galerie, dans un palais ou un édifice d’importance, est un « lieu de promenade à couvert » et un lieu d’apparat, de montre, d‘ostension et d’ostentation, comme la Galerie des Glaces à Versailles ou d’autres galeries à Florence ou à Fontainebleau ou, dans un ordre scientifique, la Galerie de l’Evolution du Muséum d’Histoire Naturelle, le Musée de l’Homme étant justement un musée de ce Muséum prestigieux. De fait, les visiteurs sont invités à déambuler devant des vitrines ou des panneaux placés sur toute la longueur de l’aile ouest du Palais de Chaillot et sur trois niveaux, chaque niveau correspondant à une des trois questions qui organisent l’exposition : Qui sommes-nous ? D’où venons-nous ? Où allons-nous ? Une admirable scénographie transforme l’exposition de fossiles, de moulages, d’artefacts anciens, de documents ethnographiques en spectacle pour le plaisir des yeux et de l’intelligence. Certaines vitrines sont exceptionnelles : ainsi la faune du paléolithique avec des animaux empaillés grandeur nature (rennes, cheval de Prjevalski, loup, crâne et défense de mammouth laineux) ; les outils ; les armes de chasse, l’utilisation qui en était faite et les techniques de fabrication ; les rites funéraires ; les moulages en cire de centaines de têtes humaines montrant la diversité des traits du visage, de la couleur des cheveux, du teint de la peau ; l’art pariétal. Si l’exposition s’en était tenue là, elle aurait été parfaite. Mais ses concepteurs ont cru bon d’y ajouter des discours, visant à distinguer le bien du mal. La déambulation à laquelle les visiteurs sont conviés se transforme en audition d’un grand sermon ou en lecture d’une épopée de l’Homme (avec un H majuscule, évidemment) des origines à nos jours. Tout est bavard, prolixe, hâbleur : la Galerie ne se contente pas de montrer ou de mettre en scène, elle patauge dans le verbiage. On se croirait sur les trottoirs des grands boulevards les jours de soldes.

C’est que cette Galerie repose tout entière sur un impensé, qui est au cœur de la Science de l’Homme et de l’histoire des disciplines qui sont à l’origine du Musée de l’Homme : anthropologie et ethnographie. Dans le cadre de ces disciplines a été inventé le concept de race, signifiant « lignée » en français et n’ayant jamais eu de sens dangereux, et cela afin de rendre compte de l’infinie diversité des hommes. Les savants du XIXe siècle ont ouvert la boîte de Pandore du racisme, en classant les hommes, c’est-à-dire en les répartissant dans des « classes », en fonction de la forme de leur crâne, de la couleur de leurs cheveux, du teint de leur peau, de l’angle de leur sphénoïde. Tout classement est ambivalent. Il est typologie ou taxinomie, ce en quoi il est bénin, mais aussi mise en ordre dans une hiérarchie, des meilleurs ou moins bons. Classer n’est pas nécessairement criminel, mais a pu le devenir quand des peuples, armés ou non, se sont déplacés vers des territoires où, depuis la nuit des temps, s’étaient établis d’autres peuples (Australie, Nouvelle-Zélande, Arménie, Amérique, Yiddishland d‘Europe de l‘Est) qui ont été exterminés lentement ou brutalement, par exemple avec des moyens industriels. On comprend que les anthropologues, préhistoriens, ethnologues aient rompu avec les errements de leurs prédécesseurs. Ils auraient pu, pour montrer l’abîme qui les sépare des fondateurs de leurs disciplines, consacrer une ou deux vitrines à l’invention des races. Les discours qui scandent la déambulation couvrent ce passé sulfureux : surtout que personne ne le voie. Un même message est sans cesse répété : il y a une seule espèce ou « une seule humanité, une et indivisible », comme l’est la république ou, sous d’autres cieux, Allah. Le nom humanité, qui désigne une propriété, est employé dans un sens collectif. Par définition, l’humanité est une et indivisible. Ce n’est plus le vocabulaire de la science auquel recourent les concepteurs de la Galerie, mais celui de la politique ou de la religion : « Il y a deux millions d’années, les hommes sortent d’Afrique » (laquelle n’avait pas d’existence pour ces nomades). La métaphore de la sortie est tirée de l’Histoire Sainte : les hommes sortent d’Afrique, comme les Hébreux sont sortis d’Egypte.

L’unité affirmée dans les discours est sans cesse démentie par ce qui est montré et par ce qui est dit. L’humanité est composée d’êtres humains divers. Comment nommer cette diversité ? Tantôt, c’est « cultures », tantôt « langues », tantôt « sociétés », tantôt « groupes humains ». Dans un discours, il est dit « notre lignée » pour désigner l’espèce humaine. Or, « lignée » est le sens premier du nom race. Le discours associe des contraires. Les hommes sont, est-il écrit sur un panneau, « si différents et si semblables », à la fois dans le temps et dans l’espace. Comment concilier différence et ressemblance ? Il suffit de placer la conjonction de coordination et entre les deux termes antithétiques et le tour est joué, d’autant plus qu’un sujet tragique est soigneusement évité, même s’il est nommé : la disparition des hommes de Neandertal sur le territoire de l’actuelle Europe. Une espèce qui était parfaitement adaptée à son environnement a disparu en quelques dizaines de milliers d’années. Disparition ou extermination ? Le fait est que la disparition est concomitante de l’arrivée sur ce territoire d’une nouvelle espèce, celle des Sapiens Sapiens. Mais la question est éludée. Les concepteurs de la Galerie qui ont réponse à tout sur des hommes ayant vécu il y deux millions d’années sont étrangement silencieux sur des faits qui, à l’échelle des temps de la préhistoire, sont nos contemporains : qu’est-ce que 40.000 ans pour une espèce qui est vieille de 4 ou 5 ou 7 millions d’années ?

La propagande atteint son acmé dans la signification qui est donnée à la galerie et que résument les trois questions « Qui sommes-nous ? », « D’où venons-nous ? », « Où allons-nous ? », que l’on croyait réservées aux potaches s’initiant à la philosophie ou aux élucubrations d’un peintre tenté par une vague mystique occulte, d’autant plus que la réponse à la dernière des trois questions tient de la bouffonnerie. Si l’on en croit ce qui nous est montré, nous allons tous vers la COP21 en taxi brousse bariolé, un lourd véhicule qui doit consommer plus de 20 livres de carburant à l’heure. Que vient faire The 21st Conference of the Partiesau Musée de l’Homme ? Ce n’est pas la science qui parle, c’est la propagande : elle ne parle pas, elle s’égosille, quitte à transformer un « musée laboratoire » en caisse de résonance d’un gouvernement aux abois. Cette comédie est d’autant plus sinistre que la réalité est édulcorée. Soit la mondialisation. Elle a commencé, est-il expliqué sur des panneaux, au XVIe siècle et elle s’accélère depuis un demi-siècle. Cette affirmation relève de la profession de foi. La mondialisation suppose une diversité de mondes, de cultures, de civilisations, de sociétés, d’êtres humains. La « mondialisation » actuelle est une globalisation. Le monde n’est plus qu’un bloc homogène en passe de s’uniformiser. Avec la « globalisation », il n’y a plus qu’un seul marché, un et indivisible : tout se vend et tout s’achète au millionième de seconde et où que l’on soit. La globalisation, et les règles financières, commerciales, économiques élaborées grâce au « consensus de Paris » (Delors, Trichet, Camdessus, Lamy, Hollande, Chavransky, etc.) abolissent l’espace et le temps et, en fin de compte, rendent caduc ce qui est montré dans la Galerie de l’Homme. De même, il est à peine fait allusion à la « démographie galopante », qui, elle aussi, menace de rendre caduque la notion même d’Homme. Le nom homme au singulier n’a plus guère de sens quand les hommes se multiplient à l’infini, partout dans le monde, détruisant le cadre de vie dans lequel ils ont évolué pendant quatre ou cinq millions d’années. La population de la France a doublé en deux siècles, celle du monde a été multipliée par plus de 7. Si elle n’avait que doublé, la planète compterait deux milliards d’êtres humains. Le gaspillage des ressources, les déchets, la pollution des océans, les animaux transformés en réserves de protéines, tout cela n’existerait pas, du moins pas à un tel degré de virulence. Où allons-nous, sinon vers l’extinction des espèces animales, la raréfaction des ressources, la destruction de l’environnement ? Le destin de Neandertal menace Sapiens. Or tout cela est caché par des mises en garde dérisoires contre les douches et les bains qui consomment trop d’eau.

Ce qui, plus encore que les discours, relève de l’idéologie, ce sont les formes. L’expression verbale se ramène à un enchaînement d’éléments de langage obligés, de formes sclérosées, des mêmes mots que l’on retrouve dans les devoirs d’élèves de classe de 3e ou les papiers bâclés de journalistes, de fautes de français (à propos de l’art pariétal, il est écrit en lettres lumineuses que des styles différents « se sont succédés » [au lieu de succédé] en 25000 ans). Ces indices sont éloquents. C’est l’idéologie (ou la propagande) qui parle. Le Musée de l’Homme est l’un des quatre ou cinq musées réunis dans l’immense Palais de Chaillot. Ce bâtiment, construit dans les années 1930, est classé. On en comprend les raisons : la rigueur des lignes, l’ampleur des masses et surtout la singularité de l’architecture. Il n’y a pas beaucoup d’édifices en France qui relèvent de ce style « moderne », et cela sur une colline qui domine Paris, ville qui, en 1937, était la capitale d’un empire colonial sur lequel le soleil ne se couchait jamais et d’une République qui se croyait universelle. En Italie ou en Russie, on qualifierait cette architecture de « mussolinienne », de « fasciste » ou de « communiste », La Galerie de l’Homme est à l’image de cette architecture : elle célèbre la parousie de l’Homme, son arrogance, sa supériorité sur le monde naturel qu’il a totalement « arraisonné », sa démesure. La Science de l’Homme n’est pas modeste ; le doute ne l’habite pas ; elle fait la propagande d’une idéologie, exactement comme à la fin du XIXe siècle cette même science a célébré la diversité des êtres humains en les répartissant en races.

http://cerclearistote.com/quand-la-science-se-fait-propag...

11/11/2015

Le véhicule électrique : panacée écologique ?

Frédéric Malaval, essayiste, s’interroge sur les réelles performances des véhicules électriques.

♦ Diesel et SurEnvironnement

Aujourd’hui, la singularité du diesel semble davantage préoccuper nos dirigeants que la vague migratoire. Sa taxation va augmenter. Les Verts veulent la suppression de ce carburant d’ici à 2025. La création de pastilles écologiques apposées sur les pare-brise des voitures est une des dernières mesures pour favoriser les véhicules « propres ». Aujourd’hui, le véhicule électrique est plébiscité. L’attribution de subventions importantes cherche à motiver l’acheteur.

Or, nous verrons que, loin d’être écologiquement vertueux, ce type de véhicule est plus polluant qu’un véhicule thermique. Ce texte fournira quelques arguments issus d’une approche écologique, donc écosystémique. On y parlera de gaz carbonique (CO2), de rendement de conversion, de SurEnvironnement, de Valeur écosystémique, etc.

En conclusion de ce texte, nous constaterons qu’en matière d’énergie, le chien ne cesse de se mordre la queue.

Les pastilles Royal.

En ouvrant la réunion du Conseil national de l’air, Ségolène Royal a présenté, le 2 juin 2015, un ensemble de mesures de lutte contre la pollution de l’air. Parmi elles, la mise en place de pastilles de couleur à apposer sur le pare-brise des voitures.

En isolant les véhicules électriques des véhicules thermiques hiérarchisés selon leur degré de pollucivité, le but est de franchement favoriser les premiers dans des centres-villes à terme inaccessibles aux véhicules thermiques.

Sur le fond, cette mesure paraît salutaire. En effet, il est plus agréable de se trouver à vélo derrière un véhicule électrique qu’au cul d’un bon vieux diesel rejetant de la suie dans les bronches. C’est un fait incontestable. Malgré cela, les arguments à l’origine de cette politique soulèvent de nombreuses interrogations que nous allons exposer ci-après.

Parmi celles-ci : considérer les véhicules électriques comme éco-vertueux, assimiler le gaz carbonique (CO2) à un polluant, etc.

Le CO2

Avant d’avancer des arguments un peu plus techniques sur la pollucivité du véhicule électrique, intéressons-nous en préambule au CO2 accusé aujourd’hui d’être un polluant majeur.

Rappelons d’emblée que toute substance est un polluant potentiel, un polluant étant défini comme une substance qui par sa nature ou par sa quantité perturbe les grands cycles écologiques ou se révèle inassimilable par eux, constituant ainsi un danger pour les humains en particulier et la Vie en général. Ainsi, l’oxygène est vital pour vivre, mais trop d’oxygène (hyperoxie) tue.

La stigmatisation de CO2 est récente. Dans les années 1980, il était enseigné que tout devait être fait pour réaliser des combustions complètes dans les cycles thermiques, combustion aboutissant idéalement à de l’eau et à du… gaz carbonique. Par exemple, l’oxydation du méthane (CH4) donne du gaz carbonique et de l’eau (H2O) :

CH4 + 2O2 → CO2 + 2H2O

Paradoxalement, les filtres à particules (FAP) rendus obligatoires sur les véhicules diesel depuis 2011 ont un cycle de régénération pour brûler les suies piégées aboutissant à l’émission d’eau et de… gaz carbonique.

Tout étudiant en biochimie apprend très vite que le CO2 est un composant fondamental, le carbone étant dans un état réduit ou oxydé dans les cycles biologiques. On apprend aussi très vite que la photosynthèse à l’origine des plantes, et donc de la productivité végétale des écosystèmes, repose sur le CO2. Or, les plantes sont à la base des chaînes trophiques. Donc, sans plantes, pas de philosophie possible. Et plus généralement, sans CO2, pas de vie car celle-ci repose sur le cycle du carbone.

Si le véhicule diesel a été favorisé pendant ces dernières années, c’est parce que, justement, son cycle thermique reposant sur la compression est plus proche d’une combustion complète que celui d’un moteur à essence à explosion. Donc à performances similaires, il est plus efficace physico-chimiquement qu’un moteur à essence.

De la difficulté de disposer d’indicateurs environnementaux incontestables.

L’affaire du CO2 est révélatrice de la difficulté des environnementalistes à s’appuyer sur des certitudes incontestables. Il y a plus de trente ans, le CO2 était envisagé comme une substance vertueuse, mais aujourd’hui, au nom dont on ne sait quelle motivation, il est stigmatisé. Moins les voitures en émettraient, mieux ce serait. Sa contribution au réchauffement climatique est souvent invoquée pour justifier cette politique. Or, l’effet de serre, à l’origine du réchauffement de l’atmosphère, nous protège du rayonnement solaire direct délétère. Le seul débat envisageable ne concerne donc que l’effet de serre additionnel d’origine anthropique.

D’autres substances ont eu la vedette comme polluants majeurs depuis que nous nous intéressons à cela. Dans les années 1970, les oxydes de souffre (SOx) ou d’azote (NOx) ne souffraient d’aucune concurrence. Puis, les pluies acides les ont remplacés. Mais celles-ci étaient dues à ces SOx et NOx, elles-mêmes écartées par les gaz fragilisant la couche d’ozone. D’autres substances ont eu la vedette puis, comme des artistes dépassés, ont disparu de la scène. A chaque fois, les médias ont amplifié jusqu’à la démesure des réflexions de scientifiques, généralement habitués à des affirmations très prudentes.

Aussi, se focaliser sur l’une ou l’autre molécule comme nous le faisons aujourd’hui sur le CO2 limite la prise en compte d’autres substances, moins médiatiques, certes, mais potentiellement plus dangereuses.

Face à ces incertitudes, les environnementalistes cherchent à établir des indicateurs d’impact environnementaux absolus lisibles par tous. Or, celui qui s’impose à tous aujourd’hui est le prix. Dans un monde financiarisé, tout est ramené à un prix. D’où la nécessité d’établir une relation entre prix et impact environnemental. Le recours à des approches reposant sur les acquis de l’Ecologie ouvre des pistes prometteuses.

Dans cet esprit, considérer le CO2 comme un polluant est une hérésie. C’est le premier point relativisant les vertus du véhicule électrique. Le CO2 est le constituant pivot du cycle du carbone sur lequel repose la vie. Impossible de s’en passer, sauf à éliminer la biosphère.

Les préliminaires sur le CO2 étant faits, et ayant permis d’introduire à la nécessité de disposer de grilles de lecture ne se focalisant pas sur telle ou telle molécule, quelques notions de thermodynamique vont permettre de comprendre pourquoi les véhicules électriques sont plus impactant environnementalement que les véhicules thermiques.

Rendement de conversion.

Le rendement de conversion d’une chaîne énergétique est un nombre positif défini comme le rapport de l’énergie exploitable sur l’énergie utilisée. Ce nombre est toujours inférieur à 1. Cela signifie qu’il existe une différence entre l’énergie introduite dans un système thermodynamique et l’énergie utilisée. Cette différence est formalisée dans le Premier Principe de la thermodynamique dissociant le travail (énergie utile) de la chaleur (énergie inutile) à évacuer pour optimiser le rendement du moteur. Le cycle de Carnot établit les concepts pour optimiser cela. Plus tard, cette énergie inutilisable a été qualifiée d’entropie dans le Second Principe de la thermodynamique.

Tout système est l’association de parties reliées par des couplages modifiant les quantités et la nature de l’énergie y circulant. Le rendement de conversion global d’un système est le produit des rendements de conversion opérés en son sein. C’est sur le fondement de ces notions que le moteur électrique va se révéler plus impactant environnementalement que le moteur thermique, toutes choses étant égales par ailleurs.

Ainsi, dans un moteur thermique, le pétrole, après avoir été plus ou moins raffiné, est mis en l’état dans les cylindres, eux-mêmes à l’origine du mouvement mécanique. Sur cette base, nous obtenons un rendement de conversion donné. Dans le cas du moteur électrique, et toujours en utilisant du pétrole, ce dernier est mis dans une centrale, converti en électricité transportée dans le réseau de distribution jusqu’à l’endroit servant à recharger les batteries dont le contenu sera transformé en énergie mécanique. Sans entrer dans les détails, il apparaît que le nombre de conversions énergétiques à réaliser dans le second processus est très supérieur à celui du premier centré sur le recours à un moteur thermique. Or, ce qui a été perdu est : de la chaleur, selon le Premier Principe de la thermodynamique ; de l’entropie, selon le Second Principe de la thermodynamique.

Sur le fondement que l’impact environnemental est assimilé aux conséquences d’une production d’entropie, l’usage d’un véhicule électrique est donc plus impactant qu’un véhicule thermique.

Alors que la première partie de la démonstration est triviale, la seconde bien évidemment soulève des interrogations. En effet, en refusant l’identification de l’impact environnemental aux conséquences d’une production d’entropie, il est difficile de relativiser les bienfaits du véhicule électrique. Or, ce principe de fonctionnement des écosystèmes est admis désormais, mais uniquement dans des cercles restreints. Ce point est donc en discussion et nécessite, d’une part, de le faire connaître et, d’autre part, de recourir à des éléments plus hermétiques pour le démontrer.

Comment comparer l’impact environnemental des énergies fossiles, du nucléaire et des énergies renouvelables ?

Un autre point litigieux est que, dans le modèle exposé, il est comparé deux types de moteur fonctionnant à partir de la même énergie primaire, à savoir une énergie fossile : charbon, pétrole, gaz. Qu’en est-il de l’électricité issue du nucléaire ou des énergies renouvelables : eau, air, soleil ? Pour résoudre cette interrogation, nous sommes alors obligés de raisonner à partir de catégories éligibles à toutes les formes d’énergie. C’est ainsi que procèdent les thermodynamiciens pour qui les notions d’énergie, de chaleur, de travail, d’enthalpie, d’exergy, d’entropie, etc. sont communes à tous les systèmes. Les environnementalistes, eux, travaillent à partir de la notion d’impact environnemental. Celui-ci est envisagé comme la conséquence d’une artificialisation. Or, le modèle politique ayant poussé à son paroxysme la création d’artefacts est la société industrielle désignée responsable de la crise écologique actuelle. Mais tout cela est très récent. Ces interrogations associant connaissances scientifiques, philosophie et tout ce qui contribue à clarifier les enjeux écologiques contemporains animent les spécialistes de ces domaines depuis seulement une cinquantaine d’années.

De tout ceci est cependant issue la relation entre production d’entropie et impact environnemental avec comme constat concernant le véhicule électrique qu’une fois de plus la campagne, ou mieux encore, la nature est envisagée comme l’exutoire naturel de ce qu’il faut évacuer de ces écosystèmes hyper-artificialisés que sont les villes pour garantir leur pérennité. Pour preuve, les filtres à particules sont conçus pour se régénérer en dehors des villes.

Se pose alors une question fondamentale à l’origine du modèle philosophique reposant sur la notion de SurEnvironnement. Que se passera-t-il lorsque l’écosphère entière aura été artificialisée ? Or, c’est prévu pour demain.

La ville a besoin d’un SurEnvironnement pour exister.

Comme exposé dans d’autres écrits, le fondement essentiel de la Modernité est de recourir à des SurEnvironnements pour fonctionner. Le SurEnvironnement fondamental que la Modernité a créé est la Nature conçue comme l’ensemble des biens inappropriés ou res nullius (choses nulles ou choses de personne). Là sont extraites les ressources nécessaires aux systèmes dont la Modernité est la référence idéologique ultime, que ce soit dans des versions religieuses ou profanes ; là est l’espace où l’entropie sera rejetée. Comme déjà écrit, le défi actuel de nos sociétés contemporaines est d’intégrer les SurEnvironnements dans nos pratiques sociales. L’artificialisation de l’écosphère faisant que le SurEnvironnement fondamental s’étiole de jour en jour, il n’y aura bientôt plus de SurEnvironnement sur l’écosphère.

Or, retenir le véhicule électrique comme moyen de lutter contre la pollution en centre-ville consiste à déplacer les pollutions dans d’autres espaces. Cela revient à recourir à un SurEnvironnement pour favoriser la pérennité du système fragilisé par son activité. Là est l’essence de la crise écologique actuelle contrevenant ainsi à ce qu’il faudrait faire pour réaliser une véritable politique écovertueuse.

Dans la littérature anglo-saxone, ce phénomène est résumé par l’expression d’effet Nimby (Not in my back yard – pas dans mon dos). Cela revient à rejeter les pollutions issues d’une activité donnée dans un autre espace, loin et inconnu, pollutions pouvant mettre en péril l’activité. Nous avons formalisé cette situation en distinguant l’Environnement du SurEnvironnement dans un modèle philosophique associant d’autres termes.

Or, une véritable politique environnementale exclut de recourir au lointain et à l’inconnu pour évacuer ses miasmes. Ce principe constitue un des fondements d’une politique écologique sincère. Les spécialistes parlent d’économie bouclée, de localisme, etc., pour résumer cela à l’origine de l’écoconception, de l’écologie industrielle, etc., toutes constitutives d’une approche écosystémique de nos sociétés. Cela impose un profond changement de paradigme.

Vision holiste versus vision réductionniste.

Beaucoup des éléments à charge concernant le véhicule électrique ne sont envisageables que dans un cadre écosystémique. Cela illustre la différence fondamentale entre une approche écologique, fondamentalement holiste, et les méthodes d’analyse en cours aujourd’hui d’essence réductionniste. En effet, la promotion du véhicule électrique est justifiée par la volonté de diminuer la pollution dans le centre des grandes villes. C’est tout à fait louable pour les personnes y vivant. Le véhicule électrique leur garantira un air débarrassé des produits de combustion des moteurs thermiques. Mais comme le rendement thermodynamique des moteurs électriques, ainsi que la complexité de leur cycle de vie produisent plus d’entropie, cela signifie qu’ils génèrent plus d’impacts environnementaux que les véhicules thermiques, mais en les externalisant des lieux de circulation auxquels ils sont destinés. Cela revient à surpolluer la banlieue, la campagne et la nature pour la diminuer dans les centres-villes. Les ours polaires vont en souffrir.

Seule une approche holiste permet d’entrevoir ce paradoxe entretenu au nom de la protection de l’environnement. Evidemment cela est dénoncé par les environnementalistes sincères considérant que la diminution d’un impact local ne doit pas être fait au prix de l’augmentation ailleurs. Ce raisonnement est à l’origine de la définition résumant les enjeux actuels par la nécessité d’intégrer les SurEnvironnements dans nos pratiques sociales. Or, le véhicule électrique est, au contraire, la manifestation de postures à l’origine de la crise écologique actuelle ; une forme d’égoïsme, alors qu’il faudrait être écoïste.

Prix et impact environnemental.

Le véhicule électrique, en effet, est vendu à un prix très largement supérieur à celui des véhicules thermiques. Et encore, le service offert est loin d’être égalé. L’autonomie est très faible. L’espace disponible dans le véhicule l’est aussi car au lieu de passagers ou de bagages, on transporte des batteries. Donc, toutes choses étant égales par ailleurs, le véhicule électrique est beaucoup moins utile et efficace qu’un véhicule thermique.

Le prix d’un véhicule électrique étant plus élevé, cela signifie que l’impact écologique de son cycle de vie est lui aussi plus élevé. Le cycle de vie intègre tout ce qui contribue à l’existence, à la vie et à l’obsolescence de l’artefact dans le temps et dans l’espace. Ceci n’est envisageable que par référence à une approche économique reposant sur la notion de valeur écosystémique, subsumant toutes les autres conceptions de la valeur : valeur-travail, valeur d’échange, valeur d’utilité, valeur symbolique, etc.

Cette affirmation repose sur la proportionnalité entre prix et impact écologique. Celle-ci est issue d’une mise en perspective du prix d’un artefact selon une approche écosystémique reposant sur l’identification de l’écosystème à une structure dissipative. Schématiquement, le maintien en non-équilibre thermodynamique d’une structure passe par la dissipation de flux d’informations, d’énergie et de matières. Plus le système considéré est complexe, plus la quantité et la nature des flux est importante et diversifiée. Dans les écosystèmes artificiels, la circulation monétaire correspond à ces transferts d’énergie, de matières et d’informations entre les composantes de l’écosystème. Or, la dissipation de ces flux est à l’origine d’une production d’entropie qui, comme mentionné ailleurs, est proportionnelle à l’impact environnemental d’une chose pendant son cycle de vie. Là est un principe de fonctionnement des écosystèmes fondamental: la proportionnalité entre production d’entropie et complexité du système dissipatif en référence.

Or, à valeur d’utilité égale, à ce jour, un véhicule électrique est plus cher qu’un véhicule thermique, obligeant les Etats à les subventionner pour déclencher leurs achats. Cela signifie donc que nonobstant la démonstration purement thermodynamique du faible rendement énergétique de ces véhicules, leur cycle de vie est lui aussi à l’origine d’une production d’entropie supérieure à celle d’un véhicule thermique.

En conclusion sur le véhicule électrique.

Ces quelques arguments liminaires obligent à des raccourcis incompatibles avec l’ampleur du sujet. Dont acte. Ils ont cependant le mérite d’appeler l’attention sur ces arguments relativisant des certitudes incontestables dorénavant. Qui ose montrer du doigt un véhicule électrique ? C’est le but de cet article appelant à relativiser leurs vertus écologiques. A charge au lecteur voulant aller plus loin de se rapprocher d’une littérature plus élaborée.

Celle-ci aboutira à la conclusion que le cycle de vie d’un véhicule automobile mû par un moteur électrique est plus « entropique » que, toutes choses étant égales par ailleurs, celui d’un véhicule mû par un moteur thermique. Certains aspects seront améliorés dans le temps par des effets d’échelle ou des améliorations technologiques. En revanche, sauf à changer les lois de la Thermodynamique et les principes de fonctionnement des écosystèmes, il est et restera plus impactant environnementalement.

Un bon indicateur sera l’évolution de son prix de vente débarrassé de toutes les subventions et avantages divers pour créer le marché.

D’autres arguments à charge ou à décharge sur la pollucivité du véhicule électrique sont envisageables. Néanmoins, ces quelques arguments ont pour but de montrer qu’en changeant de paradigme et en s’appuyant sur des connaissances peu diffusées, certes, mais validées, paradoxalement, le véhicule électrique apparaît comme un véhicule plus polluant que le véhicule thermique. Faisant fi des arguments bio-physico-chimiques, le seul argument du prix suffit à s’en convaincre dès lors que sa proportionnalité aux impacts environnementaux générés dans son cycle de vie s’impose. Mettre le nez à la sortie d’un pot d’échappement qui n’existe plus dans un véhicule électrique ne suffit pas pour évaluer correctement ses vertus écologiques. Un peu de recul est nécessaire.

Encore faut-il s’extraire des modèles dominants en en adoptant d’autres plus pertinents au regard des défis que nos sociétés globalisées du troisième millénaire ap.JC doivent relever. L’Ecologie envisagée comme la science de référence permettra alors de subsumer toutes les conceptions contemporaines issues du paradigme classique.

Une certitude en conclusion.

Le véhicule électrique est bien une création de la Modernité car sa justification repose sur le recours à un SurEnvironnement pour exister. Or, la PostModernité devra se construire sans recourir à des SurEnvironnements. Ceci pour une raison simple : il n’y en aura plus dans un monde saturé d’humains et sur-artificialisé.

Frédéric Malaval, 6/11/ 2015

http://www.polemia.com/le-vehicule-electrique-panacee-eco...

06/11/2015

Centenaire de la relativité : Poincaré génie de la physique, Einstein génie de la com ! (édito 02-03/05)

C’est l’une des photos les plus célèbres du monde : l’homme qui incarne aux yeux du grand public le génie scientifique, Einstein, vieillissant et moustachu, tire une longue langue râpeuse.

Chacun est prié d’y trouver le symbole de l’excentricité et de l’indépendance du super héros scientifique vis-à-vis des pouvoirs établis.

Et si en réalité c’était à la vérité et à l’honnêteté intellectuelle qu’Einstein tirait la langue ? Car aujourd’hui, scientifiques et historiens savent que si c’est Albert Einstein qui a mis en scène la relativité, c’est Henri Poincaré qui l’a découverte.

Explications.
Einstein est largement reconnu comme « le père de la relativité» ; pourtant, lorsqu’il obtint le prix Nobel en 1921, ce fut pour l’explication de l’effet photo électrique, point de départ de ce qui allait devenir la mécanique quantique, et non pour la relativité que le Comité Nobel se refusa de citer dans les raisons de couronner Einstein. A juste titre. C’est en effet Henri Poincaré, polytechnicien et membre de l’Académie des sciences, qui fut l’inventeur de la relativité restreinte qui se trouve déjà présentée dans une série de publications écrites de 1898 à 1905 - série de publications qui s’appuient sur des travaux antérieurs de Poincaré lui-même, remontant à 1885 et d’Hendrik Lorentz que Poincaré a l’honnêteté de fréquemment citer.
De même l’inventeur de la relativité générale n’est pas davantage Einstein, mais David Hilbert en 1915.
Tous ces faits sont aujourd’hui à la disposition du grand public cultivé et critique à travers d’une série d’ouvrages en français dont celui de Jean Hladik « Comment le jeune et ambitieux Einstein s’est approprié la relativité restreinte de Poincaré » (Ellipses). Cet ouvrage - comme ceux de Jules Leveugle et de Jean-Paul Auffray - démontrent en se basant sur une analyse chronologique des textes - qu’Einstein a davantage été un plagiaire qu’un créateur. Ces travaux en Français confirment d’ailleurs le point de vue d’auteurs anglo-saxons antérieurs et notamment ceux d’Edmund Whittaker dont les ouvrages publiés en 1951 rendent déjà à Poincaré et Lorentz ce qui leur revient…c'est-à-dire beaucoup plus qu’à Einstein.
A partir de ces constats deux questions se posent :
Einstein a-t-il réellement plagié ou a-t-il découvert la relativité en même temps que d’autres auteurs ?
Et pourquoi tout le succès médiatique de cette découverte lui revient-il ?
La réponse à ces deux questions est liée : Einstein est bien un plagiaire… et c’est justement ce qui explique son succès médiatique.
Il est fréquent qu’en sciences, plusieurs personnes convergent vers la même découverte au même moment. Pour une raison simple : les découvertes n’arrivent pas ex abrupto, elles sont la suite, elles sont la conséquence de travaux antérieurs que les scientifiques honnêtes ne manquent pas de citer. Et c’est bien là, la preuve du plagiat d’Einstein. Les travaux de Poincaré, sur la relativité restreinte comme ceux de David Hilbert sur la relativité générale, fourmillent de références. Pas ceux d’Einstein. Or, Einstein qui était chroniqueur scientifique aux « Annales de la Physique » ne pouvait pas ignorer les travaux des autres puisqu’il en était le destinataire régulier justement pour les présenter et les commenter !
Ne pas citer les auteurs qui l’avaient précédé, c’était manquer à la déontologie scientifique, c’était plagier, mais c’était aussi réussir un coup de génie médiatique.
Attribuer à Einstein la relativité, toute la relativité, c’est quand même plus simple que de la partager entre Lorentz, Poincaré et Hilbert, surtout quand les uns sont austères et que l’autre joue volontiers les histrions !
Les physiciens eux-mêmes se sont d’autant plus prêtés à ce jeu que n’étant pas généralement historiens peu d’entre eux sont retournés aux sources bibliographiques et que la communauté des physiciens s’est plutôt bien portée d’avoir comme porte-drapeau un excentrique… bien pensant.
Le pacifisme d’Einstein a été bien utile à l’image d’une science qui a malgré tout permis la découverte et l’usage de la bombe atomique.
Il n’est d’ailleurs pas surprenant que dans le champ politico-intellectuel français, les physiciens « progressistes » comme Paul Langevin (l’auteur du plan Langevin-Wallon aujourd’hui panthéonisé) ait pris le parti du « progressiste » Einstein contre le « conservateur » Poincaré.
Il y a donc tout lieu de craindre que 2005 étant l’année du « centenaire de la relativité » (ce qui n’est pas inexact : le grand article de synthèse de Poincaré couronnant 20 ans de recherche étant paru le 5 juin 1905, soit quatre semaines avant celui d’Einstein…), Einstein soit à nouveau appelé à faire la une des devantures de kiosques et des ouvertures de journaux télévisés.
Mais ceux qui auront eu la chance de s’informer sauront qu’il ne s’agit là que l’une des nombreuses mystifications du monde contemporain.
Andrea Massari
P.S. cet article, par souci de clarté, comprend peu de citations. En ce sens il pourrait passer, lui aussi pour un « plagiat ». Pour éviter cette accusation, l’auteur tient à préciser qu’il s’est inspiré des ouvrages cités ainsi que de nombreux articles disponibles sur internet. L’essentiel de ces références se trouve dans le dossier Einstein/Plagiat du Club de l’Horloge :http://www.clubdelhorloge.fr/index.php
P.P.S. Certains pourraient s’étonner que la revue « La Recherche » réputée sérieuse consacre encore aujourd’hui un numéro spécial, à propos de la relativité, à Einstein. Il n’en est rien pour deux raisons :
1. Nichée au cœur du pouvoir intellectuel, « La Recherche » garde le scientifiquement correct.
2. Einstein fait beaucoup plus vendre que Poincaré, Lorentz ou Hilbert ; c’est le paradoxe des médias : la valeur commerciale d’une information ne dépend pas de son exactitude. Et cette loi ne s’applique pas seulement aux « journaux de caniveaux »… mais aussi aux publications réputées sérieuses.
http://archives.polemia.com/article.php?id=2034

19/10/2015

Exclusif : regardez de près l’avion de chasse le plus maniable du monde, le SU-30SM

12/10/2015

Framasoft : une alternative française, libre et décentralisée face aux géants du net

L’année dernière, Framasoft avaient lancé un initiative baptiséeDégooglisons Internet qui avait pour but de sensibiliser les Français au problème de la centralisation de nos données chez les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) mais aussi de donner les clés à tous ceux qui le désiraient pour utiliser ou mettre en place des solutions alternatives, libres et non centralisées…

Framasoft est une association de loi 1901 (3 permanents) subventionnée par les dons des internautes.

Présentation du projet « Dégooglisons Internet » : Ces dernières années ont vu se généraliser une concentration des acteurs d’Internet (Youtube appartient à Google, WhatsApp à Facebook, Skype à Microsoft, etc.). Cette centralisation est nuisible, non seulement parce qu’elle freine l’innovation, mais surtout parce qu’elle entraîne une perte de liberté pour les visiteurs.Les utilisateurs de ces services derniers ne contrôlent plus leur vie numérique : leurs comportements sont disséqués en permanence afin de mieux être ciblés par la publicité, et leurs données – pourtant privées (sites visités, mails échangés, vidéos regardées, etc.) – peuvent être analysées par des services gouvernementaux.

La réponse que souhaite apporter Framasoft à cette problématique est simple : mettre en valeur, pour chacun de ces services privateur de liberté, une alternative Libre, Ethique, Décentralisée et Solidaire.

Après des mois de travail, voici les services alternatifs proposés par Framasoft :

 

Source : Korben

http://www.contre-info.com/framasoft-une-alternative-fran...

09:07 Écrit par pat dans divers, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | |