Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

03/10/2017

Argumenter contre le transhumanisme – Conférence de Lucien Cerise en Normandie (2/2)

Argumenter contre le transhumanisme – Conférence de Lucien Cerise en Normandie (1/2)

11:34 Écrit par pat dans actualité, entretiens, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

28/09/2017

"Les vaccins servent à affaiblir le peuple" - Philippe Ploncard d'Assac

24/09/2017

Les vaccins (Libre journal des sciences et des techniques 22 septembre 2017 part 2)

Les vaccins (Libre journal des sciences et des techniques 22 septembre 2017 part 1)

18/09/2017

POURQUOI LA FRANCE GÈLE EN ÉTÉ ?

shutterstock_71109070-1000x660.jpg

Depuis que la France se gèle en été, il ne faut plus parler de réchauffement climatique, mais de changement climatique.

17 septembre 2017. Un matin d’été, quelque part en France, chez moi. Le thermomètre extérieur indique 8,6 degrés. Il est 9 heures du matin… Le chauffage marche. Cherchons l’erreur. Ou, plutôt, cherchons le réchauffement climatique.

Ah, tout d’abord, un point de sémantique important. Dans (presque) tous les médias dits « mainstream » (en français, « de propagande officielle ») depuis que la France se gèle en été, il ne faut plus parler de réchauffement climatique mais de changement climatique. C’est effectivement plus prudent.

Les relevés climatiques nous montrent, certes, une hausse de la température moyenne de l’atmosphère terrestre, et les cartes attestent d’une diminution des glaces polaires arctiques.

Chez moi (petite parenthèse), un crétin a collé près d’un lycée un autocollant proclamant « Le nucléaire ne sauvera pas le climat »avec un ours blanc juché sur un minuscule bout de banquise. Pauvre nounours blanc, en fait, il nagera jusqu’à la première terre ferme où il saura parfaitement croquer tous les Bisounours qui passerons à sa portée. C’est le pire fauve terrestre.

Trêve de compassion animalière infantile, que se cache-t-il derrière tout cela ? Évidemment, les intérêts bien compris des fabricants et surtout importateurs d’éoliennes (chinoises) et de panneaux solaires. 

Je vous entends déjà me disant « Mon pauvre Monsieur, et les études du GIEC 1, qu’en faites-vous ? » « Et tous ces grands politiques, comme Hidalgo qui eux, mon pauvre, ont tout compris ! » C’est vrai, titulaire d’une maîtrise de sciences sociales du travail et d’un DEA de droit social et syndical, Anne Hidalgo est super compétente en climatologie, ça saute aux yeux.

Le cas de M. Jean Jouzel est plus intéressant. Ingénieur et physicien, il a soutenu une thèse sur la complémentarité des mesures de deutérium et de tritium pour l’étude de la formation des grêlons. Glaciologue, géophysicien, spécialiste de modélisation du climat et de l’environnement, il est vice-président du GIEC qui, dans l’opinion occidentale, professe que le développement est responsable des maux climatiques récents. Ses adversaires scientifiques et climato-sceptiques n’ont guère, eux, accès aux médias.

Tout bon géographe sait que la climatologie – branche de la géographie – fait interagir la circulation des grandes masses d’air atmosphériques, les fronts et convergences qui en résultent, les courants marins, les reliefs terrestres. Que tout cela a sans cesse varié au cours des temps géologiques. L’homme n’y était pour rien. Que les périodes glaciaires se sont succédé, entrecoupées de périodes interglaciaires avec d’énormes variations du niveau marin. Qu’entre autres causes présumées de ces bouleversements prévalent les variations de l’orbite terrestre.

La climatologie est donc une science fort complexe et l’aborder nécessite beaucoup de modestie. La glaciologie n’explique pas tout, la modélisation ne prévoit pas tout, pas plus que l’économétrie n’explique toute l’économie. Un point de vue ponctuel ne suffit pas. Ce n’est pas parce qu’un journaliste est un grand spécialiste de la guerre d’Algérie qu’il saura expliquer les guerres puniques ou la perte de la Nouvelle-France d’Amérique au XVIIIe siècle.

Les climats de France, si variés, océaniques, méditerranéens, semi-continentaux, montagnards, varient aussi et surtout en fonction du Gulf Stream et de sa puissance d’éloignement des flux polaires sur la façade ouest du continent. Sans lui, nous connaîtrions le climat du Labrador. Toutes sortes de variations minuscules à l’échelle des temps géologiques sont possibles et les causes en seront toujours multiples.

Si les géographes savaient un peu plus exprimer leurs connaissances, ces grands climatologues que sont les Hidalgo et autres Macron contribueraient moins à « la longue montée de l’ignorance », comme l’écrit Dimitri Casali.

Notes:

  1. GIEC : Groupe d’experts intergouvernemental sur l’évolution du climat

http://www.bvoltaire.fr/france-gele-ete/

16/09/2017

De nouvelles découvertes sur l’évolution de l’espèce humaine mettent à mal la théorie de l’homme « sorti d’Afrique »

Ben-Ncer-Hublin-600x338.jpg

SCIENCES (NOVOpress avec le Bulletin de réinformation de Radio Courtoisie) :
Ces derniers mois ont été le théâtre de plusieurs découvertes majeures en paléoanthropologie. Celles ci questionnent l’origine de l’humanité et amènent à repenser les classifications enseignées jusqu’alors. Le bulletin de réinformation vous en présente deux d’entre elles.

C’est en juin qu’a retenti, le coup de tonnerre qui a vieilli l’humanité dite moderne de 100 000 ans

Alors que l’on pensait le berceau des hommes actuels situé en Afrique de l’Est, c’est à Jebel Irhoud, au Maroc qu’ont été trouvés des restes d’Homo sapiens datés de 300 000 ans, et ce grâce à la technique de datation : la thermoluminescence, exécutée pour ces fossiles en Suisse.
D’après le Français Jean Jacques Hublin, co-auteur de ces travaux, l’homme de Jebel Irhoud nous ressemble tant qu’on pourrait le croiser dans le métro sans le différencier de nous. Mais la boîte crânienne est encore bien différente de la morphologie moderne.

Cette grande découverte amène à penser un nouveau scénario évolutif

Plutôt que de cantonner le berceau de l’espèce Homo sapiens seulement au Maroc, les scientifiques penchent pour un déploiement de l’espèce dans toute l’Afrique, antérieur à 300 000 ans. Mais il n’y a bien sûr aucune raison objective que ce déploiement ait concerné uniquement l’Afrique.
Ce qui permet au paléoanthropologue Antoine Balzeau d’affirmer : « Il y a donc eu pendant longtemps plusieurs espèces d’hommes à travers le monde, qui se sont croisées, ont cohabité, échangé des gènes »

Autre découverte importante, celle de traces de pas laissés par un pré-humain, il y 5,7 millions d’années, en Crète

C’est 2 millions d’années de plus que les plus anciennes traces d’homininés connues jusqu’à lors. Ces empreintes de pas auraient été laissées par quelqu’un marchant debout, sur ses jambes, et elles sont très similaires à celles des humains.

Cependant, la découverte reste à confirmer. Si tel est le cas, l’aire biogéographique de nos lointains ancêtres devra être revue, car elle s’étendrait au-delà de l’Afrique

Déjà, au début de cette année, les restes d’un homininé vieux de 7,2 millions d’années avaient été retrouvés entre la Bulgarie et la Grèce. Les découvertes non conformes à l’idéologie selon laquelle nous serions « tous des Africains » se succèdent donc.

https://fr.novopress.info/

12:06 Écrit par pat dans culture et histoire, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

Vers la fin de la motorisation essence? Le défi chinois.

Lorsque, au mois de juillet dernier, le ministre de la Transition écologique Nicolas Hulot annonça qu'il souhaitait la fin des voitures à essence et diesel d'ici 2040 en France, ce fut un véritable hourvari chez les constructeurs et dans la population des simples conducteurs, et certains ricanèrent bruyamment et méchamment, y compris chez les experts autoproclamés de la question des mobilités, en déclarant que cela n'était pas sérieux ni crédible. Pourtant, quelques uns des pays européens, et pas des moindres, préparent au moins la sortie du diesel et pensent à bannir les voitures à carburant fossile des grandes villes, comme la Norvège qui pourrait devenir le premier pays à interdire la vente des voitures à pétrole dès 2025, soit dans moins de 8 ans et, même, l'Allemagne qui évoque cette même interdiction pour 2030, soit dix ans avant la date proposée par M. Hulot...

Mais les rieurs de juillet sont plus discrets désormais que la Chine, « premier marché automobile de la planète – plus d'une voiture particulière neuve sur quatre s'y écoule - » pense sérieusement à la même mesure radicale, comme le souligne Cyrille Pluyette dans Le Figaro (pages économie) du mardi 12 septembre 2017, qui l'évoque même comme « une révolution copernicienne pour l'ensemble de cette industrie » si elle était appliquée. En effet, cela signifie que le secteur de l'automobile tout entier, sous peine d'être extrêmement fragilisé, va devoir se tourner désormais vers la motorisation électrique et, donc, innover rapidement et efficacement pour répondre aux exigences du marché chinois ou, plus exactement, de l’État chinois qui ouvre ou ferme les portes de l'empire du Milieu selon ses propres intérêts bien compris. Ce « nationalisme économique » a d'autant plus de poids que le pays est puissant et doté d'un pouvoir d'achat considérable et encore susceptible d'augmenter.

Les raisons avancées par la Chine sont, officiellement, écologiques et économiques, les unes confortant les autres (et non s'opposant entre elles) : « En évoquant ce virage, Pékin cherche à réduire le problème endémique de la pollution de l'air qui fait suffoquer le pays, et exaspère la population ; ainsi qu'à réduire sa dépendance aux importations de pétrole.

« Mais l'enjeu est aussi industriel. Les voitures propres font partie de l'ambitieux plan baptisé « Made in China 2025 »,  qui vise à positionner la Chine comme leader mondial sur de nombreux secteurs d'avenir. » Cette politique d'indépendance productive chinoise risque bien de marquer le déclin des marques européennes et françaises si celles-ci ne prennent pas immédiatement la mesure du défi technologique et économique que lance la Chine, car cette dernière, non contente de combler son propre marché intérieur, se verrait bien conquérir celui des autres, en profitant de ses atouts (prix compétitifs, force de frappe industrielle et financière) mais aussi de la demande de plus en plus forte d'une clientèle occidentale qui se pique d'écologie sans vouloir renoncer à la vitesse automobile.

Ainsi, M. Nicolas Hulot a raison : il faut dès maintenant, en France, engager la politique de basculement de la production automobile vers l'électrique et vers d'autres technologies alternatives et « propres » car il ne faudrait pas, là encore, se limiter à un seul mode de propulsion au risque de rater la « révolution énergétique » suivante. De plus, l'enjeu environnemental ne doit pas être oublié, ne serait-ce que pour permettre la diminution de la mortalité par la pollution atmosphérique, aujourd'hui chiffrée à 48.000 victimes annuelles dans notre pays, et diminuer les rejets nocifs de gaz à effet de serre qui participent à ce dérèglement climatique imputable aux activités humaines de production comme de consommation.

Il est tout de même dommage de constater le conformisme des élites républicaines qui, en France, semblent toujours attendre la catastrophe ou l'initiative d'un pays plus puissant (et concurrent, dans le cadre de la mondialisation qui ne connaît pas d'amis mais ne reconnaît que des intérêts...) pour se réveiller (à peine) et réagir, trop souvent dans l'urgence et la précipitation. Le manque de vision à long terme qui a, depuis trop longtemps, caractérisée la République (sauf exception notable comme celle du pouvoir gaullien, en d'autres temps) n'est rien d'autre que la conséquence d'une déresponsabilisation de politiques et d'économistes plus soucieux, pour les uns de leur réélection, pour les autres de leurs prébendes, que « d'inventer l'avenir », celui « que tout homme bien-né souhaite à sa patrie »... C'est d'autant plus vrai en ce qui concerne la voiture électrique que nombre d'inventeurs et d'industriels français l'ont imaginée, créée, voire développée depuis la fin du XIXe siècle jusqu'à aujourd'hui, tel Pierre Faure dans les années 1940 qui tenta une construction en série de son « Electra » et qui a mené une véritable réflexion sur la question de la motorisation électrique et de ses conséquences (mais aussi de ses limites), réflexion totalement occultée dans une société qui a longtemps valorisé les énergies fossiles sans mesure ni discernement...

« L'imagination au pouvoir », clamait un slogan apparu sur les murs en Mai 68 : la République, en définitive, a préféré le conformisme, et nous le payons aujourd'hui au prix fort. Mais il n'est pas trop tard pour bien faire : encore faut-il un État digne de ce nom pour relever les défis du monde (et de la Chine, entre autres), qu'ils soient d'aujourd'hui ou de demain. Une raison supplémentaire de vouloir la Monarchie héréditaire et successible, éternellement renouvelable en sa tête, pour incarner la magistrature suprême de l’État.

Jean-Philippe CHAUVIN

http://nouvelle-chouannerie.com/

15/09/2017

Documentaire Histoire de l'aviation Daniel Costelle 00 Hors Série Les ailes des hèros

06:42 Écrit par pat dans culture et histoire, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

14/09/2017

Zoom - Levan Vasadze : "Le 21ème siècle doit tendre vers la désurbanisation"

17/07/2017

Zéro pesticide, travail collaboratif, permaculture : le pari réussi d’un collectif de vignerons anonyme

Que cache ce « collectif anonyme » de vignerons ? Une joyeuse bande qui opère, depuis quelques années dans les Pyrénées-Orientales, une petite révolution dans le monde viticole français. Vignerons et vigneronnes adeptes du bio y expérimentent un mode de production alternatif, depuis la taille de la vigne jusqu’à la mise en bouteille. La philosophie de ce « collectif anonyme », soucieux de ne pas attirer l’attention sur le travail d’une seule et unique personne : utiliser le savoir-faire traditionnel, la permaculture, et leurs propres essais afin de produire des vins de qualité. 
Au fond d’une impasse de Port-Vendres, dans les Pyrénées-Orientales, deux portes bleues marines. Aucun signe distinctif si ce n’est un gros van noir sur lequel est apposé le logo du collectif anonyme, un tire-bouchon limonadier semi-ouvert qui vient rappeler le « A » de « anarchie ». Tout est calme. Loin de l’agitation de la veille, quand Kris et ses deux partenaires, Julia et Jackie, ont mis en bouteille les 650 litres de leur millésime 2015 de grenache gris et blanc, soit plus de 800 bouteilles. A l’intérieur de l’ancien garage dont les murs ont été repeints à la chaux et les poutres à l’huile de lin, on est indéniablement dans un chai. Et plutôt atypique. Dans une des pièces, on trouve une machine pour le triage des grappes à la main, un pressoir à grains activé par une bicyclette fixée au sol, des barriques en chêne, et quelques-unes en plastique. 
Dans une autre, encore des cuves et des barriques, ainsi qu’un petit bureau. Le matériel a été acquis sur des sites d’occasion. Dans la chambre froide, les cartons de commandes sont prêts à l’envoi, partout « où les gens ont de l’argent et ont soif » plaisante Kris, un des membres du collectif. Nul besoin de négocier avec une grande surface ou une enseigne de cavistes : leur production s’écoule entièrement grâce au bouche à oreille et aux réseaux sociaux. 
Entretien sans pesticides, récolte et pressage à la main 
Le collectif anonyme est un groupement d’intérêt économique (GIE) qui produit du vin naturel (ou vin nature) depuis 2012. Il est propriétaire d’une partie des 10,5 hectares de vignes qu’il cultive, certains en métayage, d’autres en fermage. En 2014, ils ont bénéficié d’une aide à l’installation. Kris a le statut d’exploitant agricole, Julia et Jackie sont cotisants solidaires. Les vignobles, achetés grâce à l’argent qu’ils ont gagné en travaillant pour d’autres vignerons, sont tous en coteaux. Dispersés autour de Banyuls, surplombant la Méditerranée, ils sont naturellement protégés du vent local, la tramontane. Ils ont aussi été choisis méticuleusement, car le relief qui empêche toute mécanisation sied à la philosophie du groupe : vendanges manuelles, transport en hottes, pressage à la main. 
Le sol schisteux, caractéristique de la région, plutôt riche bien que légèrement acide, et les ceps de vieilles vignes sont protégés de l’érosion par le « gazon », des herbacées que le collectif laisse volontairement pousser. Ils désherbent une à deux fois par an afin de maintenir cet humus protecteur. « Nous avons semé du trèfle souterrain pour en faire un couvre-sol, mais nous avons finalement décidé de travailler avec des herbes graminées naturelles et locales. Elles meurent en été, ne sont pas très hautes et concurrencent efficacement l’espace aux plantes invasives », explique Kris. En yourte ou en caravane, c’est au milieu de leurs vignes qu’ils habitent, afin de limiter les coûts et leur consommation énergétique. 
« Trouver la meilleure manière d’exprimer les raisins » 
Il fait 16°C en ce jour d’automne. La brise maritime caresse les pieds de grenache noir, gris et blanc, de carignan, de syrah et mourvèdre. Pour cultiver ces cépages, le collectif s’est lancé dans le « bio-scientifique ». « Nous utilisons un bricolage de permaculture, de biodynamie et de pratiques traditionnelles pour trouver la meilleure façon d’exprimer nos raisins. Mieux vaut ne pas être trop spécifique et beaucoup expérimenter. » Ils ont essayé de faire pousser des cultures vivrières – pois chiches, pommes de terre et carottes – entre les vignes afin d’étudier les relations que différentes plantes établissent entre elles, de manière à s’entraider. « C’était une belle expérience » nous dit Kris, mais cela « représentait trop de travail à réaliser sérieusement et à grande échelle. On a dû laisser tomber ». 
En conversion depuis cinq ans, leurs vignobles n’ont depuis connu aucun pesticide. Contre les prédateurs naturels de la vigne, tel que l’oïdium, le collectif utilise du soufre, du Fenugrec, de la Prêle des champs – qui pousse naturellement près d’une source sur une des parcelles – en bouillie, du limonène contre les termites, du bicarbonate de potassium et parfois, juste sur les pieds de carignan, un peu de bouillie bordelaise. L’équipe s’attache à marcher très régulièrement dans les vignes afin d’observer la bonne croissance des plants. Ils contrôlent aussi la canopée. La pré-taille a commencé le 1er décembre, la taille débutera en début d’année 2017. Entretemps, les vignerons en profitent pour aller dans des salons de vin nature, comme la « Raw Wine Fair » de Berlin. 
« Apprendre en faisant » 
Le collectif propose des vins tranquilles de qualité. Un « vin de niche », une micro-cuvée « 100 % manuelle, artisanale, bio et collaborative » précise Kris. Contrairement à la plupart des producteurs de vin nature, le collectif s’autorise une infime quantité de sulfites : « Nous n’aimons pas les vins aériens, trop homogènes. Nous aimons qu’il y ait du corps et de la diversité. Nous sommes doublement des moutons noirs ! » ajoute-il en souriant – « Mouton noir » étant le nom donné à l’un de leurs millésimes de rouge. « Par rapport aux vignerons conventionnels, pour des raisons évidentes, mais aussi pour ceux qui produisent du vin nature, car lorsque cela nous semble nécessaire pour des raisons gustatives, nous ajoutons une petite dose de sulfites et nous ne faisons pas de macération carbonique. Cela demande du travail, de surveiller le vin, mais un petit peu d’oxydation leur donne de la structure. » Le collectif travaille sans œnologue : « Nous ne voulons pas imiter, mais suivre nos envies. » 
Anarchistes revendiqués, de par leur formation militante et leurs parcours entre l’Australie, l’Allemagne, la Grande-Bretagne et la France, ils ont « appris en faisant ». Les membres du collectif précisent qu’ils sont « anonymes » parce que leurs vins et leurs pratiques les représentent tous et toutes et que leur « structure collaborative » les protège « contre les hiérarchies et le patriarcat ». Devenus vignerons par « accident », ils ont préféré l’autogestion plutôt « que de continuer à travailler pour quelqu’un d’autre ». Les noms de leurs vins – « Beau Oui comme Bowie », un Collioure rouge, 90% syrah-10% grenache, ou « Redrum », 80% grenache-20% carignan – inspirés par leurs goûts cinématographiques ou musicaux, ont été choisis collectivement. Ils dessinent aussi leurs étiquettes. « Le vin pour nous, c’est un produit complet, comme un objet d’art. Pour une bouteille entre 18 et 22 euros, celui ou celle qui boit notre vin mérite quelque chose de beau ! », s’enthousiasme Kris au moment de la dégustation. Pour le Collectif anonyme, fabriquer du vin, dans ces conditions, c’est « le meilleur métier du monde ! »

08/02/2017

Passé Présent n°138 - Edison VS Tesla : La guerre des courants

19:00 Écrit par pat dans culture et histoire, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

09/01/2017

Le Yak-130, un « petit cauchemar » pour l’Otan

yak_otan.jpg

Le fameux Yak-130, chasseur d’entraînement avancé russe, est qualifié de « petit cauchemar » par des spécialistes américains, selon la revue bimensuelle américaine Le National Interest.

Le Yak-130 comporte plusieurs caractéristiques qui alertent l’Otan. Premièrement, grâce à ses systèmes d’accroche spéciaux, le chasseur est capable d’emporter trois tonnes d’armements modernes, comme des missiles air-air ou air-sol, des bombes guidées ou non-guidées et des roquettes.

Deuxièmement, un canon de 23 millimètres peut être fixé sous le fuselage du Yak-130, tandis que des roquettes air-air peuvent être accrochées aux bouts ses ailes.

De surcroit, un Yak-130 totalement équipé et rempli ne pèse que 10.300 kilogrammes ce qui fait un peu plus de la moitié du poids d’un chasseur multi-rôle, F-16 qui est le principal avion utilisé par les Etats-Unis et par leurs alliés.
Actuellement, les Yak-130 sont en service dans l’armée de l’Algérie. Le Bangladesh et la Biélorussie ont également signé des contrats visant à la fourniture de ces chasseurs russes.

Le Yak-130 a été construit dans le bureau d’études russe Yakovlev. Il a été choisi comme principal avion pour l’entrainement des pilotes des Forces aériennes de la Russie. Les Yak-130 permettent d’instruire les pilotes pour les avions russes et étrangers de génération 4+ et 5.

Source

http://www.voxnr.com/7598/le-yak-130-un-petit-cauchemar-p...

02/01/2017

NSA : «D'un point de vue technologique, la France est une colonie américaine»

Mediapart et Libération ont révélé ce mardi soir que les trois derniers présidents français ont été mis sur écoute par la NSA au moins de 2006 à 2012. Que vous inspire cette surveillance ? Est-elle inédite ?
Tout cela n'a rien de nouveau, et ce n'est pas la première fois qu'il est révélé que la NSA écoute des dirigeants Européens. La fois précédente, il s'agissait d'Angela Merkel. Qui pouvait s'imaginer un instant à l'époque que la Chancelière Allemande avait droit à un traitement privilégié par rapport aux présidents Français ?
De nos jours, du simple citoyen au plus haut dirigeant, la confiance a totalement disparu. Chez les politiques, cela se traduit par une explosion de la mise sous surveillance de tous -du Français lambda aux dirigeants politique (de son propre pays ou d'un pays étranger)-, chez les citoyens, cela se traduit par une explosion du phénomène des lanceurs d'alerte, dont Wikileaks est un symbole. La confiance est un phénomène réciproque. Si vous ne vous fiez pas à quelqu'un, il n'y a que peu de chance d'établir une relation de confiance réciproque avec lui. Si, en tant qu'État, vous espionnez vos alliés, la confiance va être difficile à établir. Si vous surveillez vos citoyens, il en sera de même, et si vous êtes dans un régime démocratique, rester au pouvoir sans avoir la confiance du peuple peut s'avérer délicat.
Edward Snowden avait déjà révélé les techniques de surveillance de la NSA en 2013. Les services de renseignement en ont-ils réellement tenu compte ?
Les services de renseignement étaient effectivement déjà largement au courant des pratiques de la NSA, et il est plus que certain qu'ils ont adapté leur approche au regard des détails fournis par Edward Snowden. Leur problème tient sans doute plus dans la difficulté qu'il y a pour les dirigeants français à adopter de “bonnes pratiques” les mettant à l'abri des écoutes. On voit régulièrement des ministres ou des présidents utiliser un smartphone, et cela fait rire de façon systématique tous les hackers. Maintenant, vous savez pourquoi
Une partie non négligeable des téléphones, et dans une moindre mesure des ordinateurs, vendus dans le commerces sont livrés avec des systèmes de surveillance pré installés -vouloir les utiliser pour échanger de façon confidentielle des informations est parfaitement idiot. Dans un autre ordre d'idée, si vous avez accès aux recherches Google issues du minsitère de l'écologie dans les mois qui précèdent un rendez vous comme COP21, vous avez des renseignements de premier plan sur les préoccupations de votre adversaire. 
Si cette difficulté des hommes politiques à adopter des bonnes pratiques est à mettre en cause, n'y-a-t-il pas également des failles de sécurité au sein du gouvernement français ?
Il n'y a que ça, et il est difficile d'en vouloir au gouvernement. Les technologies que nous utilisons pour construire nos infrastructures -celles utilisées par le gouvernement comme les autres- ne sont pas souveraines, et celles qui sont d'origine américaine (et elles sont nombreuses) sont presque systématiquement pensées pour permettre à la NSA d'en prendre le contrôle à des fins de surveillance. Nous n'avons pas, ou peu, de technologies souveraines. C'est une réalité avec laquelle il nous faut composer. Le fait d'être, d'un point de vue technologique, une colonie américaine est l'une des conséquences facheuse de ce manque de souveraineté. Les dirigeants politiques en sont souvent réduits à faire du face à face pour les discussions les plus confidentielles. Cela revient à s'éclairer à la bougie, et on s'imagine le manque de performance qui en découle de l'appareil qu'est le plus haut sommet de l'État.
Ajoutez à cela qu'à ce niveau de pouvoir, la compréhension de la chose technologique est proche du zéro absolu. Et pour cause : on a laissé cette chose aux techniciens, jusqu'au jour où l'on s'est aperçu que Facebook et Google -tous deux inventés par des techniciens- parlaient d'égal a égal avec les chefs d'État de la planète.
Comment donc assurer la confidentialité de nos communications en France?
Comme partout ailleurs, en diffusant au sein des entreprises un ensemble de bonnes pratiques qui, au fur et à mesure que les technologies de surveillance deviennent sophistiquées, doivent être revues et mises à jour. Il faut ensuite s'assurer que ces pratiques sont suivies scrupuleusement et établir un dialogue entre des spécialistes en sécurité et les utilisateurs de technologie, ce qui peut être très complexe.
L'écrasante majorité des dirigeants -qu'il s'agisse de l'État ou des grandes entreprises- ne comprend strictement rien à la chose technologique. On leur a vendu la technologie par petit bout, année après année: après celle du “search engine marketing” est arrivé l'année des réseaux sociaux, puis du mobile, de l'objet connecté, etc, jusqu'au moment où l'uberisation de l'économie leur a fait comprendre qu'ils n'avaient rien vu venir (tout comme avec la surveillance) et que du coup, il n'y comprennaient vraisemblablement pas grand chose.
«C'est l'arroseur arrosé. Voilà un gouvernement qui vient de faire voter une loi sur les écoutes et qui se plaint d'être écouté» a déclaré le sénateur UDI Yves Pozzo di Borgo. La loi sur le renseignement devrait en effet être adoptée définitivement ce mercredi. Ces révélations peuvent-elles avoir un impact sur ce vote ?
Je doute que les révélations de Wikileaks affectent le vote. La loi française sur le renseignement est le reproduction presque à l'identique du Patriot Act américain; Tout, y compris son timming post attentat, a été fait pour la faire adopter dans l'émotion plus que dans la raison, car si les députés avaient la moindre idée des perspectives que cela ouvre à l'évolution du régime politique en France, ils en seraient effrayés.
Est-ce un hasard que ces informations d'espionnage soient rendue publiques la veille de ce vote?
Je doute qu'il s'agisse du fruit du hasard. C'est une piqûre de rappel salutaire: au-delà de ce vote, il ne faut plus s'attendre à vivre encore longtemps dans un régime démocratique.
Sommes-nous déjà dans une société de surveillance généralisée?
Oui, nous sommes depuis quelques années dans une société de la surveillance, ou tout le monde est potentiellement surveillé par une autorité supérieure qui le fait dant la plus parfaite impunité et sans le moindre contrôle. Vous, moi, les journalistes, les avocats, les parlementaires, mais également les ministres et le président. 
La France est, dans cette période étrange de l'histoire de l'humanité qui débute, une des grandes puissances mondiales de la surveillance. En fournissant une aide logistique et un savoir-faire indéniable en matière de surveillance à de nombreuses dictatures étrangères, notamment en Afrique et au Moyen-Orient, la France surveille non seulement toute cette partie du monde qui reste obscure aux grandes oreilles américaines, mais elle appuie la continuité et l'expansion de la “france-afrique” sur de nouvelle bases, solidement ancrées et, j'en ai peur, durables. 
Sur le plan intérieur, la remise en question des élites dirigeantes par le peuple et la perte des illusions démocratiques ouvre une ère d'instabilité des institutions qu'il semble réaliste de contrer par un renforcement de l'autorité de l'État. Un État panoptique, omniscient et omniprésent à travers les technologies de notre quotidien, est perçu, sans doute à raison, comme une solution plus douce qu'un régime autoritaire. Mais d'une façon ou d'une autre, la classe dirigeante ne peut plus espérer longtemps faire reposer son pouvoir sur une quelconque légitimité, et il lui faut envisager un relais vers autre chose si elle veut continuer de diriger le pays. La surveillance de masse de tout citoyen est une forme de pression qui pourrait permettre demain de résoudre sans violence excessive de nombreux conflits. De récents documents mis à jour par Edward Snowden montrent comment les services anglais, en plus d'opérations de surveillance classiques, infiltrent les réseaux sociaux pour déstabiliser une opposition politique, discréditer un adversaire ou perturber le bon fonctionnement d'un groupe suceptible d'accéder au pouvoir. Ce type de comportement de la part d'un service de renseignement n'a rien de nouveau, mais les moyens techniques utilisés changent la donne de façon radicale.
En entrant de plein pied dans la société de la surveillance, nous avons profondément altéré les règles de bases des société démocratiques -là où les dictatures n'ont fait que moderniser un dispositif de surveillance plus ou moins passif et pré-existant. Nous sommes entrés dans l'ère du soupçon, une ère où la norme est de ne pas faire confiance. Ne pas faire confiance aux politiques est un réflexe adopté par près de 80% des français, mais cette défiance se généralise bien au delà du politique et des institutions. Ne perdons jamais de vue que la confiance est également la base de l'économie, et que cette dernière finira elle aussi par être affectée.
La loi sur le renseignement va-t-elle accentuer le phénomène ou peut-elle être un élément de lutte, comme l'estime le député François de Rugy: «La publication de ces écoutes montre justement qu'il faut une loi qui dit ce qui est autorisé ou pas pour les services de renseignement» ?
Il faut s'attendre à voir nos politique nous débiter dans les jours qui viennent un festival de stupidités. Celle de François de Rugy est assez pitoresque. Cette loi n'a jamais été pensée pour lutter contre les grandes oreilles américaines, car comme le sait parfaitement Mr de Rugy, la France a signé un accord de coopération et d'échange des données issues de la surveillance avec les USA en 2010. Ces accords portent le nom d'”accord Lustre”. Ce fait est connu de tous nos politiques qui prétendent, pour le moment, l'ignorer, quitte à se ridiculiser lors d'une prochaine fuite d'information.
Là où Mr de Rugy fait très fort, c'est qu'il y a fort à parier que les termes -et donc l'existence officielle- des accords Lustre fassent partie de ce que Wikileaks s'apprête à révéler dans les jours qui viennent. Il pourrait donc se voir taxer de menteur dans moins de 48h, ce qui, en toute logique, ne devrait en rien affecter sa carrière politique, car de toute façon, qui aujourd'hui peut croire ce que raconte un homme politique sur de tels sujets ?
 

23/12/2016

Galileo : l'Europe qu'on aime...

Oui, cela a pris du temps, c'est vrai : c'est en 1998 que le projet a été décidé et, s'il devait être actif en 2008, le déploiement opérationnel définitif de l'ensemble du système (que les ingénieurs appellent « constellation ») ne sera effectif qu'en 2020. Qu'importe ! Pour l'instant, 15 satellites sont déjà en place, permettant une précision d'un mètre, contre dix à quinze mètres pour le GPS états-unien (cela étant dit sans la moindre arrière-pensée de dénigrement : c'est simplement une constatation...)

Et, donc, l'Europe acquiert de haute lutte son indépendance en matière de géolocalisation, ce qui est d'autant plus méritoire que ses trois prédécesseurs (les Russes avec le système Glonass, les Chinois avec le système Beidou 2 et les Etats-Uniens avec leur GPS avaient une maîtrise d'œuvre unique car nationale*, et, de surcroît, confiée à un seul opérateur : leur armée.

Voilà un motif de satisfaction et, même, de fierté. Avec Galileo, l'Europe tient son rang, comme avec Airbus ou Arianespace. Elle existe pour le meilleur, comme, dans un domaine bien différent, avec les échanges estudiantins du programme Erasmus. Et elle offre la vision claire de ce qu'elle peut et doit être, « Europe réelle », Europe des peuples et des nations, Europe des compétences, à mille lieux de la caricature bouffonne et odieuse de l’ « Europe légale » avec son bâtiment genre stalinien du Berlaymont, son Parlement néfaste, sa Commission sans légitimité, ses figures de proue repoussantes (Juncker, Schultz...). 

L'Europe légale, qui est devenue ce monstre techno-bureaucratique que l'on ne connaît que trop bien, c'est comme l'OTAN : il faut la dissoudre et la réinventer, la refonder. Nul besoin de cette immense machine, de cette paperasserie accablante, de ces fonctionnaires par milliers et des lourdeurs administratives qu'ils induisent, des paralysies et des effets directement pervers sur les économies nationales (en tout cas, sur la nôtre) des fameuses « normes » et « directives » bruxelloises.

De simples accords entre les experts de chaque gouvernement national, et l'on retrouverait une souplesse qui a été écrasée sous un mammouth devenu lui-même sa propre raison d'être, et dont l'obésité n'a d'égale, évidemment, que l'inefficacité.

Voilà deux axes d'une politique qui redeviendrait une politique d'indépendance et de progrès ; on peut y rêver, au moins, au moment où Galileo nous emmène dans les étoiles, avec ses satellites à 23.200 kilomètres de la terre (!) :

- Supprimer l'OTAN ou - puisque cela ne dépend pas de nous - en faire sortir la France ; 

- Déclarer la fin de cette « Europe légale » morte de sa propre stérilité et de sa propre malfaisance, et repartir dans la direction de la première Europe des Six, en reprenant les intuitions utiles qui avaient présidé à son établissement, et avec le français comme langue officielle, comme l'avaient proposé les Allemands aux débuts prometteurs de l'Europe des Six...

Evidemment, pour l'instant, ce n'est qu'un songe, un vœu pieux. Mais l'Histoire est pleine de ces songes qu'une volonté politique ferme, et menée sur le long terme, a transformés en réalité heureuse. Qui a dit : « Là où il y a une volonté, il y a un chemin... » ?  

Soit dit en passant, et dans un autre domaine, là est l'explication principale des difficultés rencontrées par l'excellent et indispensable programme de l'Airbus militaire : trop de pays, trop de bureaux d'études, trop de différences de mentalités, trop de besoins différents, voire contradictoires...

http://lafautearousseau.hautetfort.com/

21:20 Écrit par pat dans actualité, Europe, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

La propagande LGBT n’a aucune légitimité scientifique

L'association REAL Women of Canada, un groupe nord-américain de femmes anti-féministes, a dénoncé les balivernes du lobby LGBT :

« Nous savons d’instinct qu’elles ne sont pas authentiques, ni dignes de notre adhésion. Cependant, les faiseurs de mythe tentent de nous imposer leurs absurdités par le bras armé de la loi, affirmant qu’il est « discriminatoire » de refuser d’accepter ces mythes comme vrais. Les juridictions qui ne se soumettent pas à leur diktat sont l’objet de punitions économiques, les parents se voient interdire de protéger leurs enfants des monstrueuses « lois toilettes » permettant aux hommes d’utiliser les douches et les vestiaires des filles. C’est une fraude fondée sur une propagande qui n’a aucune légitimité scientifique. »

L'association rappelle que deux « bombes » ont explosé récemment, réduisant en miettes ces mythes. La première fut celle constituée par l’étude publiée le 23 août  par le journal scientifique The Journal – The New Atlantis. Deux universitaires de renom, le Dr Lawrence Mayer, expert en psychiatrie et en statistiques, et le Dr Paul McHugh, y notaient d’emblée que la communauté LGBT est affectée de manière disproportionnée par des problèmes de santé mentale par rapport à la population dans son ensemble et qu’ils sont opposés à la « discrimination » à l’égard des personnes et de la communauté LGBT. Après étude de centaines d’articles scientifiques sur l’orientation sexuelle et l’identité de genre, ils affirment :

  • La croyance selon laquelle l’orientation sexuelle est innée, et constitue une caractéristique humaine fixée par la biologie – le fait que les hommes seraient « nés comme ça » – n’est validée par aucune preuve scientifique.
  • La croyance selon laquelle l’identité de genre est une caractéristique humaine fixe et innée, indépendante du sexe biologique – de telle sorte qu’une personne pourrait être « un homme prisonnier d’un corps de femme » ou « une femme prisonnière un corps d’homme » – n’est validée par aucune preuve scientifique.
  • Seule une minorité d’enfants qui expriment des pensées ou ont des comportements atypiques par rapport à leur genre continueront de le faire à l’adolescence ou à l’âge adulte. Il n’existe aucune preuve selon laquelle de tels enfants devraient être encouragés à devenir transgenres, sans même parler de leur faire subir des traitements hormonaux ou chirurgicaux.
  • Les personnes non hétérosexuelles et transgenres présentent un taux de problèmes mentaux (anxiété, dépression, suicide) ainsi que les problèmes comportementaux et sociaux (toxicomanie, violences sur partenaires) plus élevés que celui de la population en général. La discrimination seule ne rend pas compte de la disparité en son ensemble.

La deuxième bombe concerne les recherches de l’activiste lesbienne, le Dr Lisa Diamond, de l’American Psychological Association (APA), qui vient de reconnaître que l’orientation sexuelle est « fluide » et susceptible de changer. Ce faisant, elle a confirmé que l’idée selon laquelle « les homosexuels ne peuvent pas changer » est aujourd’hui une théorie dans l’impasse. La recherche, a-t-elle assuré lors d’une conférence à Cornell University, a aujourd’hui établi que « l’orientation sexuelle, y compris l’attraction, le comportement et l’identité perçue, est fluide à la fois pour les adolescents et pour les adultes des deux genres », résume REAL Women. Et pourtant, des lois de divers Etats des Etats-Unis ainsi que de l’Ontario interdisent la « thérapie réparatrice » qui cherche à venir en aide aux patients aux prises avec une attraction homosexuelle dont ils ne veulent pas. Ces lois sont fondées sur l’immutabilité de l’orientation sexuelle, dont la science vient pourtant de confirmer qu’il s’agit d’un mythe.

Les grands médias n’ont pas donné un grand retentissement à ces études mais la panique gagne les groupements LGBT. Le groupe homosexualiste Human Rights Campaign s’est fendue d’une attaque frontale contre New Atlantis, accusant les auteurs de l’étude, Mayer et McHugh, de faire de l’activisme anti-LGBTQ pour « marginaliser » les gens à travers des « déclarations trompeuses » et des « interprétations tendancieuses ». La réponse n’a pas tardé : l’équipe éditoriale de New Atlantis a tôt fait de démontrer que la plupart des accusations du HRC étaient fondée sur des « distorsions » du texte initial.

La France vient de lancer un plan de propagande LGBT, sur la base de mythes. Ces vérités officielles ne peuvent survivre qu'avec l'appui de la force publique. On appelle cela le totalitarisme.

Michel Janva

http://lesalonbeige.blogs.com/my_weblog/web.html

17/11/2016

Galileo, les limites de « leur » Europe

C’est aujourd’hui qu’Emmanuel Macron annonce sa déclaration de candidature à la présidentielle. Fini la visite au Puy-du-Fou, c’est sous le signe des banlieues, du multiculturalisme, de la France plurielle que l’ex ministre de l’Economie et protégé de Jacques Attali se lance dans la course. Aujourd’hui à Bobigny (Seine-Saint-Denis), il sera demain dans le 13e arrondissement de Marseille, dont le maire n’est autre que notre camarade Stéphane Ravier. M. Macron a placé résolument son combat sous le signe de la lutte contre le populisme, le FN, et en cela il ne diffère guère de ses concurrents  Mais aussi peut être avec moins d’ambiguïté, plus de franchise que d’autres, en faveur de l’ouverture libérale et d’une adhésion renouvelée à l’Europe libre-échangiste bruxelloise.Une Europe dont il est encore question dans l’actualité pour se féliciter d’une de ses réussites (la réalité est en fait bien plus contrastée) avec le lacement ces prochaines heures par la fusée Ariane de quatre nouveaux satellites du programme de la constellation Galileo. Saluons de nouveau ici le niveau d’excellence de nos ingénieurs et techniciens, de notre bade de Kourou et de l’agence spatiale européenne, capables de réaliser ce type de mission toujours très délicates. Et félicitons nous de cette réponse du vieux continent, bénéficiant des dernières avancées technologiques, au système de localisation yankee, qui devrait être encore plus précis et performant que le GPS américain

L’enjeu n’est pas mince. Outre les nombreux pays a travers le monde intéressés par une coopération au sein de ce projet,  la Commission européenne rappelait dans un communiqué en janvier 2011 que «le marché mondial des applications de navigation par satellite devrait atteindre une valeur de 240 milliards d’euros d’ici 2020 et connaît un rythme de croissance de 30 % depuis quelques années. Selon les estimations, 6 à 7 % du PIB des pays développés (800 milliards d’euros en Europe) dépendent actuellement de la navigation par satellite.»

Bruno Gollnisch l’a dit, il estime que « la recherche est un des rares domaines légitimes de coopération au niveau de l’Union européenne», citant à l’appui de son propos le financement de certaines infrastructures de transports mais aussi des programmes comme Airbus, Ariane, Erasmus, ITER, le Cern ou encore Galileo . Rappelons tout de même, et  les députés frontistes s’en sont souvent émus, que ce programme Galileo, lancé et financé par la Commission européenne en 1999, devait être mis en service il y a déjà neuf ans et a empilé les retards.

Dans un rapport remis au Premier ministre en début d’année,  la Cour des comptes relevait le coût, sur la période 1994-2020, des programmes Galileo et EGNOS (European Geostationary Navigation Overlay Service, soit Service Européen de Navigation par Recouvrement Géostationnaire). En l’espèce «plus de 13 milliards d’euros» (trois fois plus que la somme initiale annoncée de 4,6 milliards d’euros), dont «2,45 milliards» pour notre pays. Dans le détail plus de 10,2 milliards d’euros ont été dépensées pour le seul programme Galileo dont la moitié avait été utilisée à fin 2013.

La Cour des comptes pointe ce qui relève des impondérables difficiles à budgéter («les déboires techniques») , mais aussi «une conduite de projet peu performante», citant la facture du déploiement EGNOS, (700 millions d’euros, «soit deux fois plus cher que prévu»).

Les Sages, qui face à la concurrence d’uns service gratuit comme le GPS appelaient «à réviser à la baisse les perspectives de recettes commerciales susceptibles d’être procurées directement par Galileo»,  dont les applications seront déclinées sous forme d’un service ouvert et gratuit ou d’un service commercial et payant, insistaient cependant sur la nécessaire promotion commerciale de Galileo et Egnos. Ils déploraient que la France, qui a joué un rôle de tout premier plan dans leur élaboration, ne s’investisse que trop  timidement.  Or, « le succès de la nouvelle infrastructure européenne requiert une promotion efficace de ses utilisations potentielles, en s’appuyant particulièrement sur les avantages de Galileo soit son service commercial (payant), par rapport au GPS».

«(L’influence de la France) s’est, ces dernières années, érodée dans les instances de pilotage de la maîtrise d’ouvrage des deux programmes», la Cour pointant «la faible visibilité politique d’EGNOS et de Galileo», l’avenir incertain des deux programmes. «Tout comme sur le plan industriel, le risque existe que la France ne tire pas suffisamment parti de Galileo et d’EGNOS, après en avoir été pourtant le premier et le plus tenace promoteur».

Bruno Gollnisch le répète,  les grandes réussites dites européennes ne doivent rien à l’Europe bruxelloise. Elles sont d’abord à mettre « au crédit de l’excellence de nos scientifiques, ingénieurs, chercheurs Français et Européens, le fruit d’une coopération concrète menée hors du cadre de l’Union européenne »… C’est cette Europe des nations performante là, cette Europe de la libre coopération qui a les faveurs du FN. Une Europe de libre coopération des nations libres qui auraient été certainement plus  à même d’éviter les écueils qui ont frappé le projet  Galileo, «les tergiversations et les imbroglios politico-administratifs». En 2005, les élus frontistes au parlement européen relevaient qu’au moins cinq ans avaient été perdus du fait de la méthode choisie : partenariat public-privé, coopération internationale au delà de l’Union européenne, participation impérative de tous les Etats-membres, rôle imposé de la Commission européenne…

Enfin, rappelons aussi une crainte exprimée par Bruno Gollnisch, au sujet de la faille que laisse apparaître Galileo quant à l’autonomie politique, du fait de sa vocation purement civile qui laisse l’Europe dans la dépendance du système militaire américain pour les applications de défense.

http://gollnisch.com/2016/11/16/galileo-limites-de-europe/

07:38 Écrit par pat dans actualité, Europe, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

04/10/2016

Journal du Mardi 4 octobre 2016 - Société / Le mondial de l’auto dans la ville anti-voiture

11/07/2016

L'avenir à l'ère de Tesla

17/05/2016

Philippe Mesnard - Le transhumanisme

18/04/2016

#Nuit debout - Orages d'acier - 10/04/16

31/03/2016

Henri Poincaré, « le dernier grand savant universel »

Jules Henri Poincaré est né le 29 avril 1854 à Nancy et mort le 17 juillet 1912 à Paris. Il fut un mathématicien hors pair, physicien, philosophe et ingénieur. Il a réalisé des travaux d’importance majeure en optique et en calcul infinitésimal.

Ses avancées sur le problème des trois corps en font un fondateur de l’étude qualitative des systèmes d’équations différentielles et de la théorie du chaos ; il est aussi un précurseur majeur de la théorie de la relativité restreinte et de la théorie des systèmes dynamiques. Enfin, il est aussi connu des physiciens pour ses études sur la stabilité du système solaire, mais aussi des cercles philosophiques pour ses réflexions sur les fondements des sciences.

Les études de Poincaré sont brillantes: plusieurs fois premier prix au Concours Général, bachelier ès lettres, bachelier ès sciences. En Mathématiques Spéciales, il se lie d’amitié avec Paul Appell, qui deviendra lui aussi un très bon mathématicien. Reçu à l’École Normale Supérieure, et à l’École Polytechnique, il opte pour cette dernière.

Sorti ingénieur des Mines, Poincaré se consacre toutefois à la rédaction d’une thèse de doctorat qu’il défend le 1er octobre 1879. Le 20 avril 1881, Henri épouse Louise Poulain d’Andecy, avec qui il aura 3 filles et un fils. Le couple s’établit à Paris car Henri vient d’être nommé maître de conférences à la Sorbonne. C’est le début d’une intense activité scientifique pour Poincaré.

C’est en 1889 que le nom d’Henri Poincaré devient vraiment connu de tous. Il reçoit en effet le prix du roi Oscar de Norvège et de Suède, un passionné de mathématiques, pour un brillant mémoire sur le problème des trois corps.

En physique proprement dite, il s’est notamment penché sur la polarisation de la lumière par diffraction, les ondes hertziennes et la théorie de Lorentz, où il préfigure certains aspects de la relativité restreinte. Il possède tous les éléments de cette théorie en 1904, à la veille des travaux décisifs d’Albert Einstein. Il adhère pleinement au principe de relativité comme loi générale de la nature. Mais, s’il s’approche des conceptions d’Einstein, il n’a pas l’audace nécessaire pour franchir le pas et nier par exemple la simultanéité absolue, à distance, des phénomènes.

En 30 ans, il publie une trentaine de volumes, et près de 500 notes, articles ou longs mémoires. Ses travaux changeront totalement le paysage mathématique de son époque. Il crée notamment de toutes pièces la théorie des fonctions fuchsiennes, révolutionne l’étude des équations différentielles par ses études qualitatives de solutions.

Poincaré était également un philosophe des sciences reconnu. Dans « La Science et l’hypothèse« , publié en 1902, il affirme le rôle essentiel du principe de récurrence. Plus tard, il interviendra dans la crise des fondements des mathématiques, s’opposant aux idées de Hilbert et de Russell. Le 28 juin 1909, il entre à l’Académie Française, privilège rare pour un scientifique.

Bibmath, Le Larousse & les articles de Keswani dans The British Journal for the Philosophy of Science

http://www.fdesouche.com/711213-ces-francais-extraordinai...

09:46 Écrit par pat dans culture et histoire, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

08/03/2016

Soutien inattendu à Apple contre le FBI

Apple et le FBI se livrent une bataille sans merci autour du décryptage d’un iPhone utilisé lors de l’attentat de San Bernardino. Le constructeur à la pomme a reçu le soutien de l’ONU

C’est un soutien de poids qu’a reçu Apple dans sa bataille juridique et communicationnelle contre le FBI. Il n’est en effet pas courant que les Nations Unies se positionnent en faveur d’une entreprise privée contre un État.
Bref rappel des faits pour ceux qui n’auraient pas suivi l’affaire : le FBI demande à Apple de concevoir un procédé permettant d’accéder aux données cryptées contenues dans l’iPhone d’un des terroristes musulmans auteur de la tuerie de San Bernardino, en Californie (14 morts). L’agence fédérale accuse le constructeur californien de faire obstruction à une enquête pour terrorisme et met en avant la sécurité des Américains.
Outre une base juridique mince et qui a été depuis invalidée, Apple craint que cela ne crée un dangereux précédent, permettant non seulement aux USA, mais aussi à tous les régimes autoritaires de la planète, d’exiger le « déplombage » des téléphones à la pomme, compromettant gravement le respect de la vie privée et les libertés publiques. Le FBI a d’ailleurs fini par admettre qu’il comptait bien s’appuyer sur le succès de la requête de San Bernardino pour pousser d’autres demandes similaires.

L’affaire a fait pas mal de bruit jusque sur notre rive de l’Atlantique, avec notamment l’amendement Ciotti au projet de loi de réforme pénale, qui prévoyait des amendes allant jusqu’à 2 millions d’euros et d’interdire la commercialisation de produits ou services dont les concepteurs refusent de coopérer avec la justice. Il a été rejeté d’une courte tête.

C’est donc l’ONU, par la voix de son haut-commissaire aux droits de l’homme, le prince Zeid bin Ra’ad, qui vient de prendre position dans le débat qui oppose Apple au FBI. En l’espèce, l’organisation internationale plaide en faveur de la firme de Cupertino au motif que permettre aux autorités fédérales américaines d’accéder aux données chiffrées d’un iPhone reviendrait à, pour reprendre les termes du prince, « ouvrir la boîte de Pandore » et faire un cadeau aux régimes autoritaires et aux pirates informatiques.

Le chiffrement et l’anonymat sont nécessaires pour préserver la liberté d’expression et d’opinion, ainsi que le droit à la vie privée. Il n’est pas exagéré de dire que, sans outils de chiffrement, des vies seraient en danger. […] Les autorités risquent d’ouvrir une boîte de Pandore, et cela pourrait avoir des conséquences extrêmement graves pour les droits humains de millions des gens ainsi que pour leur sécurité financière et physique.

Quoi que l’on pense de l’ONU, de la présence à la tête de la commission aux droits de l’homme d’un prince saoudien et de ses éventuelles arrière-pensées, force est de reconnaître que cet avis est frappé au coin du bon sens. Il est faux de croire que nous sommes placés face à un dilemme entre nos libertés civiles et notre sécurité. Si Apple cède, nous ouvrons effectivement la boîte de Pandore, mais, au-delà de la seule affaire de San Bernardino, nous ne gagnerons rien : qui peut croire, en toute honnêteté, que les terroristes sont assez stupides pour continuer à utiliser des iPhone s’ils savent que le FBI dispose d’un moyen d’accéder à leurs données ?

En revanche, il est certain que si le constructeur à la pomme cède au FBI, c’est un clou de plus dans le cercueil de nos libertés publiques et de notre droit à l’intimité. Une fois de plus, le terrorisme est une merveilleuse occasion pour nos dirigeants de réduire nos libertés au nom de la sécurité. Et la citation de Benjamin Franklin qui circule beaucoup n’en reste pas moins pertinente :

Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l’une ni l’autre, et finit par perdre les deux.

http://fr.novopress.info/199138/soutien-inattendu-apple-c...

28/02/2016

Révolution numérique : miracle ou imposture. 2e partie

On est fasciné par la technologie numérique, sans comparer rationnellement ses avantages et ses inconvénients. Une innovation technologique n’a de sens – depuis la révolution néolithique – que si elle fait baisser les coûts et les efforts de production des biens et services et augmente leur nombre et leurs qualités. Comme nous l’avons vu dans la première partie de cet article, l’utilité marginale des technologies informatiques et numériques depuis les années 80 est en baisse par rapport à celle des révolutions techno–industrielles précédentes. Problème.   

Une révolution technologique non maîtrisée

Ni l’informatique, ni Internet ni le smartphone, ni le GPS, etc. n’ont créé de bouleversements ni d’améliorations comparables aux innovations de la période 1840–1960. C’est le phénomène de l’utilité marginale décroissante. La révolution numérique crée des mutations comportementales, sociales et économiques mais au fond assez peu d’améliorations concrètes en termes de performances et de commodités ou même d’emplois créés : les innovations technologiques de l’informatique de seconde génération, n’ont pas généré le moindre emploi supplémentaire.  Elles n’ont pas accéléré non plus la transmission des informations. Et parfois elles l’ont ralentie du fait de la complexité et de la fragilité des nouvelles machines. Quand j’envoie un SMS à un correspondant, mon message ne va pas plus vite que jadis un appel téléphonique sur un poste fixe avec fil ; en revanche, le système est moins fiable et…plus cher – contrairement à ce que croit le consommateur abusé.   

Les précédentes révolutions industrielles ont connu un  développement linéaire ; la révolution numérique connaît un développement géométrique, exponentiel. Loi de Moore : la puissance des ordinateurs double tous les dix-huit mois. En réalité, c’est, selon moi, inexact : ce n’est pas la puissance électro-physique des ordinateurs qui double à cette allure, mais ce sont leurs champs d’applications, leurs connections.

La révolution numérique n’épargne aucune activité ; mais cette largeur d’éventail n’est pas synonyme d’amélioration.  Contrairement aux premières révolutions industrielles, les sociétés n’ont pas le temps de s’adapter au processus galopant de la révolution numérique. Cette dernière, comme toutes les mutations techno-économiques de l’histoire – mais bien plus encore –  s’apparente à un phénomène subi dont on n’a pas prévu  les conséquences ; ou plus exactement, dont les conséquences surprenantes ne sont pas exactement celles recherchées : c’est l’ « hétérotélie » décrite par Jules Monnerot. Heidegger parlait à propos de la progression de l’économie technologique de « processus sans sujet ».   

Une révolution technologique en trompe l’oeil

Les nanotechnologies et les biotechnologies, dont les prix baissent continuellement, n’amèneront probablement pas la même valeur ajoutée globale que les innovations des précédentes révolutions industrielles. Elles sont frappées par le redoutable effet marginal déclinant, c’est-à-dire la dégradation mathématique du rapport entre le coût des innovations et le bénéfice de leurs résultats. 

Les voitures électriques autoguidées, les bio-organes de remplacement, les objets connectés qui obéissent à la voix, les puces implantées dans le cerveau et autres ”innovations” n’auront certainement pas les mêmes effets révolutionnaires que le moteur à explosion, le téléphone, le macadam, la radio, la pénicilline ou l’avion.   

Les deux premières révolutions industrielles (vapeur et électricité + moteur à explosion) ont été précédées par d’importantes innovations techniques. D’où le bouleversement des systèmes de production, de distribution et de consommation et, en conséquence, transformation des sociétés. En effet, depuis le néolithique (invention de l’agriculture et de l’élevage), les innovations technologiques sont les racines causales des mutations des civilisations, y compris dans le domaine artistique. Avec la biologie (démographie et caractéristiques héréditaires des populations), la technologie est le second pilier de l’infrastructure des civilisations.

Les deux premières révolutions industrielles ont considérablement accru le niveau et l’espérance de vie, comme le confort matériel (et provoqué dans le monde entier une explosion démographique par recul de la mortalité) parce qu’à l’offre économique technique répondait, comme cause/effet, la demande d’une classe moyenne aisée en constante expansion. Mon soupçon est que les deux révolutions techno–industrielles suivantes à partir de la fin du XXe siècle (informatique puis numérique) ne produiront pas les mêmes effets.

Artefacts et gadgets

La sécurité bancaire a été dégradée par le numérique, et les achats ou paiements en ligne ne sont pas fiables. Aucun site n’est réellement sécurisé. Pourquoi ? Parce que derrière les machines, il y a les hommes et donc leur proportion constante d’escrocs.

En matière de rapidité et de fiabilité dans la transmission des informations, les techniques  électroniques et numériques n’ont pas montré une supériorité écrasante. Le ” facteur d’incertitude” est une cause : on s’en remet aux machines, aux process artificiels, toujours menacés par une panne ou un piratage, ce qui est créateur d’angoisse, donc de baisse de la qualité du travail et de hausse des coûts de protection. 

 Cette ”révolution numérique” produit beaucoup de spectacles, de simulacres et d’artefacts, bouleversements apparents plus que concrets, qui ne simplifient pas forcément le quotidien. Festivisme et spectacularisme. En tant que journaliste, quand j’écrivais et envoyais mes articles par les procédés traditionnels (machine à écrire et offset) la rapidité et la fiabilité étaient plutôt supérieures aux procédés numériques actuels. Où est donc le ”progrès ” ?

Ce phénomène est connu des historiens des sciences et des techniques : la baroquisation et la complexification de certaines technologies qui finissent par les rendre plus chères et moins efficaces, sous prétexte d’innovation à tout prix. De fait, la multiplication d’artefacts, d’applications et d’objets virtuels et non pas réels, rend l’environnement technique plus lourd, plus encombré. Ces béquilles informatiques et numériques de plus en plus nombreuses (voir les applications des smartphones) ne procurent pas une véritable valeur ajoutée mais s’imposent comme desgadgets. Ces artefacts–gadgets sont souvent des illusions pour les consommateurs fascinés mais une source de profit importante pour les sociétés qui les créent.  Charlatanisme ?    

Les six inconvénients majeurs de l’économie numérique et d’Internet 

Ils n’abolissent évidemment tous leurs indéniables avantages. Mais il faut les recenser pour mieux les combattre.    

1) Une cybercriminalité non maîtrisée

L’explosion des escroqueries et des arnarques dans les transactions, ainsi que la piraterie et le cyber–terrorisme ont généré une cybercriminalité (entreprises, États, institutions, particuliers) qui est plus forte que toutes les contre mesures. Sans oublier la radicalisation djihadiste, les réseaux de prostitution ou de pédophilie favorisés par le Web. D’où le risque global de fragilisation du nouveau système et, à terme, sa rétraction, si les choses s’aggravent trop.   

2) Une complexification  des processus

La promesse de facilitation des tâches par l’économie numérique et Internet n’est pas toujours au rendez-vous, bien au contraire. Les bugs incessants, les logiciels mal conçus (plus de 50%) et la mauvaise formation des utilisateurs contribuent à dégrader le nouveau système ”miraculeux”.   

La complexité remplace souvent la commodité promise. Le slogan est connu : ” d’un simple clic, tout est facile”. Hélas, tout est souvent rendu beaucoup plus difficile, plus lent et plus cher ; pour les particuliers comme pour les entreprises. Mentionnons les ”e-billets” d’avion ou de train, les démarches ou renseignements administratifs par Internet ou robots répondeurs téléphoniques, etc. J’y reviendrai.

3) Une dépendance paralysante envers la machine

Des tâches qui, jadis, semblaient simplissimes requièrent aujourd’hui un environnement informatique très couteux et pas toujours très fiable, avec souvent  une dégradation des prestations par rapport à l’ancien système. De plus, à l’échelle macroéconomique, l’énorme consommation énergétique des ordinateurs sur la planète et des centres de stockage des données (big data) n‘est pas vraiment écologique… 

4) Une fragilisation des échanges financiers  

 L’instantanéité par algorithmes des transactions financières (Bourse, emprunts, etc.) est préoccupante. L’ordinateur quasi-autonome a remplacé la Corbeille et les réflexions ou calculs humains. Ce qui favorise une volatilité des échanges, source de spéculations hors contrôle et de dérapages : effets de panique ou d’enthousiasme artificiels. La sphère financière mondiale, robotisée et non plus maîtrisée, est devenue une source de crises brutales et imprévisibles. : les bulles de savon, qui crèvent aussi vite qu’elles ont grossi.  

5) Une baisse de fiabilité des informations

Le raz-de-marée de communication et d’informations charriés par Internet autorise toutes les impostures, les désinformations, les erreurs à répétition, les rumeurs infondées. Il n’y a plus de hiérarchie des informations, plus de recul. Trop d’impôt tue l’impôt ; trop de communication et d’informations tue la communication et l’information.

 6) Une menace pour les libertés individuelles

Pour l’instant, l’accessibilité de toutes les données et profils individuels se limite au ciblage publicitaire par les algorithmes. Mais demain, un État ou une organisation pourront faire pression sur un individu par ce moyen, en espionnant tout son contenu Internet et numérique. Néanmoins, cela pose un problème, concernant la surveillance des réseaux terroristes, et il est loin d’être résolu, comme le montre le conflit entre Google et le gouvernement américain.   

La possibilité d’un déclin d’Internet

Bien entendu, ces constats n’annulent pas les avantages d’Internet et de la révolution numérique, par la création d’une Toile en réseau qui joue le rôle d’un super cerveau planétaire. Simplement, il faut toujours comparer les avantages et les inconvénients d’un nouveau système, sans oublier ces derniers : ils sont une menace pour Internet, à cause de sa fragilité et de sa faible fiabilité en matière de protection des échanges.

Déjà des entreprises, des organisations, des individus ont délaissé les communications numériques pour des raisons de sécurité.  Puisque même les procédés de cryptage sont cassables. Ils en sont revenus aux vieux systèmes,  comme le courrier écrit, un peu plus lent mais nettement plus fiable et plus discret. Il faut savoir, par exemple, que la majorité des sociétés américaines travaillant pour la Défense ou des secteurs nationaux sensibles interdisent à leurs cadres de communiquer par Internet ou réseaux sociaux  Tout doit  passer par le courrier écrit traditionnel, pratiquement impossible à intercepter. Intéressant… La troisième partie de cet article sur la révolution numérique sera publiée très bientôt (1) J’y aborderai notamment les illusions du big data et des réseaux sociaux.

(1) Le prochain article concernera le Front National. Il s’intitulera : « L’ennemi du FN a un nom : Florian Philippot ».

http://www.gfaye.com/revolution-numerique-miracle-ou-impo...

20:32 Écrit par pat dans lobby, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

24/02/2016

[Paris] JEAN-MARIE LE MENE AU CERCLE DE FLORE, le 18 mars

A Paris, vendredi 18 mars à 20h00, ne manquez pas le prochain Cercle de Flore.

Jean-Marie Le Mené, président de la Fondation Jérôme-Lejeune. viendra présenter son dernier ouvrage "Les premières victimes du transhumanisme"

Vendredi 18 mars 2016, à 20h00

10 rue Croix des Petits Champs 75001 Paris, Escalier A, 2 ème étage

M° Palais-Royal

PAF : 3€ , gratuité pour les adhérents.

cercle_de_flore_le_mene.jpg

http://www.actionfrancaise.net/craf/?Paris-JEAN-MARIE-LE-...

 

21/02/2016

Révolution numérique : miracle ou imposture ? (2e partie) – par Guillaume Faye

avec Guillaume Faye)

On est fasciné par la technologie numérique, sans comparer rationnellement ses avantages et ses inconvénients. Une innovation technologique n’a de sens – depuis la révolution néolithique – que si elle fait baisser les coûts et les efforts de production des biens et services et augmente leur nombre et leurs qualités. Comme nous l’avons vu dans la première partie de cet article, l’utilité marginale des technologies informatiques et numériques depuis les années 80 est en baisse par rapport à celle des révolutions techno–industrielles précédentes. Problème.

Une révolution technologique non maîtrisée

Ni l’informatique, ni Internet ni le smartphone, ni le GPS, etc. n’ont créé de bouleversements ni d’améliorations comparables aux innovations de la période 1840–1960. C’est le phénomène de l’utilité marginale décroissante. La révolution numérique crée des mutations comportementales, sociales et économiques mais au fond assez peu d’améliorations concrètes en termes de performances et de commodités ou même d’emplois créés : les innovations technologiques de l’informatique de seconde génération, n’ont pas généré le moindre emploi supplémentaire. Elles n’ont pas accéléré non plus la transmission des informations. Et parfois elles l’ont ralentie du fait de la complexité et de la fragilité des nouvelles machines. Quand j’envoie un SMS à un correspondant, mon message ne va pas plus vite que jadis un appel téléphonique sur un poste fixe avec fil ; en revanche, le système est moins fiable et…plus cher – contrairement à ce que croit le consommateur abusé.

Les précédentes révolutions industrielles ont connu un développement linéaire ; la révolution numérique connaît un développement géométrique, exponentiel. Loi de Moore : la puissance des ordinateurs double tous les dix-huit mois. En réalité, c’est, selon moi, inexact : ce n’est pas la puissance électro-physique des ordinateurs qui double à cette allure, mais ce sont leurs champs d’applications, leurs connections.

La révolution numérique n’épargne aucune activité ; mais cette largeur d’éventail n’est pas synonyme d’amélioration. Contrairement aux premières révolutions industrielles, les sociétés n’ont pas le temps de s’adapter au processus galopant de la révolution numérique. Cette dernière, comme toutes les mutations techno-économiques de l’histoire – mais bien plus encore – s’apparente à un phénomène subi dont on n’a pas prévu les conséquences ; ou plus exactement, dont les conséquences surprenantes ne sont pas exactement celles recherchées : c’est l’ « hétérotélie » décrite par Jules Monnerot. Heidegger parlait à propos de la progression de l’économie technologique de « processus sans sujet ».

Une révolution technologique en trompe l’oeil

Les nanotechnologies et les biotechnologies, dont les prix baissent continuellement, n’amèneront probablement pas la même valeur ajoutée globale que les innovations des précédentes révolutions industrielles. Elles sont frappées par le redoutable effet marginal déclinant, c’est-à-dire la dégradation mathématique du rapport entre le coût des innovations et le bénéfice de leurs résultats.

Les voitures électriques autoguidées, les bio-organes de remplacement, les objets connectés qui obéissent à la voix, les puces implantées dans le cerveau et autres ”innovations” n’auront certainement pas les mêmes effets révolutionnaires que le moteur à explosion, le téléphone, le macadam, la radio, la pénicilline ou l’avion.

Les deux premières révolutions industrielles (vapeur et électricité + moteur à explosion) ont été précédées par d’importantes innovations techniques. D’où le bouleversement des systèmes de production, de distribution et de consommation et, en conséquence, transformation des sociétés. En effet, depuis le néolithique (invention de l’agriculture et de l’élevage), les innovations technologiques sont les racines causales des mutations des civilisations, y compris dans le domaine artistique. Avec la biologie (démographie et caractéristiques héréditaires des populations), la technologie est le second pilier de l’infrastructure des civilisations.

Les deux premières révolutions industrielles ont considérablement accru le niveau et l’espérance de vie, comme le confort matériel (et provoqué dans le monde entier une explosion démographique par recul de la mortalité) parce qu’à l’offre économique technique répondait, comme cause/effet, la demande d’une classe moyenne aisée en constante expansion. Mon soupçon est que les deux révolutions techno–industrielles suivantes à partir de la fin du XXe siècle (informatique puis numérique) ne produiront pas les mêmes effets.

Artefacts et gadgets

La sécurité bancaire a été dégradée par le numérique, et les achats ou paiements en ligne ne sont pas fiables. Aucun site n’est réellement sécurisé. Pourquoi ? Parce que derrière les machines, il y a les hommes et donc leur proportion constante d’escrocs.

En matière de rapidité et de fiabilité dans la transmission des informations, les techniques électroniques et numériques n’ont pas montré une supériorité écrasante. Le ” facteur d’incertitude” est une cause : on s’en remet aux machines, aux process artificiels, toujours menacés par une panne ou un piratage, ce qui est créateur d’angoisse, donc de baisse de la qualité du travail et de hausse des coûts de protection.

Cette ”révolution numérique” produit beaucoup de spectacles, de simulacres et d’artefacts, bouleversements apparents plus que concrets, qui ne simplifient pas forcément le quotidien. Festivisme et spectacularisme. En tant que journaliste, quand j’écrivais et envoyais mes articles par les procédés traditionnels (machine à écrire et offset) la rapidité et la fiabilité étaient plutôt supérieures aux procédés numériques actuels. Où est donc le ”progrès ” ?

Ce phénomène est connu des historiens des sciences et des techniques : la baroquisation et la complexification de certaines technologies qui finissent par les rendre plus chères et moins efficaces, sous prétexte d’innovation à tout prix. De fait, la multiplication d’artefacts, d’applications et d’objets virtuels et non pas réels, rend l’environnement technique plus lourd, plus encombré. Ces béquilles informatiques et numériques de plus en plus nombreuses (voir les applications des smartphones) ne procurent pas une véritable valeur ajoutée mais s’imposent comme des gadgets. Ces artefacts–gadgets sont souvent des illusions pour les consommateurs fascinés mais une source de profit importante pour les sociétés qui les créent. Charlatanisme ?

Les six inconvénients majeurs de l’économie numérique et d’Internet

Ils n’abolissent évidemment tous leurs indéniables avantages. Mais il faut les recenser pour mieux les combattre.

1) Une cybercriminalité non maîtrisée

L’explosion des escroqueries et des arnarques dans les transactions, ainsi que la piraterie et le cyber–terrorisme ont généré une cybercriminalité (entreprises, États, institutions, particuliers) qui est plus forte que toutes les contre mesures. Sans oublier la radicalisation djihadiste, les réseaux de prostitution ou de pédophilie favorisés par le Web. D’où le risque global de fragilisation du nouveau système et, à terme, sa rétraction, si les choses s’aggravent trop.

2) Une complexification des processus

La promesse de facilitation des tâches par l’économie numérique et Internet n’est pas toujours au rendez-vous, bien au contraire. Les bugs incessants, les logiciels mal conçus (plus de 50%) et la mauvaise formation des utilisateurs contribuent à dégrader le nouveau système ”miraculeux”.

La complexité remplace souvent la commodité promise. Le slogan est connu : ” d’un simple clic, tout est facile”. Hélas, tout est souvent rendu beaucoup plus difficile, plus lent et plus cher ; pour les particuliers comme pour les entreprises. Mentionnons les ”e-billets” d’avion ou de train, les démarches ou renseignements administratifs par Internet ou robots répondeurs téléphoniques, etc. J’y reviendrai.

3) Une dépendance paralysante envers la machine

Des tâches qui, jadis, semblaient simplissimes requièrent aujourd’hui un environnement informatique très couteux et pas toujours très fiable, avec souvent une dégradation des prestations par rapport à l’ancien système. De plus, à l’échelle macroéconomique, l’énorme consommation énergétique des ordinateurs sur la planète et des centres de stockage des données (big data) n‘est pas vraiment écologique…

4) Une fragilisation des échanges financiers

L’instantanéité par algorithmes des transactions financières (Bourse, emprunts, etc.) est préoccupante. L’ordinateur quasi-autonome a remplacé la Corbeille et les réflexions ou calculs humains. Ce qui favorise une volatilité des échanges, source de spéculations hors contrôle et de dérapages : effets de panique ou d’enthousiasme artificiels. La sphère financière mondiale, robotisée et non plus maîtrisée, est devenue une source de crises brutales et imprévisibles. : les bulles de savon, qui crèvent aussi vite qu’elles ont grossi.

5) Une baisse de fiabilité des informations

Le raz-de-marée de communication et d’informations charriés par Internet autorise toutes les impostures, les désinformations, les erreurs à répétition, les rumeurs infondées. Il n’y a plus de hiérarchie des informations, plus de recul. Trop d’impôt tue l’impôt ; trop de communication et d’informations tue la communication et l’information.

6) Une menace pour les libertés individuelles

Pour l’instant, l’accessibilité de toutes les données et profils individuels se limite au ciblage publicitaire par les algorithmes. Mais demain, un État ou une organisation pourront faire pression sur un individu par ce moyen, en espionnant tout son contenu Internet et numérique. Néanmoins, cela pose un problème, concernant la surveillance des réseaux terroristes, et il est loin d’être résolu, comme le montre le conflit entre Google et le gouvernement américain.

La possibilité d’un déclin d’Internet

Bien entendu, ces constats n’annulent pas les avantages d’Internet et de la révolution numérique, par la création d’une Toile en réseau qui joue le rôle d’un super cerveau planétaire. Simplement, il faut toujours comparer les avantages et les inconvénients d’un nouveau système, sans oublier ces derniers : ils sont une menace pour Internet, à cause de sa fragilité et de sa faible fiabilité en matière de protection des échanges.

Déjà des entreprises, des organisations, des individus ont délaissé les communications numériques pour des raisons de sécurité. Puisque même les procédés de cryptage sont cassables. Ils en sont revenus aux vieux systèmes, comme le courrier écrit, un peu plus lent mais nettement plus fiable et plus discret. Il faut savoir, par exemple, que la majorité des sociétés américaines travaillant pour la Défense ou des secteurs nationaux sensibles interdisent à leurs cadres de communiquer par Internet ou réseaux sociaux Tout doit passer par le courrier écrit traditionnel, pratiquement impossible à intercepter. Intéressant… La troisième partie de cet article sur la révolution numérique sera publiée très bientôt (1) J’y aborderai notamment les illusions du big data et des réseaux sociaux.

PS : Pour relire la 1ère partie, c’est ici !

http://fr.novopress.info/198490/revolution-numerique-mira...

15/02/2016

Révolution numérique : miracle ou imposture ? 1ère partie

Cet  article de fond, qui sera publié en quatre parties distinctes au cours de ce mois de février, pose la question : la révolution numérique et Internet ne seraient-ils pas des faux-semblants, qui n’amènent pas d’améliorations substantielles mais au contraire compliquent les choses ? Cette hypothèse incorrecte doit être soigneusement examinée.   

La petite musique de l’utopie numérique

 Le journaliste économique Jean–Pierre Robin, assez sceptique envers les promesses de cette révolution numérique, écrit dans Le Figaro : « L’utopie est au coin de la rue. À moins qu’elle ne transmue en son contraire, la dystopie, dont la plus célèbre, Le Meilleur des Mondes d’Aldous Huxley  semble avoir anticipé très exactement le nôtre : moyens de surveillance tentaculaires, perte de confidentialité, grégarisme des comportements ».

 La révolution numérique nous promet aussi la transplantation d’organes artificiels fabriquées par des imprimantes 3D, la robotique généralisée, les nanomatériaux, (le graphène, 100 fois plus résistant que l’acier), l’Internet des objets, la connexion aux capteurs (un milliard de capteurs prévus  en 2025) et des tas d’autres merveilles, notamment le fameux ”surhumanisme”. Nous verrons plus loin, dans le cours de cet article, qu’il s’agit souvent de plaisanteries.  

 Dans The Fourth Industrial Révolution, Klaus Schwab, l’organisateur des forums de Davos, explique que cette quatrième révolution techno-industrielle est caractérisée par trois facteurs  : «  sa rapidité (contrairement aux autres révolutions industrielles, son évolution est exponentielle et non pas linéaire) ; son amplitude (de multiples techniques sont à l’œuvre) ; son impact systémique (sur les entreprises, les pays et la société »).

Selon deux chercheurs du MIT, Erik Brynjolfsson et Andrew McAfee, nous entrons dans « le deuxième âge de la machine ». Cette révolution technologique pourrait « rendre les hommes inutiles », notamment les moins qualifiés et provoquer des inégalités ingérables. Jusqu’à présent, selon eux, la performance instrumentale des machines progressait de 2% à 5% par an. Actuellement, elle aurait doublé.  

La révolution numérique serait porteuse d’ « innovations disruptives », terme crée en 1995 par l’Américain Clayton Christensen (« disruptive technology »), c’est-à-dire de ruptures technologiques qui modifient le fonctionnement de l’économie et bouleversent les modes de vie. Ce fut déjà le cas avec la machine à vapeur, l’électricité et l’ordinateur.

C’est précisément ce que je conteste : la révolution numérique n’est pas ”disruptive ”. Ses bouleversements sont beaucoup moins puissants que ceux des précédentes révolutions industrielles. Et surtout, ses effets négatifs sont inquiétants.  

Le mythe de la ”quatrième révolution industrielle”

La première révolution industrielle – début du XIXe siècle– s’organisait autour de la machine à vapeur, la deuxième (fin du XIXe) autour de l’électricité, la troisième autour de l’informatique (milieu XXe). La quatrième révolution (début XXIe), issue des deux dernières, l’électrique et l’électronique, concernerait la généralisation d’Internet et des connections universelles numériques par le web. Le concept de « 4e révolution industrielle » est né après la foire de Hanovre en 2011, où l’on a célébré la naissance de l’ ”usine connectée” ; cette dernière, entièrement ”webisée” et branchée directement sur les clients, est robotisée et emploie de moins en moins de salariés. On a créé l’expression abstraite d’ ” industrie 4.0”. C’est un concept assez creux : à quand, l’ ”industrie 5.0” ?

Un des gourous néo-romantiques de cette « 4e révolution industrielle » est – comme indiqué plus haut – le Pr. Klaus Schwab, fondateur et animateur du forum économique mondial de Davos. Le colloque de janvier 2016 a été consacré à la 4e révolution industrielle. Au programme : l’intelligence artificielle, la robotique, les objets connectés, les nanotechnologies, des innovations « révolutionnaires ». Pourquoi pas ? Ce qui est à la fois intéressant  mais par ailleurs comique, c’est que tous les médias, sans aucun recul, ont cru sur parole les conclusions (idéologiques plus que scientifiques) de ce forum de Davos. Personne ne s’est posé la question de savoir quelles améliorations concrètes apportait cette miraculeuse économie numérique qui est pourtant parallèle d’une dégradation de la situation mondiale.  L’invasion migratoire qui déstabilise l’Europe, la montée du djihad islamique, l’effondrement des cours du pétrole, l’accélération planétaire de tous les types de pollution ne furent pas des sujets abordés. La ”révolution numérique” est censée résoudre tous les problèmes. C’est la croyance aux miracles, qui relève plus de la pensée magique que de la réflexion rationnelle. 

Le néo–scientisme et l’écologisme

Les prophéties sur la révolution de l’économie numérique, avec ses mots fétiches, cloud, big data,transhumanisme, etc, appartiennent à une idéologie néo–scientiste qui risque de déboucher sur des désillusions terribles. Or, ce néo-scientisme sans prise de recul, comme celui de la fin du XIXe siècle, cohabite curieusement, chez les mêmes, avec un anti–progressisme écologiste. Il est aussi stupide que les théories de la ”décroissance : il relève du même extrémisme.

 Ce romantisme néo-scientiste est l’exact pendant de celui de la fin du XIXe siècle – relisez Jules Vernes et Victor Hugo –  où l’on s’imaginait l’avenir en rose sous l’influence du concept magique et au fond peu rationnel de ”Progrès”. À la fin de son poème La légende des siècles, Victor Hugo brossait une vision idyllique du XXe siècle.

Les erreurs des pronostics technologiques sont une habitude. Jules Vernes prévoyait qu’en 1960, les habitants des villes se déplaceraient en engins volants individuels. Mais il n’avait pas prévu l’automobile.  Et, dans les années 60, on pronostiquait des bases humaines nombreuses sur la Lune et sur Mars, astronomiques et d’extraction minière, la généralisation des transports aériens supersoniques et hypersoniques stratosphériques ainsi que la diffusion de l’énergie de fusion nucléaire. Bien des pronostics sur le futur de la ”révolution numérique” relèvent probablement des mêmes erreurs utopiques de jugement.

L’utilité marginale déclinante de l’économie numérique

Le téléphone, l’électrification, le chemin de fer et l’automobile, l’aviation comme la radio et la télévision, la pénicilline, l’anesthésie, etc. ont été des bonds technologiques énormes, de par leurs conséquences, bien plus qu’Internet ou l’économie numérique. Le binôme numérique/ informatique offre moins de facilités qu’on ne croit ; parce qu’il complique les processus autant qu’il ne les simplifie. Les innovations technologiques de la ”révolution numérique” ne répondent pas dans la pratique quotidienne, à leurs promesses. Elles sont inférieures en terme d’avantages marginaux aux innovations des précédentes mutations techno–industrielles.   

Les systèmes de communication, d’écriture et de transmission de tous types de données par Internet et les techniques numériques amènent des avantages inférieurs à ce qu’on croit. Et pas seulement pour une raisons d’obsolescence des matériels, à remplacer sans cesse, ou de course à des ”innovations. 

La fréquence des ”bugs” des pannes, la fragilité des transmissions, rendent les nouveaux modes de communication moins fiables que les anciens. Certes, ils sont plus rapides et instantanés mais a-t-on réellement besoin d’une telle rapidité ? 90% des messages entre les humains ne sont pas urgents. 

La thèse que je défends est celle de l’utilité marginale déclinante des avancées de l’économie numérique. Autrement dit, le ”progrès”, en termes d’avantages économiques et pratiques, a été beaucoup plus important au cours des trois précédentes révolutions industrielles, surtout les deux premières, que depuis l’arrivée de l’informatique puis du numérique. On observe un ralentissement des avantages procurés, voire une stagnation ou un recul. 

 Il faut se fonder sur la notion, centrale en économie, d’utilité marginale croissante – ou décroissante. Quel avantage objectif (et non pas subjectif ou spectaculaire) amène une innovation ? À la fois en termes de coûts, de bien–être et de commodités : c’est-à-dire de percées concrètes, de facilitations réelles. À cet égard, l’économie numérique et connectée peut-être soupçonnée de ne pas être à la hauteur. Nous verrons dans la deuxième partie de cet article (1) que ses innovations sont souvent des gadgets et qu’elle comporte nombre d’inconvénients, à côté bien sûr de ses indéniables avantages.

(1) La deuxième partie de cet article comme la 3e et la  4e seront publiées au cours de ce mois de février, pas nécessairement à la suite les unes des autres. Le prochain article, quant à lui, à paraître très bientôt, sur un tout autre sujet, s’intitulera : « Un projet de génocide des peuples européens ? » 

http://www.gfaye.com/revolution-numerique-miracle-ou-impo...

05/02/2016

Théorie des Cordes : Ce qu' Einstein ne savait pas encore

12:05 Écrit par pat dans culture et histoire, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

03/02/2016

http://aucoeurdunationalisme.blogspot.fr/

08:35 Écrit par pat dans culture et histoire, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |

07/01/2016

Moteurs de recherche : les alternatives à Google

Google est de loin le moteur de recherche dominant en France (plus de 90 % de parts de marché), mais nombre d’internautes cherchent aujourd’hui des alternatives. Voici donc une sélection de 6 moteurs de recherche alternatifs que vous pourrez tester.

Grâce à ses algorithmes à la qualité incontestable et à une ergonomie longtemps inégalée, Google s’est imposé presque partout dans le monde comme le moteur de recherche incontournable, que les internautes utilisent aussi bien par choix que par réflexe. Mais la puissance de l’entreprise américaine et sa main-mise sur les données personnelles des internautes peut faire peur.

D’un point de vue plus sociétal, le fait que tous les internautes arrivent peu ou prou aux mêmes résultats pour les mêmes questions peut aussi avoir des effets que l’on mesure encore mal, en terme de diversité des connaissances et des opinions. La puissance de Google est autant économique et technologique que culturelle.

Que ce soit pour mieux protéger sa vie privée ou par militantisme contre l’hégémonie d’un acteur accusé d’abuser de sa position dominante, il y a beaucoup de raisons différentes de chercher à se rendre indépendant de Google. Si vous recherchez une alternative à Google, voici donc une sélection de moteurs de recherche alternatifs qui pourront vous rendre service.

numerama-qwant

Qwant est le concurrent « made in France » de Google. Lancé en 2013 après deux ans de développement, le moteur de recherche a connu sa première véritable mue au printemps dernier puis a lancé des déclinaisons spécialisées de son outil : l’une d’entre elles présente un habillage très minimaliste (Qwant Lite), tandis qu’une autre est pensée pour être utilisée par les enfants, avec un filtrage des résultats (Qwant Junior).

Si Qwant mise en France sur le fait d’être un service français pour essayer de séduire les internautes, d’autres arguments plus fondamentaux sont à mettre en avant. Outre la refonte générale du site il y a un peu moins d’un an, justifiée par des considérations de lisibilité, d’esthétique et d’efficacité, la société met en avant son respect scrupuleux de la vie privée des internautes avec une collecte de données personnelles aussi minime que possible.

Doté depuis 2015 d’un design adaptatif (« responsive design »), c’est-à-dire dont l’interface s’adapte aux dimensions de l’écran, Qwant arbore une page d’accueil fournie, avec une barre latérale incluant les options de tri d’une recherche (web, photos, vidéos, etc) et une mosaïque centrale indiquant les tendances du jour (il s’agit de l’actualité ou des nouvelles de Qwant lui-même).

Des suggestions sont proposées lors de la recherche, à mesure que la requête est tapée au clavier. Outre les rubriques habituelles, un onglet particulier, baptisé « carnets », est dédié à des contenus organisés par thème. Il ne s’agit pas à proprement parler d’une recherche mais plutôt d’une exploration d’un sujet, qui peut aller de Tolkien à l’économie, en passant par le support, le respect de la vie privée et la musique.

Contrairement aux autres moteurs, Qwant affiche ses résultats sur plusieurs colonnes côte à côte. La première regroupe les résultats issus du web, la deuxième est un encadré synthétique issu de Wikipédia présentant le profil de ce qui est recherché, la troisième liste les liens en rapport avec l’actualité et la quatrième montre l’intérêt des internautes sur ce sujet en mettant en lumière l’activité sur les réseaux sociaux.

DUCKDUCKGO

numerama-duckduckgo

DuckDuckGo est un moteur de recherche qui connaît une notoriété croissante depuis deux ans, grâce aux révélations d’Edward Snowden sur la surveillance électronique. Se plaçant sur le terrain de la protection des données privées, DuckDuckGo indique ne faire aucun pistage de ses utilisateurs (DontTrack.Us) et ajoute qu’il ne les enferme pas dans une « bulle » de résultats (DontBubble.Us). C’est-à-dire qu’il ne cherche pas à afficher les résultats qui confortent l’utilisateur dans ses opinions ou ses centres d’intérêt, ce qui peut avoir des effets pervers.

Bénéficiant d’une interface revue et corrigée au cours du printemps 2014, DuckDuckGo assure être rentable sans avoir besoin de suivre les internautes à la trace. C’est aussi en 2014 que ce moteur est apparu dans Firefox comme alternative à Google, avant d’être ajouté dans iOS 8 et OS X Yosemite. Toutefois, la pertinence des résultats sur DuckDuckGo n’est pas toujours au rendez-vous, surtout sur les recherches francophones.

En ce qui concerne l’interface, DuckDuckGo affiche un look minimaliste à la Google. Le logo, la barre de recherche et un bref rappel de la tâche que s’est assigné le site : s’interdire d’espionner ses utilisateurs. En cherchant un peu, on peut toutefois faire surgir un menu en haut à droite afin de modifier le thème de la page, accéder aux paramètres avancés ou voir des informations sur DuckDuckGo.

Pour la recherche, des propositions sont proposées à mesure que l’utilisateur renseigne sa requête. Les options de tri ne sont pas proposées sur la page d’accueil : il faut valider sa recherche pour les voir (recherche par image, par vidéo ou par produit ; géolocalisation ou non). Un cadre horizontal d’information peut apparaître en haut de l’écran pour délivrer des indications supplémentaires, comme le Knowledge Graph de Google.

Sur les résultats, DuckDuckGo fait dans la sobriété. Tout est écrit en noir. Les résultats sont placés dans une colonne étroite placée à gauche et fonctionnent selon le principe du défilement infini : plus vous descendez, plus vous verrez de nouveaux résultats à consulter. DuckDuckGo n’organise donc pas ses résultats dans des pages. Enfin, on trouve aussi de la publicité juste sous la recherche.

Gros avantage à signaler, qui fait la force de DuckDuckGo : les bangs et les hacks. DuckDuckGo ouvre sa plateforme aux développeurs, qui peuvent développer de mini applications pour répondre aux requêtes. Les bangs permettent d’effectuer une recherche sur un site visé (par exemple commencer la recherche par « !amz » pour rechercher Amazon), tandis que les hacks complètent le Knowledge Graph. Le site a ainsi plus de 650 types de requêtes auxquelles il sait répondre directement.

BING

numerama-bing

Bing est sans aucun doute le principal adversaire de Google. Édité par Microsoft à la fin des années 2000 et désormais très intégré à Windows 10, il propose des fonctionnalités très proches de celles fournies par Google. C’est aussi Bing qui gère le moteur de recherche de Yahoo (ce qui lui permet au passage d’ajouter la part de marché de Yahoo à la sienne dans les classements).

Mais Bing a aussi les mêmes travers que Google, en particulier pour le suivi publicitaire similaire à Google, qui lui enlève tout intérêt pour celui qui met en haut de ses priorités la protection de sa vie privée.

Du côté de l’interface, Bing tranche avec Google avec un design plus chargé. Pas de fond blanc : à la place, une nouvelle image est proposée chaque jour en fond d’écran (qu’il est possible de télécharger sur son PC), ce qui permet du même coup à Microsoft de faire découvrir un sujet aux visiteurs. Par exemple dans l’illustration ci-dessus, il s’agit d’une carouge à épaulettes, aperçue à Minneapolis, dans le Minnesota.

En terme de recherche, Bing propose des suggestions lors de la saisie mais les options avancées ne sont pas accessibles sur la page d’accueil. Il faut d’abord valider une requête pour pouvoir ensuite filtrer selon le contenu (web, images, vidéos, cartes, actualités), la date, la langue et le pays. Sur le côté, quand la requête s’y prête, un cadre similaire au Knowledge Graph de Google fournit des indications additionnelles.

La page de résultats de Bing est très proche de Google dans sa présentation. Même le code couleur est repris, avec les titres en bleu, les adresses en vert et la description en noir. Les résultats sont rassemblés dans une colonne étroite qui est située à gauche de l’écran. Les publicités (qui sont ciblées, en se basant sur les données personnelles) encadrent les résultats, en haut et à droite de la colonne.

En somme, Bing est un Google-like pour ceux qui ne veulent pas utiliser le vrai Google.

FRAMABEE

numerama-framabee

Dans sa stratégie de dégoogliser le web, Framasoft propose une liste de logiciels libres qui peuvent remplacer au pied levé les solutions fournies par des entreprises comme Google, Facebook, Twitter, YouTube, Skype ou encore Dropbox. Mais ce n’est pas tout : l’association a aussi mis sur pied un méta-moteur, baptisé Framabee, qui se propose de rechercher à votre place des informations sur d’autres moteurs de recherche.

C’est en effet un méta-moteur. L’intérêt ? Regrouper dans une interface dédiée les résultats de Google « mais sans conserver d’informations sur les utilisateurs ». « Framabee ne vous trace pas, ne partage aucune donnée avec un tiers et ne peut pas être utilisé pour vous compromettre », poursuit le site. Framabee joue ainsi un rôle d’écran protecteur entre vous et les moteurs de recherche consultés.

Framabee présente une page d’accueil très fournie. Le moteur de recherche est intégré dans le site de l’association, et reprend donc son interface. Outre un header et un footer, des encadrés sont affichés pour expliquer le rôle de Framabee, son fonctionnement et la manière de le développer. Les options de recherche (par fichier, par image, etc) sont proposées dès la page d’accueil, tout comme les préférences.

Aucune suggestion de recherche n’est proposée au fil de la frappe. Les résultats ne sont pas fournis directement par Framabee. Le site se contente d’interroger d’autres sites (de Google à Bing, en passant par Wikipédia et Yahoo), en affichant pour chaque résultat une indication de sa provenance. Les sites peuvent être atteints en cliquant dessus. À aucun moment, l’utilisateur n’est redirigé sur un autre moteur.

Contrairement à beaucoup d’autres moteurs de recherche, les résultats sont centrés. Il est possible de filtrer la recherche par rubrique (photo, vidéo, etc) et des encadrés situés sur le côté droit permettent d’avoir un résumé de votre recherche (cela va des suggestions de recherche aux informations tirées de Wikipédia, en passant par des outils permettant de garder en favori la page ou de la télécharger dans un format particulier).

WOLFRAM ALPHA

numerama-wolframalpha

Wolfram|Alpha n’est pas tout à fait un moteur de recherche. Son fonctionnement atypique le rapproche plutôt d’un moteur de réponse. S’il n’est pas adapté à une requête classique (comme la recherche d’une adresse web par exemple), il s’avère performant pour obtenir des informations sur un personnage historique, donner des définitions diverses, effectuer des calculs et répondre à des questions.

La qualité du travail fourni par Wolfram|Alpha n’est d’ailleurs pas passé inaperçu chez la concurrence, visiblement convaincue par la pertinence des résultats. Des accords ont été passés avec Bing et DuckDuckGo pour pouvoir fournir des réponses aux questions des internautes. Des partenariats du même genre ont aussi été tissés avec Apple (pour Siri) et BlackBerry afin de traiter des requêtes prononcées oralement.

Hélas, l’interface proposée par Wolfram|Alpha n’est qu’en anglais. Il est certes possible de passer des requêtes en français, mais les résultats seront donnés avec des indications dans la langue de Shakespeare. Si vous avez un petit bagage linguistique, vous ne devriez pas être trop perdus. Par contre, pas de souci du côté des calculs, les symboles des opérations en math étant universellement compris.

La page d’accueil liste 30 domaines différents dans lesquels Wolfram|Alpha est capable de donner des résultats. Cela va des mathématiques aux transports, en passant par l’art, la musique, la chimie, la météo ou encore la culture. Et pour chaque rubrique, des exemples sont donnés. En math, on peut par exemple faire des calculs, résoudre une équation, faire de la logique, établir une fonction ou encore demander une définition.

Concernant les résultats et la recherche, il est délicat de jauger Wolfram|Alpha puisqu’il ne travaille pas comme un moteur classique. Cela dit, la précision de ses réponses dépend bien sûr de la qualité des requêtes qui lui sont transmises (comme tout moteur, en fait). Le choix des mots-clés est donc important, même si sur une recherche d’un personnalité, le site a tendance à délivrer tout ce qu’il sait.

STARTPAGE

startpage-numerama

Né en 2009, StartPage mise sur la confidentialité de son service pour se faire une place parmi la concurrence. Le service a pris la succession de Ixquick, qui avait reçu l’année précédente une distinction, le label pour la protection des informations personnelles, des mains du contrôleur de la protection des données pour l’Europe, prouvant ainsi ses efforts en la matière.

Concrètement, lors d’une recherche, StartPage assure qu’il n’enregistre ni l’adresse IP ni les informations personnelles des visiteurs. Aucun cookie n’est laissé sur le PC de l’usager et les recherches sont protégées des indiscrétions avec le chiffrement du trafic (HTTPS). On note toutefois au cours d’une requête que de la publicité fournie par Google est susceptible d’apparaître dans les pages de résultat.

StartPage arbore une interface très épurée. Contrairement à d’autres moteurs, il ne propose aucune suggestion pendant la frappe d’une requête. Des paramètres de recherche sont en revanche proposés directement sur la page d’accueil (recherche sur le web, d’images, de vidéos, réglages avancés) ainsi que des options permettant de faire de StartPage son moteur de recherche par défaut ou de l’installer dans son navigateur.

Une colonne resserrée, des liens commerciaux en haut d’une recherche et code couleur qui n’est pas sans rappeler celui utilisé par Google. StartPage ne déstabilisera les adeptes de la firme de Mountain View. Des recherches associées et des filtres par date pour ne garder que les résultats récents sont également proposés.

Côté résultat, StartPage s’appuie sur les ressources de Google mais en agissant comme un filtre pour préserver vos données personnelles. « Lorsque vous effectuez une recherche avec StartPage, nous supprimons tous les renseignements d’identification provenant de votre requête et l’envoyons nous-mêmes anonymement à Google. Nous obtenons les résultats et nous vous les transmettons en toute confidentialité »

YACY

numerama-yacy

Dans cette sélection, YaCy fait figure d’OVNI. En effet, il s’agit d’un moteur de recherche décentralisé reposant sur le principe du peer-to-peer (P2P), une technologie décentralisée que l’on connaît plutôt chez les amateurs de logiciels de partage de fichiers comme eMule ou BitTorrent. Plutôt que de passer par des serveurs centraux, YaCy fait de chaque participant un robot d’indexation en puissance, qui peut parcourir le web et partager ses trouvailles via une banque de données qui indexe ce qu’on lui envoie.

Dès lors, ce sont les utilisateurs qui construisent l’index de YaCy, à travers un programme à installer sur l’ordinateur. L’avantage, c’est qu’une approche de ce type minimise clairement une censure des résultats, aucun nœud du réseau n’ayant plus de poids qu’un autre. Mais le souci, c’est que YaCy doit compter sur ses utilisateurs pour parcourir le web et donc être pertinent. Or, c’est un moteur encore très confidentiel.

Une fois le logiciel adéquat installé, YaCy s’insère dans la barre des tâches et ouvre un onglet dans le navigateur (ou une nouvelle fenêtre). L’interface est sobre, avec quelques réglages accessibles dès la page d’accueil, comme la recherche par texte ou par image. Des paramètres plus pointus sont aussi de la partie.

En terme de recherche, un temps d’attente peut être constaté au moment de l’envoi de la requête, le temps de se connecter aux autres membres du réseau YaCy. Des suggestions de recherche peuvent être proposées au moment de taper la requête et des options de tri sont disponibles dans une colonne placée à gauche. Un mode « furtif » est aussi proposé, afin de ne compter que sur son propre index de sites et pas sur ceux des autres.

La page de résultat se décompose en deux grandes parties. À gauche figurent les différents outils de tri pour affiner sa recherche (par provenance, type de fichier, langue, auteur). À droite se trouve l’encadré affichant les résultats. Du fait de sa relative confidentialité, YaCy ne propose pas des millions de propositions à chaque recherche. Les résultats se comptent plutôt en dizaines ou en centaines, rarement plus.

source: http://www.numerama.com/magazine/22300-moteurs-de-recherc...

http://www.altermedia.info/france-belgique/uncategorized/...

17:39 Écrit par pat dans actualité, divers, Science | Lien permanent | Commentaires (0) |  Imprimer |  Facebook | | | | |