Overblog
Suivre ce blog Administration + Créer mon blog
31 janvier 2015 6 31 /01 /janvier /2015 14:44

   Une pomme qui tombe et Isaac Newton (1642 - 1727) formule sa loi sur l'attraction des corps (F= mm'/r2) qui permet d'expliquer, non seulement la chute des corps sur terre, mais la trajectoire des corps célestes dans notre système solaire, à quelques petites exceptions près.

   Albert Einstein (1879 - 1955) vient alors : avec ses théories de la relativité: il introduit la notion d'espace-temps qui se déforme au contact des grandes masses (galaxies, trous noirs...),  il explique les exceptions à la loi de Newton et  tente une explication globale de l'Univers.

   Armés de ces deux théories fondamentales, disposant de télescopes de plus en plus performants et aidés par les satellites auxquels ils imposent des missions de plus en plus précises, les astrophysiciens commencent à mesurer précisément les mouvements des étoiles, des galaxies, des amas de galaxies... Or, pour expliquer les vitesses mesurées de ces corps célestes dans le cadre des 2 lois fondamentales, ils sont obligés de faire intervenir des corps inconnus: matière noire et énergie sombre, invisibles mais nécessaires pour que l'Univers se conforme à la théorie. Attitude qui s'apparente à un acte de foi et qui a fait ses preuves dans l'histoire des sciences, que ce soit pour la découverte des neutrinos ou, plus récemment, pour celle du boson de Higgs.

   Cependant, au fur et à mesure des investigations, on s'aperçoit que ces "corps imaginaires" prennent des proportions gigantesques: on considère que, vis à vis du contenu de l'Univers, l'énergie sombre représenterait un pourcentage de 70%, la matière noire, de 25% et la matière ordinaire, visible, de seulement 5%.( "Science et Avenir" Février 2015 ). La "correction" devenant largement supérieure au phénomène observable, on est en mesure de se demander si les lois fondamentales s'appliquent réellement à l'échelle des millions d'annés-lumière qui est celle des galaxies. C'est ainsi que la théorie MOND (Modified  Newtonian Dynamics), élaborée en 1983 par Mordehai Milgrom (1946 -    ) et reprise en Décembre 2014 par Françoise Combes au Collège de France, suggère que dans les zones où l'attraction universelle est très faible, c'est une loi en 1/r (et non plus en 1/r2) qui s'appliquerait: une telle modification permettrait peut-être de se passer de l'hypothèse de la matière noire et d'expliquer la stabilité des étoiles périphériques des galaxies. L'expansion de cet Univers hétérogène, ainsi délesté de sa matière noire, devra-t-elle faire encore appel  à autant d'énergie sombre? Pas de réponse pour l'instant.

   De toute façon, il s'agit là d'un tournant considérable qu'il faut évidemment examiner avec beaucoup de prudence.    

Partager cet article
Repost0
7 janvier 2015 3 07 /01 /janvier /2015 10:41

   Sans la culture logique, dont la culture mathématique constitue l'apanage, la réflexion risque d'être biaisée.

   L'erreur la plus courante consiste à prendre la moyenne non significative d'un ensemble hétérogène: dire par exemple que si un groupe de 10 personnes en comporte 9 qui gagnent 1000€ et une qui en gagne 10000, ce groupe gagne en moyenne 1900€. Ce n'est pas une caricature: ceux qui raisonnent sur "les entreprises",mélangeant CAC 40 et PME/PMI, font de même.

   L'évolution des phénomènes instables et irréguliers, qui se caractérisent par une courbe oscillante en fonction du temps, peut être jugée croissante si on relie un "creux" du passé à un "pic" du présent, mais décroissante si l'on fait l'inverse. Le tout à partir ds mêmes données de base.

   Si plusieurs phénomènes de ce type jouent similtanément, il se peut que, fortuitement, leurs actions s'additionnent: on dit qu'ils "entrent en résonnance" et la conséquence peut en être brutale. Et si 2 (ou plus) "pics de résonnance" coïncident, alors c'est la crise. Or ces "points singuliers" peuvent être détectés à priori... même si l'on n'en tient pas toujours compte.

   On pourrait aussi parler des "variables liées", entre lesquelles il existe une corrélation, et que l'on traite comme indépendantes. C'est ainsi qu'écologie et économie sont structurellement liées alors qu'on les traite souvent comme 2 ensembles qui s'ignorent.

  La "théorie des ensembles" justement a eu l'ambition de rapprocher les concepts mathémétiques des phénomènes de la vie courante, mais elle est restée trop abstraite pour pénétrer les esprits.

   Or les résultats de l'activité humaine sont de plus en plus quantifiés et présentés sous forme de tableaux de chiffres, de pourcentages, da variations de pourcentages, de graphiques, de courbes en couleurs parfois graduées en "isos" etc. Si l'on ignore les mécanismes et la signification de ces représentations, on risque d'en tirer des conclusions erronées.

   La culture mathématique est aussi nécessaire que la culture littéraire: elle permet d'interpréter le sens des phénomènes alors que la seconde permet d'interpréter le sens de la pensée. Elle fournit un outil pour décrypter le grand livre de la nature comme la seconde le fait pour découvrir celui de la tradition humaine.

   C'est pourquoi algèbre et grammaire, si elles sont nécessaires comme outils de base, ne doivent pas être considèrées en elle-mêmes, mais comme moyens d'élaborer des méthodes d'accès à la connaissance. Et c'est parce qu'on les présente souvent comme une fin en soi, sans en souligner le rôle véritable, qu'elles suscitent une répulsion d l'élève. D'où des orientations mal choisies, des rejets de la société, du chômage...       

Partager cet article
Repost0
5 janvier 2015 1 05 /01 /janvier /2015 10:45

   La filière des "réacteurs à neutrons rapides" de la 4em génération (réacteurs à fission) est étudiée très sérieusement "car elle est susceptible de limiter considérablement le problème des déchets et qu'elle valorise pratiquement tout l'uranium" (R.Iffly). Le réacteur Astrid constitue actuellement le projet retenu par la France (600 Mw). La mise en service massive de ce type de réacteurs est prèvue à partir de 2040.

   Les "réacteurs à fusion" (principe de la bombe H), eux, appartiennent encore au domaine de l'utopie. Bien sûr, leurs performances font rêver: 20 kilos de combustible pourrait fournir l'énergie annuelle de 80.000 foyers et le voyage sur Mars serait réduit de 6 à 1 mois. Mais l'expérience d'Iter, à Cadarache (mise en service reportée à 2020 alors que son coût a plus que triplé!) montre qu'on est encore loin d'une réalisation industrielle prévue, de toute façon,  pas avant... 2060.

   C'est pourquoi on  peut être surpris par l'annonce récente de Lookheed - Martin, première enterprise mondiale de défense et de sécurité: annonce de la mise au point , d'ici 5 ans, d'un réacteur de fusion nucléaire de la taille d'un camion!

Les experts  doutent fortement de cette annonce qui n'est  appuyée sur aucune publication scientifique. Il faut dire qu'elle survient en pleine négociation budgétaire Outre - Atlantique sur la politique des Etats - Unis en matière de fusion: Lookheed - Martin cherche peut - être à tirer profit des crédits publics qui seront alloués à la fusion.

   Cela signifierait que les USA, créateurs de la bombe H, ne l'oublions pas, sont décidés à faire un gros effort dans ce domaine. Et, à elle seule, cette information est importante car la maîtrise de la fusion leur donnerait la maîtrise mondiale dans le domaine de "l'énergie non polluante", comme la fracturation hydraulique les a fait s'imposer comme incontournables dans celui des énergies fossiles. Ils prépareraient un monde dont l'énergie est le coeur, comme elle l'a toujours été aux Etats - Unis, sans avoir à subir la face cachée d'une planète qui s'échauffe et pourrait atteindre l'ébullittion.

 

Sources: Science et Avenir. Décembre 2014.

Partager cet article
Repost0
19 décembre 2014 5 19 /12 /décembre /2014 08:31

   On a coutume d'opposer la foi, qui est du domaine de la religion, à la raison, qui est du domaine de la science. Mais la question n'est pas aussi tranchée qu'il y parait, comme le montrent plusieurs exemples récents.

   Définisons d'abord l'acte de foi. Suivant un auteur contemporain, c'est "croire en l'existence de quelque chose d'invisible et d'indémontré qui, cependant, semble absolument nécessaire à notre conviction profonde et à l'intelligibilité de notre monde, quelque chose qui suscite une interrogation permanente dont la réponse nous apparaît d'une nécessité vitale".

   Les études astrophysiques nous en fournissent plusieurs exemples. Ainsi, en étudiant certaines galaxies, on constate que des étoiles périphériques continuent de tourner autour de leur centre, alors que leur vitesse est bien supérieure à la "vitesse de fuite" (vitesse au delà de laquelle la force centrifuge est supérieure à la force d'attraction),, laquelle devrait les éjecter. Or on a acquis une très grande maîtrise des lois de la mécanisme céleste, comme l'a montré récemment l'aventure de la sonde Philae qui s'est déposée sur la comète Tchouri. Aussi, les scientifiques ne les remettent pas en cause, mais imaginent "quelque chose d'invisible et d'indéterminé qui leur semble absolument nécessaire à leur conviction profonde et à l'intelligibilité de leur monde". C'est la définition même de l'acte de foi. Cette chose invisible et indéterminée, ils l'appellent "matière noire" et ils étudient toutes les anomalies du mouvement des galaxies pour la déterminer plus précisément. Et ce n'est pas rien puisque la masse de cette matière noire représenterait plusieurs fois celle de la masse observable. De même pour "l'énergie noire" qui est nécessaire pour expliquer l'accélération de l'expansion de l'Univers par rapport à nos calculs et qui "compterait  pour près de 70% du contenu de l'Univers".

   L'hypothèse scientifique devient donc "acte de foi " et contitue un moyen d'approcher la vérité comme l'a montré la découverte du boson de Higgs qui a participé du même raisonnement.

   Cela doit tempérer le mépris fréquent de certains scientifiques pour les adeptes d'une foi de type religieux: celle-ci permettra peut-être, elle ausi, d'avancer dans le domaine métaphysique, qui n'est pas si loin du domaine limite de l'astrophysique.

 

Source: "Science et Avenir"- Novembre 2014.     

Partager cet article
Repost0
14 décembre 2014 7 14 /12 /décembre /2014 08:32

   Le concept d'intelligence a commencé à être dévalué à partir du moment où on a parlé "d'intelligence artificielle", ce qui est une sorte d'oxymore tant la nature de l'intelligence s'oppose à toute artificialité. Mais au delà de la figure littéraire, le problème va plus loin au moment où le trans-humanisme se propose "d'augmenter" l'intelligence humaine et où le post-humanisme envisage de lui "substituer" une intelligence supérieure.

   Il est intéressant d'écouter ce qu'en pense J.M.BESNIER, philosophe, professeur à Paris-Sorbonne (La Vie - 20 Nov. 2014).

   "Les sciences humaines et sociales... se limitent à une description béhavioriste de l'intelligence humaine, qui considère que l'intelligence est une faculté de produire des réalisations adaptées à des stimulations bien déterminées. On pense l'intelligence en termes de stimuli et de réponses. C(est pour cela qu'on parle "d'objets intelligents" ou de "voitures intelligentes" sans que personne ne se demande de quel droit on s'autorise à utiliser le terme "intelligent" pour un objet ou une voiture. Il faut prendre la mesure de la désubstancialisation du concept d'intelligence, de plus en plus coupé des concepts de "conscience, de représentatio et d'intention". Jusque là, l'intelligence humaine supposait une conscience, une aptitude à se représenter les choses mentalement, une intention. Aujourd'hui, l'intelligence peut se passer de tout ça. Elle peut concerner un robot, une bactérie, une mouche... On est dans une espèce de déflation sémantique qui conduit à s'imaginer savoir ce qu'est l'intelligence dès qu'on est face à un dispositif qui accueille des informations et en restitue".

   L'intelligence des robots n'est-elle pas plus proche de "l'instinct animal", qui permet à ce dernier de fuir quand il sent le danger, par exemple, ce qui est une notion supérieure dans le cadre de la vie végétative, mais qui est infiniment inférieure à l'intelligence humaine, nourrie par la conscience. Le robot peut être l'esclave de l'homme, mais non son égal, encore moins son mentor. Sachons nous en souvenir!

Partager cet article
Repost0
14 novembre 2014 5 14 /11 /novembre /2014 13:31

   Certains écologistes voudraient bannir le "scientisme" qui aurait fait tant de mal: sans doute n'ont-ils pas entièrement tort. Mais d'autres vont jusqu'à vouloir bannir la "Science" elle-même sous prétexte "qu'elle se trompe tout le temps".

  Ils ont certainement raison car l'erreur est au coeur du processus scientifique. En effet, les scientifiques,  contrairement à certaines catégories de penseurs, reconnaissent et assument leurs erreurs, et ils les utilisent pour un nouveau départ. En fait, le processus converge car les applications qui s'en déduisent se rapprochent de plus en plus des exigences de la réalité.

   Un bon exemple est donné par la sonde Philae que le satellite Rosetta a déposé ces derniers jours sur la comète Tchouri. Tout a été calculé avec une extraordinaire précision: un voyage de 6,5 milliards de kilomètres, s'étendant sur 10 années, avec rebonds gravitationnels sur la Terre et sur Mars pour accélérer sa course, un mise en sommeil de 31 mois lorsqu'il était loin du soleil (batteries exigent!)... Le tout pour courir après un petit caillou glacé de 3 kilomètres sur 5, distant de 515 millions de kilomètres de la Terre et qui obligea le satellite à freiner brutalement pour aligner sa vitesse sur la sienne; puis envoyant des photos sur Terre pour déclencher le top de la descente 1/2 heure plus tard (temps de transmission oblige!) du module Philae  dont les 100 kilos terrestres ne pèsent plus que 5 grammes sur la comète. Et enfin pour arriver 7 heures plus tard sur la surface de la comète à       -70° ... et rebondir deux fois avant de se stabiliser en position inconfortable!

   L'écologiste avait donc raison: il y a eu en effet une petite erreur, car, malgré plus d'un milliard de trajectoires modélisées en laboratoire, le robot, qui envoie dès maintenant des milliers de données, ne pourra peut-être pas se fixer au sol et en carotter les premières strates.

   Cette malencontreuse erreur sera soigneusement analysée et nul doute que le prochain module bénéficiera d'amortisseurs améliorés et qu'il pourra envoyer sur Terre des informations encore plus précises, encore plus fiables ... encore plus captivantes.

   Car c'est ainsi que procède la Science!   

Partager cet article
Repost0
23 octobre 2014 4 23 /10 /octobre /2014 08:49

   Dans un article intitulé "Biologie de synthèse" (Mars 2014), j'écrivais que l'on pourra peut-être s'écrier un jour: "Et l'homme créa la vie". Nous n'en sommes encore pas là, mais les progrès s'accélèrent, et l'on annonce déjà la création de la première cellule vivante synthétique. Il n'en fallait pas plus pour enflammer les esprits et imaginer qu'au delà de la "réparation" de l'homme, on accédera à son "augmentation". D'où l'idée qu'un stade "transhumain" pourrait succéder à l'état "humain" que nous connaissons.

   Il est écrit, dans les "Principes extropiens":

   "Nous voyons les humains comme une étape de transition entre notre héritage animal et notre futur "transhumain".

   On lit également, dans la "Déclaration transhumaniste":

   "L'humanité sera, dans le futur, profondément marquée par la science et la technologie. Nous prévoyons d'étendre le potentiel humain en surmontant le vieillissement, les défauts cognitifs, la souffrance involontaire et notre confinement à la planète Terre."

   L'outil pour réaliser ces mutations est nommé NBIC: Nanotechnology, Biotechnology, Information technology, Cognitive science. Avec cet outil, on pourrait notamment créer une sorte d'immortalité en téléchargeant le contenu d'un cerveau, transformé en logiciel grâce à sa modélisation informatique, sur des matériaux inaltérables, ce qui préserverait ni plus ni moins que la "conscience" de son propriétaire.

   Certains savants prévoient enfin l'apparition, dans quelques décennies, d'une intelligence non biologique qui marquerait la fin de la civilisation humaine. Ils envisagent de doter les humains d'un méta-cerveau, réseau distribué de capteurs, de processeurs et d'intelligence qui les propulsera dans une condition ultra-humaine.

 

   Devant de telles perspectives, il semble urgent de transformer le "Comité National d'Ethique" en "Conseil d'Ethique" comme il y a un "Conseil Constitutionnel" et un "Conseil d'Etat", tous chargés de confronter les décisions quotidiennes aux principes inclus dans les textes fondamentaux et, pourquoi pas , dans les valeurs de la civilisation.

 

   Sources: "Les nouvelles technologies en question" - Th. Magnin - Edition Salvator.

                   "Science et Avenir". Décembre 2012.    

 

Partager cet article
Repost0
26 septembre 2014 5 26 /09 /septembre /2014 09:43

   Les petits réacteurs nucléaires ( ou SMR: Small Modular Reactors ) feront une entrée remarquée au premier Salon du Nucléaire qui se tiendra mi-Octobre au Bourget.

   En effet, les économistes avaient calculé que l'accroissement de puissance des réacteurs améliorait leur rentabilité: ainsi, passer de 600 à 1000 MW entraîne un surcoût d'investisement de 15% alors que le gain en puissance est de 85%. D'où la course aux grosses puissances , type l'EPR de Flamanville qui multiplie la puissance des centrales classiques (900 MW) par un facteur 1,8 (1650 MW).

   Mais après la catastrophe de Fukushima, l'opinion réalise que l'importance du danger croît aussi avec la puissance installée. D'où la course engagée pour des mini-réacteurs modulables (les SMR: moins de 300 MW), avec la possibilité de commencer par une seule unité et d'en rajouter, au gré des besoins, sur terre, au fond de la mer ou sur une barge.

   Ces SMR seraient rentables si le coût du MWH ne dépasse pas 100€, ce qui devrait être possible. Or, le marché est porteur car d'ici 2035, les pays hors OCDEalimenteront plus de 90% de la croissance en demande d'énergie et ils prévoient une hausse de leur capacité électronucléaire pouvant aller jusqu'à 100%.

   7 pays se sont lancés dans la course: USA (4 projets), Chine et Russie (2 projets), Japon, Corée du Sud, Argentine et France (1 projet). Le projet français "Flexblue" est constitué d'un réacteur cylindrique de 100 m de long et 15 m de diamètre pouvant être immergé à 100m de profondeur: la maintenance se ferait tous les 60 ans pour décharger le combustible usagé.

   Mais la palme reviendrait au SMR américain "Terra Power" (soutenu par Bill Gates) qui pourrait fonctionner 60 à 90 ans en continu et sans maintenance, utilisant comme combustible de l'uranium appauvri (238 U) faiblement radioactif, abondant et bon marché. Tout en générant très peu de déchets. Il utilise le principe TWR ("Travling Wave Reactor" ou Réacteur à Onde Progressive) qui permet au combustible de devenir fissile au sein même du réacteur. Mais personne ne s'aventure à en prévoir l'échéance.

 

   Il y aurait peut-être là un gisement de moyens pour limiter le réchauffement climatique en préservant l'énergie nécessaire aux besoins humains, notamment pour les zones d'accès difficile ou les industries voraces en énergie (dessalement de l'eau de mer , par exemple)

  Source: "Science et Avenir" - Octobre 2014. .

Partager cet article
Repost0
17 septembre 2014 3 17 /09 /septembre /2014 11:39

   Quand je pense à la vaste pénéplaine qui recouvrait la zone actuelle du Jura, voici plus de 200 millions d'années, pénéplaine bientôt réduite, par une sécheresse intense, à une succession de "Mers mortes" accumulant d'énormes masses de sel,

   Quand je pense que ces masses de sel seront ensuite recouvertes par les épaisses plaques de calcaire des mers épicontinentales, vieilles de 130 à 150 millions d'années de la fin de l'ère Jurassique,

   Quand je pense à cette surrection des Alpes, résultat du choc des continents européens et africains, qui souleva ces plaques calcaires, il y a environ 35 millions d'années, et les fit glisser vers la fosse de Bresse, 20 millons d'années plus tard, en utilisant le sel sous-jacent comme lubrifiant,

   Quand je pense que ce sel, ainsi remonté des profondeurs par ce formidable glissement, est arrivé maintenant près de la surface du sol et vient imprégner les eaux météoriques qui ont arrosé les forêts du Jura,

   Quand je pense que ce sont ces eaux chaudes et salées, mariage du sel d'un lointain passé et des eaux de la pèriode historique, qui inondent mon corps pour en apaiser les douleurs,

   Quand je pense à cette action bienfaisante qui vient du fond des âges, je sens que je fais corps avec ma planète: c'est bien elle qui constitue mon moule originel!

Partager cet article
Repost0
10 septembre 2014 3 10 /09 /septembre /2014 18:59

   Avec le principe de la "classe inversée" (voir article précédent),

"le rôle du professeur va changer. En effet, l'école se dirige vers un apprentissage hybride mêlant cours à distance et cours "présentiel" face à face. Le professeur ne se transformera pas pour autant en "gentil organisateur": il doit maîtriser l'art ...d'initier les jeunes à comprendre le savoir brut qui lui est offert sur le Web. La relation intelligente entre les savoirs exige une intervention humaine. Et qui, mieux que l'enseignant, saura "relier", c'est à dire rendre intelligible? Dans cette base de données sans fond ni fin du Web, tout ne se vaut pas, tout n'est pas vrai. Il y aura, plus que jamais, à développer cette capacité à interroger les connaissances et à guider le raisonnement... L'information a toujours besoin d'être expliquée, contextualisée, digérée. Là aussi, l'école de demain remplira sa mission si elle enseigne aux enfants à prendre du temps, du recul, à entrer dans une lecture approfondie... Parvenir à trier, organiser, analyser, suppose des connaissances préalables, une intelligence des données et de leur interprétation. Et surtout, sortir de l'immédiateté" 

   "Donc, face à la masse des contenus, l'élève aura de plus en plus besoin de médiation. Non seulement pour apprendre à hiérarchiser et à développer son esprit critique, mais aussi pour cultiver son intériorité et savoir déconnecter afin que, devenu adulte, il ne se laisse pas porter par le flux et la distraction permanente."

   "Pour un usage intelligent des nouvelles technologies, il faut donc en faire un usage modéré. Notre cerveau est toujours actif. Mais quand il n'est pas stimulé, il se déconnecte en quelque sorte et se met en état de veille: c'est la "capacité sentinelle" du cerveau. Cet état nous permet de rentrer en nous-mêmes, de laisser vagabonder nos pensées, de rêver: il est capital pour la formation de la synthèse. C'est ainsi que l'on mémorise, que l'on tire une leçon de ses expériences, que l'on anticipe des scénarios. Voilà pourquoi on conseille de préserver aux enfants du temps libre propice à l'ennui et à la rêverie."   

 

Partager cet article
Repost0