Tous les articles
Religion
- Le 25/06/2017
Le plus long chapitre des Essais de Montaigne est intitulé Apologie de Raymond Sebon.
Montaigne y entreprend soi-disant la défense de Raymond Sebon, médecin, théologien et philosophe du 15ème siècle, qui entendait fonder la foi sur la raison.
En fait, Montaigne développe dans ce chapitre un réquisitoire contre la raison humaine, qui ne serait rien sans la foi : « Nos idées et raisonnements sont une masse informe, sans façon et sans lumière, si la foi et la grâce de Dieu n’y sont pas étroitement unies. »
Il explique qu’il faut combattre cette entreprise – fonder la foi sur la raison – qui ne peut être que le fait d’orgueilleux.
Il rappelle l’épître de Pierre : « Dieu résiste aux orgueilleux et accorde sa grâce aux humbles. »
L’idée que foi et raison ne sont pas conciliables est très courante chez les personnes religieuses. Elle n’est pas de nature à pacifier le monde où les religions s’affrontent depuis longtemps, foi contre foi, hors de toute raison.
Preuves
Raymond Sebon n’était pourtant pas le premier à tenter cette synthèse entre foi et raison. Anselme de Cantorbéry ou Thomas d’Aquin, pour ne citer qu’eux, l’avaient précédé. Ils avaient par exemple l’un et l’autre développé des preuves de l’existence de Dieu.
Ces preuves, produites par les meilleurs esprits de leur époque, laissent aujourd’hui perplexes.
La preuve dite ontologique d’Anselme se résume par exemple ainsi : Dieu est parfait ; s'il n'existait pas, il ne se serait pas parfait ; donc il existe.
On comprend qu’elle soit tombée en désuétude.
Thomas a présenté dans sa Somme théologique 5 preuves. Une seule est restée en usage, la preuve dite par le gouvernement des choses : « Ce qui est privé de connaissance ne peut tendre à une fin que dirigé par un être connaissant et intelligent, comme la flèche par l'archer. Il y a donc un être intelligent par lequel toutes choses sont ordonnées à leur fin, et cet être, c'est lui que nous appelons Dieu. »
Cette preuve dite aujourd’hui finaliste a connu de nombreux avatars.
Fin 18ème, l’évêque anglican William Paley en a donné une version demeurée célèbre. Il imagine qu’en traversant un désert, il trouve une montre. Il l’observe attentivement et découvre que « ses diverses parties sont faites les unes pour les autres, et dans un certain but ; que ce but est le mouvement, et que ce mouvement tend à donner les heures ». Après analyse détaillée de tous les composants – ressorts, roues, engrenages, balanciers, aiguilles, cadran – et leur agencement, il se dit : « Il faut que cette machine ait été faite par un ouvrier, ou plusieurs, qui aient eu en vue le résultat que j’observe, lorsqu’ils ont fabriqué cette montre. » Il conclut : « J’ai dit que le raisonnement de celui qui nie l’art et l’invention dans la montre était précisément le raisonnement des athées ; car l’évidence d’un dessein se retrouve dans les ouvrages de la nature, comme dans l’ouvrage d’une montre, avec cette différence que les œuvres de la nature sont plus variées et plus admirables, dans une proportion qui excède tout calcul. »
Cette preuve était encore légitime à la fin du 18ème siècle. A cette date, il semblait en effet que la science ne parviendrait pas à expliquer la vie comme elle avait expliqué le mouvement avec la mécanique de Newton. Il semblait que la vie échapperait toujours aux lois de la physique, quelles qu’elles soient.
La théorie de l’évolution et la biologie moléculaire ont eu raison de ces réserves. Nous comprenons aujourd’hui comment une algue peut évoluer de façon non finalisée vers un sapiens. Un mécanisme suffit : la sélection naturelle ; et du temps… beaucoup de temps.
Les créationnistes ont rebaptisé « dessein intelligent » la preuve finaliste. Ils en ont fait soi-disant une théorie dont ils défendent qu’elle a le même statut épistémologique que la théorie de l’évolution. Ils ont établi une liste d’exemples d’organes ou composants naturels complexes dont l’histoire évolutive n’est pas clairement établie. Ces exemples révèlent selon eux un dessein.
Sans remettre en question la théorie de l’évolution, ces exemples sont en fait nombreux : l’exercice de reconstitution d’une histoire évolutive est souvent compliqué et incertain ; il n’est pas mené pour tout et n’importe quoi.
Pour les créationnistes, la multiplication de ces exemples discrédite la théorie de l’évolution et accrédite le dessein intelligent. En 2005, ils ont saisi la justice américaine pour demander que le dessein intelligent (et le récit biblique de la création qui l'accompagne) soit présenté dans les programmes scolaires au même niveau que la théorie de l’évolution, comme une théorie concurrente. Ils ont présenté comme exemple indiscutable de complexité irréductible le moteur à flagelle de la bactérie, un exemple plutôt bien documenté dans la littérature scientifique (qu’ils n’avaient pas pris soin de consulter).
Ils ont été déboutés : leur « preuve » a été jugée irrecevable.
NOMA
NOMA – Non-Overlapping Magisteria – est la version moderne de l’argument selon lequel foi et raison ne sont pas conciliables.
L’acronyme a été inventé par le spécialiste de l’évolution Stephen Jay Gould qui entendait résumer par sa formule l’idée que la science et la religion ne se recouvrent pas, n’ont pas vocation à répondre aux mêmes questions.
En résumé, à la science la question comment ; à la religion la question pourquoi.
Cette position n’est pas tenable.
Les religions portent toutes des théories sur le monde, et comme le dit le physicien Steven Weinberg : « Les théories, c’est notre affaire. »
Les magistères se recouvrent sans ambiguïté.
La question de savoir s’il existe ou non un être surnaturel qui aurait créé le monde, le ferait fonctionner et interviendrait le cas échéant par des miracles est bien une question scientifique.
Le monde ne doit pas être identique selon que cet être existe ou pas.
Du point de vue scientifique, la charge de la preuve revient à ceux qui pensent qu’un tel être existe. C’est pourtant des sceptiques qu’on attend en général la démonstration qu’il n’existe pas.
Pour illustrer la situation, Bertrand Russel a imaginé qu’une théière en porcelaine pourrait être en orbite entre la Terre et Mars, trop petite pour être vue par nos instruments. Son existence serait attestée dans des livres anciens, enseignée comme la vérité sacrée tous les dimanches… et il appartiendrait aux sceptiques de démontrer que cette théière n’existe pas.
NOMA est très répandu aujourd’hui, dans tous les milieux.
Pourquoi ? Pour éviter le débat.
On ne peut s’empêcher de penser que les chercheurs scientifiques américains qui se retranchent derrière cet acronyme veillent à ce que les donateurs qui financent leurs recherches n’en viennent pas à les soupçonner d’athéisme, ce qui pourrait avoir des conséquences funestes pour leurs ressources.
Religion explained
L’ensemble des religions présente une diversité extravagante de croyances. Dans un livre intitulé Religion explained, Pascal Boyer analyse cette diversité et s’appuie sur les développements de l’anthropologie cognitive pour la comprendre.
Pour l’anthropologie cognitive, les cultures humaines sont faites de représentations privées inscrites dans les cerveaux de personnes physiques, et de représentations publiques sous différentes formes : textes, images…
Les représentations sont entendues au sens large : croyances religieuses, idéologies, codes sociaux…
Expliquer les cultures humaines, dont les religions font partie, revient ainsi à expliquer pourquoi certaines représentations sont largement partagées.
Avant d’être partagées et devenir publiques, les représentations sont transmises de personne à personne et cette transmission n’est pas une simple copie. Dans la transmission, les représentations sont transformées. Si une représentation est difficile à mémoriser ou n’est pas pertinente dans un contexte de connaissance, elle ne se répandra pas ou sera exagérément déformée et ne survivra pas.
Les cerveaux humains sont les vecteurs de cette transmission. Ils sont faits de nombreux modules spécialisés qui ne traitent pas l’information de la même manière selon l’objet considéré. Les modules cérébraux requis par exemple pour comprendre le déplacement du météorite ou celui du chien se dirigeant vers sa gamelle ne sont pas les mêmes : le déplacement du météorite sera attribué à une force ; celui du chien à une intention. Les enfants d’âge préscolaire savent que les vrais animaux peuvent bouger volontairement et que les animaux en peluche ne le peuvent pas.
Les cerveaux humains classent les objets dans des catégories (animal pour le chien, artefact pour l’ours en peluche) en rapport avec les modules spécialisés. Ce classement produit de nombreuses inférences.
Si on vous dit que les zygons (qui n’existent pas) sont les prédateurs des hyènes, vous en conclurez que le zygon est un animal, qu’il croît et meurt, qu’il doit manger pour vivre et qu’il se reproduit avec un membre de son espèce.
Alors qu’il n’existe pas, vous retiendrez facilement le zygon dès lors qu’il est classé dans la catégorie animal et porte les nombreuses inférences de sa catégorie.
Les religions postulent l’existence d’êtres surnaturels.
Il peut y avoir un seul dieu, plusieurs dieux, des esprits, des ancêtres. Certains peuples ont un dieu suprême qui n’est pas pour autant important. Certains dieux peuvent mourir. Certains esprits sont stupides, ou malveillants…
Les êtres surnaturels sont fabriqués comme les zygons. Ils sont classés dans une catégorie dont ils portent les inférences… sauf les inférences qui sont violées, et qui en font précisément des êtres surnaturels.
Un animal qui parle sera un être surnaturel.
La liste des catégories couramment applicables aux êtres surnaturels est réduite : personne, animal, objet naturel (montagne, rivière, etc.) et artefact (statue, totem, etc.). Chaque catégorie porte ses propres inférences.
Pour chaque être surnaturel classé dans une catégorie donnée, le nombre de violations d’inférence est limité (souvent unique) ; les inférences non violées sont soigneusement préservées.
Ces règles assurent que les représentations associées sont faciles à retenir et se répandront largement. Elles sont observées dans l’ensemble des religions.
Un exemple d’application dans la catégorie personne : les fantômes des morts. En général, à part qu’ils sont des fantômes, donc qu’on ne les voit pas, on attend bien des fantômes des morts qu’ils se comportent comme nous. C’est ainsi qu’un héros de Woody Allen revient d’entre les morts dans une séance de spiritisme pour demander à sa femme combien de temps il faut laisser cuire le poulet dans le four.
La diversité des croyances cache un air de famille : prédisposé à certaines idées, l’esprit humain est préparé à certaines variations de ces idées.
Dès lors on comprend ce qui rapproche l’arbre qui écoute les conversations (chez les Uduk du Soudan) et la vierge qui enfante.
Si l’anthropologie cognitive permet de comprendre comment se construisent et se répandent les croyances religieuses, elle ne permet pas pour autant de dire lesquelles sont vraies. Le succès reproductif (pour reprendre une terminologie biologique) d’une croyance ne garantit pas qu’elle soit vraie.
Si les religions disent la vérité sur le monde, elle apparaît bien difficile à saisir.
Sauf peut-être pour le théologien chrétien de Cambridge qui participait à un dîner dans lequel Pascal Boyer racontait que les Fang du Cameroun croient que les sorciers possèdent un organe interne supplémentaire. Le théologien a expliqué benoîtement aux convives : « Ce qui fait que l’anthropologie est si intéressante et si difficile c’est qu’il faut expliquer comment les gens peuvent croire en de telles inepties. »
Alors qu’il est si facile de croire qu’une vierge peut enfanter.
Et après ?
Les progrès de la science ont conduit les croyants éduqués à remettre en question les croyances fondatrices de leurs religions.
Combien de chrétiens éduqués croient encore en la création du monde racontée par la Genèse, aux miracles ? Il est pourtant bien dans le fondement de la religion chrétienne que la Bible raconte des histoires vraies.
Lorsque vous demandez à un chrétien éduqué qui se déclare encore croyant, en quoi il croit vraiment, il ne répond pas vraiment. En général, il ne sait pas en quoi il croit, il n’y a pas réfléchi. Il pourra dira : « Je crois qu’il y a quelque chose, qu’on l’appelle comme on veut… » A la question suivante : « Faut-il garder une religion expurgée de ses éléments fondateurs ? », il pourra répondre : « Il ne faut pas jeter le bébé avec l’eau du bain… »
Si on voit bien l’eau du bain, on ne voit plus bien le bébé.
Les religions sont devenues de simples marqueurs identitaires. Elles ont fondé des communautés historiques sur un argument d’autorité : « Nos croyances sont vraies ; celles des autres sont fausses. » Les doctrines sont devenues secondaires ; l’argument d’autorité est resté.
L’éducation conduira un nombre toujours plus grand de fidèles de toutes les religions à penser et débattre rationnellement les questions métaphysiques et morales. Les conflits religieux pourront ainsi s'apaiser et pourquoi pas disparaître... avec les religions elles-mêmes.
Inch'Allah !
Conscience
- Le 19/04/2017
Descartes écrit dans les Méditations métaphysiques : « L’esprit et le corps sont des substances réellement distinctes. »
Pour Descartes, seul le corps est soumis aux lois de la physique ; l’esprit ne l’est pas.
En revanche, Descartes conçoit déjà le corps comme une simple machine dont les fonctions « suivent tout naturellement de la disposition de ses organes, ni plus ni moins que font les mouvements d’une horloge ou autre automate de celle de ses contrepoids et de ses roues ».
Le dualisme cartésien a prévalu longtemps : il répond à l’intuition qu’il est difficile de réduire un état mental à un état physique.
Comment une explication purement physique (neurophysiologique) pourrait-elle par exemple rendre compte de l’état mental « je pense à mon examen de demain et j’ai peur de le rater » ? L’activité neurophysiologique n’est-elle pas seulement le corrélat d’une activité mentale distincte par nature ?
Les philosophes contemporains, prenant acte des progrès de la connaissance dans les sciences physiques, la biologie ou la neurophysiologie, ainsi que de la sophistication des robots construits aujourd’hui, rejettent majoritairement le dualisme des substances.
Toutefois, nombre d’entre eux défendent encore une forme ou une autre de dualisme autour de la conscience.
Certains jugent par exemple concevable de fabriquer une machine qui se comporterait comme nous, mais inconcevable une machine qui ressentirait les choses comme nous. Pour eux, pas de machine consciente.
Pour d’autres, la conscience échapperait simplement à la science.
Qu’en est-il ?
La conscience, qu’est-ce que c’est ?
La conscience, c’est d’abord un état.
A un instant donné, on est conscient ou on ne l’est pas.
On est conscient quand on est capable de dire ce qui nous passe par la tête : « Je pense à mon examen de demain… j’ai peur… »
On n’est pas conscient quand on est sous anesthésie générale, quand on dort, quand on fait quelque chose de façon automatique, sans y penser.
La conscience est ensuite un état subjectif.
Quand je dis « j’ai peur », c’est moi qui ressens cette peur. Personne d’autre que moi ne peut dire qu’il ressent ma peur.
Existe-t-il une science de la conscience ?
Peut-on construire une science autour de phénomènes subjectifs ?
La question est posée dès lors que les sciences se sont construites jusque-là autour de phénomènes objectifs (comme le mouvement des astres), sur lesquels des observateurs extérieurs (sans influence sur les phénomènes observés) peuvent se mettre d’accord sans ambiguïté (le cas échéant par la médiation de machines).
Dans son livre Le Code de la conscience, Stanislas Dehaene montre qu’une science de la conscience existe bien. Il en donne les méthodes d’investigation, les premiers résultats, les premiers modèles.
Le domaine premier d’application de cette science nouvelle : la prise de conscience.
Qu’est ce qui fait qu’une image, un son, une idée, une sensation accèdent à la conscience à un instant donné ? Notre cerveau est constamment saturé de stimulations sensorielles et pourtant un petit nombre d’entre elles accèdent à la conscience. Pourquoi ? Comment ?...
Les fondements de cette science nouvelle : des méthodes de manipulation de la conscience ; l’introspection ; des méthodes d’imagerie cérébrale.
Les méthodes de manipulation de la conscience permettent de traiter la conscience comme n’importe quelle autre variable expérimentale et de la faire varier tout en gardant les autres paramètres constants. On peut ainsi présenter à une personne une image encadrée par des masques qui empêchent de la voir de façon consciente si le temps de pause est inférieur à un seuil. Au-dessus du seuil, l’image est perçue consciemment ; au-dessous, elle ne l’est pas (elle est alors dite subliminale).
L’expérience permet d’analyser les différences entre la vision consciente et la vision non consciente d’images en s’appuyant sur le rapport de la personne testée qui peut dire ce qu’elle a vu, pas vu, ressenti pendant l’expérience (introspection), et les éléments transmis par les diverses méthodes d’imagerie cérébrale (IRM fonctionnelle, électrodes intra-craniennes…) qui montrent le cerveau en action dans l’expérience.
L’expérience montre qu’une image subliminale peut être non seulement vue inconsciemment mais traitée inconsciemment.
Inconscient
La personne à qui une image subliminale a été présentée déclare qu’elle n’a rien vu.
Pourtant, si on fait suivre cette image subliminale d’une autre image consciemment perçue (temps de pause supérieur au seuil), et qu’on demande à la personne de juger le plus vite possible si cette seconde image appartient à telle ou telle catégorie, on constate que la personne répond plus rapidement si les images subliminale et consciente sont congruentes.
(Si on demande par exemple à la personne de cliquer le plus rapidement possible si l’image qu’elle a vue est une image d’animal, son temps de réponse sera meilleur si l’image subliminale qui lui a été présentée préalablement est elle-même une image d’animal.)
Cette constatation vaut également pour des images subliminales de mots qui pourront être lus inconsciemment ou de chiffres qui pourront faire l’objet de calculs inconscients.
De même, on constatera que des images choquantes peuvent activer l’amygdale et déclencher des émotions inconscientes. (L’amygdale est une des régions principales du circuit des émotions dans le cerveau.)
On pense aujourd’hui que n’importe quelle aire cérébrale peut en principe être activée sur un mode non conscient. Le spectre des traitements non conscients identifiés et étudiés est d’ores et déjà très large : calcul, évaluation statistique, lecture, reconnaissance d’un visage, détection d’une erreur…
« Le moi subliminal n’est nullement inférieur au moi conscient », écrivait Henri Poincaré dans Science et méthode. Il illustrait son propos par l’importance du travail inconscient dans l’activité du mathématicien. Une anecdote qu’il racontait est demeurée célèbre : « Au moment où je mettais le pied sur le marchepied (de l’omnibus), l’idée me vint, sans que rien dans mes pensées antérieures parût m’y avoir préparé, que les transformations dont j’avais fait usage pour définir les fonctions fuschiennes étaient identiques à celles de la géométrie non euclidienne. Je ne fis pas la vérification, je n’en aurais pas eu le temps […] mais j’eus tout de suite une entière certitude. »
En fait, chacun sait qu’il se passe beaucoup de choses en dehors de la conscience.
Chacun sait par exemple qu’il peut être profitable de reporter une décision difficile en s’efforçant de ne plus y penser, que la meilleure décision finira par émerger.
Dans ces conditions, se pourrait-il que la conscience soit épi-phénoménale comme le suggèrent certains ? Se pourrait-il que, comme la mouche du coche, elle ne joue aucun rôle et que tout soit fait en dehors d’elle ?
Ce n’est pas ce que montrent les résultats des études sur la question.
Conscience
Les études présentent l’inconscient comme une armée de processeurs qui opèrent massivement et en parallèle pour évaluer, faire des calculs statistiques, trier les innombrables stimuli de toutes natures (images, sons, émotions…), internes et externes, qui occupent notre cerveau, avant de sélectionner et transmettre à la conscience le petit nombre d’entre eux qui sont jugés pertinents.
La conscience est chargée de mettre en relation ces éléments hétérogènes pour les traiter de façon séquentielle cette fois, et dans la durée.
Seule la conscience permet de garder des éléments en mémoire, le temps de les combiner pour créer des pensées durables qui informeront nos décisions, des pensées que nous pourrons communiquer.
A l’inverse, les données traitées de façon non consciente sont évanescentes. Au bout de 1 à 2 secondes, l’activation inconsciente s’affaiblit jusqu’à en devenir indétectable.
La conscience se présente ainsi comme un espace d’analyse et de délibération plutôt conforme à l’intuition que nous en avons.
Cet espace est identifié physiologiquement.
Il s’appelle « espace de travail neuronal global ».
Il est fait d’un réseau de connexions à longue distance, particulièrement au sein du cortex préfrontal, dont le rôle est de diffuser et maintenir en ligne les informations utiles. Une fois qu’une information est consciente, elle peut être redirigée vers n’importe quelle autre région du cerveau, en fonction de nos objectifs.
L’espace de travail neuronal global n’est pas propre à l’espèce humaine. Nous le partageons par exemple avec les singes.
Il semble pourtant que seul le cerveau humain soit capable dans cet espace de travail de combiner des représentations hétérogènes pour former un véritable « langage de la pensée », ainsi que l’explique Stanislas Dehaene : « L’unicité de l’espèce humaine est peut-être à rechercher dans la façon particulière que nous avons de formuler nos idées à l’aide de structures symboliques enchâssées les unes dans les autres. C’est la récursivité – la propriété qu’ont nos pensées de s’emboîter comme des poupées russes, en sorte que chaque pensée peut elle-même devenir le point de départ d’une autre pensée de niveau supérieur : partir, partir vite, vouloir partir vite, ne pas vouloir partir vite, prétendre ne pas vouloir partir vite, etc. »
Le langage pourrait avoir évolué vers la communication avec les autres à partir de ce système interne de composition mentale, qui semble être à l’origine de plusieurs compétences de notre espèce comme l’invention d’outils, notre capacité à imaginer ce que pensent les autres ou plus simplement la conscience de soi.
Machine consciente
Peut-on fabriquer une machine consciente ?
Le modèle de l’espace de travail global fait certes appel à des fonctions dont les machines contemporaines sont dépourvues.
Dans une machine consciente par exemple, les programmes (homologues des modules cérébraux) devront communiquer entre eux avec une très grande flexibilité ; à chaque instant, n’importe quelle information devra pouvoir être sélectionnée pour en faire le centre d’intérêt de toute la machine ; la machine devra être autonome (au sens propre, c’est-à-dire qu’elle définira ses propres règles) ; etc.
Pour autant, rien ne s’oppose en principe à la construction d’une telle machine.
Qualia
De nombreux philosophes avancent une autre objection à la construction d’une machine consciente : les « qualia ». Ils désignent ainsi ce qu'on pourrait appeler les quanta de l’expérience subjective que sont la peur de l’un, la joie de l’autre… des peurs et des joies privées. Ils avancent que si on comprend comment une machine consciente pourrait reproduire des tâches même complexes de traitement de l’information, on ne comprend pas en revanche comment elle pourrait reproduire les qualia.
C’est vrai, aujourd’hui.
Pourtant, à y regarder de plus près, les qualia font appel à des intuitions plutôt imprécises et il est troublant de constater qu’ils ne jouent aucun rôle dans le traitement de l’information par le cerveau. Ils semblent véritablement épi-phénoménaux.
On peut faire le pari avec Stanislas Dehaene que les qualia seront rangés un jour prochain dans la catégorie des concepts pré-scientifiques : « Ce ne sera pas la première fois que la science remettra en cause une de ses intuitions les plus sûres (pensez au lever du soleil, qui est une rotation de la terre dans le sens opposé). »
Les qualia subiraient ainsi le sort du vitalisme, défendu au moment où on n’avait pas encore développé la biochimie. (On disait alors que la chimie ne pourrait jamais rendre compte du vivant.)
Et après ?
Au-delà des travaux engagés sur la conscience, l’enjeu plus général des neurosciences est d’expliquer comment les états mentaux sont produits par les états d’activité du cerveau, de la même façon que les sciences physiques expliquent déjà comment les états de la matière (solide, liquide, gaz…) sont produits par les interactions entre atomes.
Les neurosciences pourront ainsi donner à la psychologie le fondement physiologique qui lui fait encore défaut.
A titre d’exemple, dire que l’esprit humain est constitué de 3 instances – l’inconscient, le préconscient et le conscient ou encore le moi, le ça et le surmoi – n’a pas plus de fondement que de dire que Dieu est constitué des 3 instances – le Père, le Fils et le Saint-Esprit – dès lors qu’on ne précise pas comment les instances de l’esprit humain s’inscrivent dans le système nerveux d’une personne physique.
Dans leur quête matérialiste de l’esprit, les neurosciences rencontrent aujourd'hui le même scepticisme que rencontrent les explications naturalistes nouvelles depuis les débuts de la science.
A la fin du 19ème siècle, Emil du Bois-Reymond (médecin, physiologiste et philosophe) inventa la formule « Ignoramus, ignorabimus » (nous ne savons pas, nous ne saurons jamais) pour indiquer que la science ne pourrait jamais franchir certaines limites.
Le mathématicien David Hilbert lui a répondu en 1930 : « Pour nous, il n’y a pas d’ignorabimus dans les sciences naturelles. Notre mot d’ordre est : Nous devons savoir, nous saurons. »
Ce mot d’ordre figure sur sa tombe à Göttinguen.
Temps
- Le 24/02/2017
Saint-Augustin écrit dans Les Confessions : « Qu'est-ce que le temps ? Si personne ne me le demande, je le sais ; mais si on me le demande et que je veuille l’expliquer, je ne le sais plus. Pourtant, je le déclare hardiment, je sais que si rien ne se passait, il n’y aurait pas de temps passé ; que si rien n’arrivait, il n’y aurait pas de temps à venir ; que si rien n’était, il n’y aurait pas de temps présent. »
Saint-Augustin dit ainsi la difficulté à appréhender le temps, qu’on ne perçoit pas directement mais à travers les mouvements ou changements qu’on observe autour de nous et dont on a l’intuition qu’ils sont liés au passage de ce que nous appelons le temps.
Aristote disait lui que le temps est le « nombre du mouvement », anticipant par sa formule que le temps doit non seulement être conceptualisé mais aussi mesuré.
Comme tous les concepts de la physique, le concept temps a une histoire.
Tant que l’expérimentation ne sera pas conviée dans le débat, l’histoire du concept temps restera liée aux enseignements de la physique intuitive, la physique que nous a léguée l’évolution.
La physique intuitive est inscrite dans notre système nerveux.
C’est elle qui nous dit que le monde qui nous entoure est fait d’objets, immobiles ou en mouvement dans l’espace ; que l’espace est fait de lieux, plus ou moins éloignés ; qu’un objet occupe un seul lieu, qu’il tombe vers le bas si aucune force ne le conduit ailleurs ; que le mouvement des objets se déroule dans le temps…
La physique intuitive a permis aux premiers hommes de se débrouiller dans un monde de chasseurs-cueilleurs. Elle n’a pas évolué significativement, pas plus que notre système nerveux dans son ensemble qui a été « conçu » pour résoudre des problèmes de chasseurs-cueilleurs.
La physique moderne, née avec l’expérimentation et un usage extensif des mathématiques, va donner petit à petit une image du monde toujours plus éloignée de la physique intuitive.
Temps absolu vs temps relationnel
Le temps est-il indépendant des événements qui se déroulent dans le monde ?
A cette question, Newton répond oui ; Leibniz, non.
Pour Newton, le temps est absolu ; pour Leibniz il est relationnel.
Pour Newton, une horloge universelle pourrait en principe donner l’heure, la même pour tous, partout. Qu’il se passe quelque chose ou qu’il ne se passe rien.
Pour Leibniz, le temps n’est que l’ensemble des relations temporelles (avant, après…) entre les événements. Pas de temps sans événement.
Newton et Leibniz s’opposent de la même façon sur le concept d’espace.
Newton conçoit l’espace comme une boîte, indépendante de la matière qui s’y trouve, alors que Leibniz le conçoit comme l’ensemble des relations spatiales (contiguïté, distance…) entre objets matériels.
Pour Newton, l’espace pourrait être vide de matière ; pour Leibniz, pas d’espace sans matière.
Mécanique classique
Newton est un des pères de la physique moderne. Il est le premier à développer une théorie physique (théorie de la gravitation universelle) valable sur la terre comme au ciel. La mécanique qu’il conçoit sera plus tard dite classique.
Jusqu’à l’arrivée de la relativité au début du 20ème siècle, la mécanique classique va s’imposer, et avec elle, la conception d’un espace boîte et un temps absolu.
Relativité
La relativité, dont les articles fondateurs sont écrits par Einstein en 1905 et 1915, va entamer sérieusement le bel édifice de la mécanique classique, remettre en question le temps absolu de Newton et réhabiliter le temps relationnel de Leibniz.
2 constats expérimentaux…
Le premier établit que 2 horloges en mouvement l’une par rapport à l’autre (l’une part en voyage pendant que l’autre l’attend) ne marqueront pas la même heure lorsqu’elles se retrouveront.
Le temps dépend du mouvement.
Le second établit que 2 horloges à des altitudes différentes sur la terre ne marquent pas non plus la même heure.
Le temps dépend de la gravité.
2 remarques…
Les constats précédents sont établis à notre échelle, avec des horloges d’une très grande précision bien sûr.
On peut remplacer les horloges par des personnes ; c’est alors l’âge des personnes et non plus l’heure des horloges qui varie.
En résumé…
Pas de temps absolu ni d’horloge universelle : le temps est local, dépend du mouvement, de la gravité ; une horloge mesure son temps propre.
Réversibilité
La mécanique classique et la relativité sont fondées sur des modèles mathématiques qui disent l’évolution dans le temps d’un système physique. Ces modèles s’appliquent à différents systèmes physiques : un pendule, le système solaire, l’univers…
Les équations de la mécanique classique et de la relativité ont la propriété de rester valides si on inverse le cours du temps. Le film à l’envers est possible.
Cette propriété dite « réversibilité » ne doit pas surprendre : elle dit par exemple que le système solaire fonctionnerait très bien si on inversait le sens de rotation des planètes sur leurs différentes orbites autour du soleil, ce qui n’est pas extravagant pour un esprit un peu cultivé qui s’est fait expliquer même sommairement la gravitation universelle de Newton.
Temps et chaleur
On ne peut pas dire en revanche qu’un pendule qui revient à l’équilibre du fait de frottements est un système réversible : chacun conviendra que le film à l’envers montre une évolution impossible.
Les modèles mécaniques ne s’appliquent plus lorsqu’il y a frottement, ou plus généralement échange de chaleur.
La théorie des échanges de chaleur est faite par la thermodynamique qui est née au 19ème siècle et a énoncé 2 principes applicables à tout système isolé : la conservation de l’énergie (1er principe) et l’augmentation de l’entropie (2ème principe).
L’exemple canonique d’application du 2ème principe est celui de la boîte qui contient du gaz. Une cloison divise la boîte en 2 compartiments étanches. Le gaz est au départ mis dans un seul compartiment. On retire la cloison. Sans surprise, le gaz va vite remplir le 2ème compartiment pour occuper in fine toute la boîte.
C’est en vertu du 2ème principe de la thermodynamique que la boîte se remplit de gaz.
On sait que le gaz est fait de molécules qui s’agitent, s’entrechoquent, créant ainsi de la chaleur. Lorsqu’on retire la cloison entre les 2 compartiments, chaque molécule évolue d’une façon telle qu’après un certain temps le gaz occupe toute la boîte.
Peut-on imaginer l’inversion du temps dans cette expérience ? Après tout, il suffirait que toutes les molécules prennent simplement le chemin inverse de celui qu’elles ont suivi. Pour chaque molécule, c’est possible. L’hypothèse paraît raisonnable et pourtant chacun conviendra que le film à l’envers n’est pas possible, qu’il n’est pas possible que les molécules lorsqu’elles occupent toute la boîte se regroupent spontanément dans le 1er compartiment.
C’est en vertu du 2ème principe que le temps n’est pas réversible dans l’expérience. Ce principe dit que la chaleur va toujours des objets chauds vers les objets froids. Au départ de l’expérience, le 1er compartiment de la boîte, qui contient seul les molécules de gaz, est plus chaud que le 2ème ; à la fin, les molécules de gaz occupent les 2 compartiments qui sont à la même température, plus faible que la température initiale du 1er compartiment et plus forte que la température initiale du 2ème compartiment.
En résumé, lorsqu’il y a échange de chaleur, le temps n’est pas réversible, la flèche du temps existe bien.
Comme l’écrit Carlo Rovelli dans Par-delà le visible : « C’est toujours la chaleur qui en dernière analyse distingue le passé du futur. C’est universel : une chandelle brûle et se transforme en fumée, mais la fumée ne se transforme pas en chandelle. »
La disparition du temps
La physique développe depuis longtemps une idée du temps qui s’éloigne toujours plus de l’intuition que nous en avons.
Il est ainsi souvent évoqué la « disparition du temps » dans la physique.
Il est vrai que ce qui nous semble constitutif du temps dans l’intuition que nous en avons – le passé est fixe, le futur ouvert, l’instant présent particulier – paraît sérieusement remis en question dans la physique.
Ainsi…
Le temps de la mécanique classique, réversible, ne distingue pas le passé du futur ; l’instant présent n’a rien de particulier.
Le temps de la relativité générale s’intègre dans un univers-bloc regroupant espace, matière et temps, dans lequel passé, présent et futur restent indistincts.
La mécanique quantique et la physique des particules (modèle standard) intègrent le temps de la relativité restreinte dans lequel passé, présent et futur sont encore indistincts.
Seule la thermodynamique fait apparaître la flèche du temps… dont elle fait une approximation macroscopique.
Cette approximation repose sur l’interprétation du 2ème principe que donnera Boltzmann dès la fin du 19ème siècle, interprétation basée sur l’hypothèse atomiste alors encore vivement controversée. Boltzmann montrera à l’aide d’un calcul statistique que dans l’expérience du gaz dans la boîte, le film à l’envers n’est pas impossible, mais simplement très peu probable. Il établira que la probabilité que les molécules de gaz se regroupent spontanément dans le 1er compartiment est tellement petite que nous pouvons la considérer comme nulle et valider le 2ème principe qui a alors une valeur statistique.
Ainsi la flèche du temps apparaît avec l’échange de chaleur qui lui-même n’apparaît qu’au niveau macroscopique. Au niveau microscopique, les atomes (ainsi que les molécules) ne sont ni chauds ni froids. C’est lorsque nous décrivons les choses de façon statistique que la chaleur apparaît : un corps chaud est un corps dont la vitesse moyenne des molécules qui le composent est élevée.
Le temps émergent
La disparition du temps ne semble pas être remise en cause dans la recherche d’une théorie quantique de la gravité.
Cette recherche est en cours et les théories proposées restent spéculatives mais on observera qu’une partie de ces recherches prend acte de cet effacement progressif du temps en le faisant disparaître totalement de la description élémentaire (microscopique) du monde.
Carlo Rovelli (avec d’autres cosmologistes) défend par exemple un modèle de gravité quantique dit à boucles dans lequel la variable temps disparaît complètement des équations de la description élémentaire du monde.
Cette disparition ne signifie pas bien sûr que rien ne change à un niveau élémentaire, mais que ce qui change ne peut pas être ordonné en une succession commune d’instants.
Dans ce modèle, on peut dire que « le temps n’existe pas », qu’il « émerge » au niveau macroscopique, qu’il vient du fait que nous observons le monde de manière grossière.
Cette façon de parler n’est pas, on l'a vu, vraiment nouvelle : la température est absente au niveau microscopique (les atomes ne sont ni chauds ni froids) et présente au niveau macroscopique (comme approximation).
Ce qui est nouveau c’est l’application de l’idée d’émergence au temps lui-même, qui disparaît de la description microscopique du monde.
Encore Carlo Rovelli dans Par-delà le visible : « Tant que nous nous limitons à une description complète du système, toutes les variables du système sont égales et aucune ne représente le temps. Mais dès que nous décrivons le système à l’aide de quantités moyennes sur de nombreuses variables, aussitôt les choses s’organisent de façon que ces quantités moyennes se comportent comme si un temps existait. Un temps au cours duquel la chaleur se dissipe. Le temps de notre expérience quotidienne. […] Le temps n’est qu’un effet de notre négligence à l’égard des micro-états physiques des choses. […] Le temps est notre ignorance. »
Et après ?
Après… il faut attendre que ce qui reste aujourd’hui spéculatif soit confirmé.
Il conviendra ensuite d’essayer de tirer les conséquences des étrangetés portées par cette conception du temps… comme celle selon laquelle nous pourrions vivre dans un monde sans temps si nous avions une perception plus fine de la réalité (si nous avions accès au monde microscopique).
On observera que la conception newtonienne du temps absolu (et de l’espace boîte) a été relativement facile à intégrer à la physique intuitive. En revanche, depuis Boltzmann, depuis Einstein, soit depuis plus d’un siècle, les étrangetés sur la conception du temps apportées par la physique théorique laissent toujours perplexes. Cette tendance ne semble pas vouloir s’inverser.
Laissons le dernier mot au prophète Einstein qui un mois avant sa propre mort écrivait à la veuve de son ami Michele Besso qui venait de mourir : « Michele a quitté ce monde bizarre, un peu avant moi. Cela ne signifie rien. Les gens comme nous, qui croient en la physique, savent que la distinction entre passé, présent et futur n’est pas autre chose qu’une illusion persistante. »
Economie
- Le 20/10/2016
L’économie politique est née au 17ème siècle.
Au 20ème siècle, elle est devenue économie, comme affranchie de la politique.
Elle revendique aujourd’hui un statut de science.
Qu’en est-il ?
L’économie est-elle une science ?
Lorsque Adam Smith écrit en 1776 Recherche sur la nature et les causes de la richesse des nations il connaît l’œuvre de Newton. Il a lu Philosophiae Naturalis Principia Mathematica publié en 1687 et il entend montrer que l’économie obéit comme la physique à des lois naturelles.
Le travail de Smith est prolongé en 1874 par Walras qui donne une formulation mathématique de la « main invisible » de Smith en s’interrogeant sur l’existence d’un « équilibre général ».
La première démonstration moderne – mathématique – de l’existence d’un équilibre général sera faite en 1954 par Arrow et Debreu.
Le modèle de l’équilibre général rappelle à bien des égards la mécanique de Newton. Il a un caractère fondateur pour l’économie moderne. Il est censé lui donner ses lettres de noblesse scientifique.
Le modèle d’équilibre général se démarque pourtant du modèle mécanique de Newton en ce qu’il ne représente pas le réel comme le modèle de Newton mais bien plutôt ce que le réel pourrait être s’il voulait bien se conformer aux hypothèses du modèle : information parfaite, rationalité…
L’écart entre le modèle et la réalité n’est simplement pas connu, ou de façon tellement sommaire que le modèle est d’une utilité faible pour comprendre la réalité économique et dire avec une certitude raisonnable ce qu’on obtiendrait si on essayait de la modifier pour se rapprocher du modèle.
Si les économistes appréhendaient mieux l’écart entre la réalité et leurs modèles, ils seraient sans doute moins démunis face aux crises qui secouent l’économie mondiale régulièrement.
S’il était vrai que l’économie est une science comme la physique, alors il faudrait attendre de la théorie économique qu’elle nous éclaire sur l’histoire du monde économique comme la cosmologie nous éclaire sur l’histoire du monde physique : le monde économique est passé de structures d’échanges frustes entre sapiens du néolithique à l’économie mondialisée d’aujourd’hui de la même manière que le monde physique a évolué de la soupe primordiale aux structures que nous observons aujourd’hui.
S’il était vrai que l’économie est une science comme la physique, alors on devrait voir en économie des prédictions comparables à celle que Georges Gamov a émise à propos du big bang.
Georges Gamov a prédit en 1948 que si le modèle de big bang était vrai alors l’univers devrait être empli d’un rayonnement électromagnétique dont il donnait les caractéristiques attendues.
Ce rayonnement, dit aujourd’hui rayonnement fossile ou fond diffus cosmologique, a été observé par hasard plus de 20 ans après que la prédiction a été faite.
L’observation a considérablement renforcé l’hypothèse du big bang.
En supposant que nous ayons les données historiques appropriées, imagine-t-on une prédiction de la théorie économique remontant par exemple au néolithique et confortant un modèle d’évolution ?
Non.
Pourquoi ?
Simplement parce que les sapiens ne se comportent pas comme les astres : ils peuvent par exemple décider individuellement ou collectivement de ne pas suivre les prescriptions d’un modèle ; les astres ne le peuvent pas.
La croissance de l’économie et l’expansion de l’univers ne sont pas homologues : on peut décider de stopper la croissance de l’économie mondiale ; on ne peut pas décider de stopper l’expansion de l’univers.
La meilleure définition de la science a été donnée par Karl Popper : on est dans la science lorsque ce qu’on dit peut être infirmé par l’expérience.
Les meilleures théories scientifiques sont ainsi assorties de prédictions qui si elles sont contredites par l’expérience alors les théories peuvent être abandonnées ; si en revanche elles se réalisent alors les théories sortent renforcées (comme celle du big bang par la découverte du rayonnement fossile).
C’est ainsi que les résultats de la science s’imposent à tous.
On comprend que l’économie ne répond pas à cette exigence de confrontation au réel.
Les modèles de l’économie qui se veulent explicatifs comme le modèle de l’équilibre général (et ses avatars ultérieurs) sont en fait des modèles de simulation ; ils montrent au mieux ce vers quoi il faut aller : laisser-faire, réguler, redistribuer…
Ces modèles ne relèvent pas de la science dès lors qu’ils ne s’exposent pas à être infirmés par l’expérience.
Thomas Piketty évoque dans son livre Le capital au 21ème siècle la « passion infantile » des économistes pour les mathématiques.
Pour lui, il n’existe pas de loi économique, il existe « une multiplicité d’expériences historiques et de trajectoires à la fois nationales et globales, faites de bifurcations imprévues et de bricolages institutionnels instables et imparfaits, au sein desquels les sociétés humaines choisissent et inventent (c’est moi qui mets en italiques) différents modes d’organisation et de régulation des relations de propriété et des rapports sociaux. »
Et après ?
Les propagandistes de l’économie science aimeraient débarrasser l’économie de la politique ou au moins démontrer que le monde économique est le résultat de forces évolutives comme le monde physique et biologique ; qu’il est inégalitaire comme lui, que nous n’y pouvons rien, qu’on peut se passer de politique pour faire de l’économie.
Si on se préoccupe de vivre dans un monde stable avec un niveau d’inégalité contrôlé, il faut au contraire faire de l’économie politique, i.e. réguler et redistribuer.