La pertinence pour la recherche du fameux problème de l’unification des quatre interactions dites fondamentales sera reconsidérée en se basant sur le caractère non pythagoricien des théories qui sont censées être ainsi réunies. Pour ce faire, une évaluation sera ici esquissée de la recherche théorique dite des « supercordes », dont le but est précisément d’unifier les quatre interactions de base. 

            1. La théorie des supercordes : d’une extrapolation à l’autre 

            La théorie des supercordes est la plus connue des théories qui sont aujourd’hui proposées afin d’unifier les quatre interactions fondamentales de la physique. Elle fournit un cadre explicatif plus général que celui de n’importe quelle des théories établies. Elle permet en principe de s’attaquer à des questions que les théories établies ne considèrent pas, telles que par exemple la détermination des masses des particules élémentaires, des constantes de couplage ainsi que des dimensions de l’espace-temps[1]. Certains théoriciens des supercordes pensent que les énigmes de la mécanique quantique pourront être reformulées et résolues grâce à cette théorie. Toutefois, la théorie présente certains défauts qui, aux yeux de plusieurs, l’hypothèquent grandement. Ainsi la détermination des équations de la théorie à partir des principes de base s’avère des plus difficiles, si bien qu’on doit encore se contenter de versions très approximatives. Les théoriciens des supercordes reconnaissent qu’il faudra développer de nouveaux outils théoriques pour y parvenir[2]

            L’un des avantages les plus importants de cette théorie réside sans doute dans le concept même des cordes élémentaires posées comme étant de taille finie, contrairement aux particules élémentaires du modèle standard, qui sont posées comme ponctuelles. D’après la théorie des supercordes, les particules élémentaires ponctuelles y sont remplacées par des « cordes » élémentaires non ponctuelles. Il serait facile de constater que leur taille est assez petite pour se trouver bien au-delà de la limite d’observabilité effective. Cela permet, selon les théoriciens des cordes, d’éviter les infinis qui ont imposé l’utilisation des méthodes de renormalisation. Du coup, le concept de corde élémentaire permet de poser une limite aux fluctuations quantiques qui se produisent aux échelles subplanckiennes. En outre, il permet même de se défaire des problèmes posés par les singularités telles que celles des trous noirs ou du big bang. 

            Les adeptes de la théorie des supercordes laissent parfois voir leur présupposé pythagoricien en laissant entendre que la théorie des supercordes serait la théorie physique définitive. Si tel était le cas, cela signifierait que la théorie quantique, ou le modèle standard des particules, n’aurait pas de seuil de réfutabilité potentielle et que la théorie des supercordes hériterait naturellement de cette situation providentielle. La conviction de certains chercheurs d’être sur le point de disposer de la théorie définitive (dite aussi « théorie du tout » ou « théorie ultime ») dès que les problèmes de ponctualité ou de singularité seront surmontés signifie que, dans leur esprit, il n’y a pas de réfutabilité potentielle à considérer ni d’extrapolation excédante et que les théories dites fondamentales sont à considérer comme vérifiées parfaitement même là où on ne les a jamais testées. Comme ils ne discernent pas clairement les limitations de réfutabilité des limitations endothéoriques, ils présupposent naturellement que les limitations intrinsèques de la mécanique quantique se confondent avec les limitations issues des relations d’incertitude de Heisenberg et, en particulier, la limitation liée à la dimension de Planck[3].  

            Cela ne signifie d’ailleurs pas que la théorie des supercordes soit vaine et sans pertinence. Cette théorie est susceptible de faire avancer la recherche et, en fait, elle a déjà commencé à le faire. Elle a fourni de nouveaux outils théoriques qui, même s’ils ne permettent pas encore de faire des prédictions testables, ont fait avancer la compréhension sur certains points. Par ailleurs, il est possible de montrer que, même si cette théorie n’est pas réfutable au sens habituel, elle peut être dépassée. Avec les développements futurs de la recherche, d’autres modèles théoriques pourront vraisemblablement la surpasser, que ce soit sur le plan de la capacité théorique à expliquer ou sur celui de la testabilité expérimentale. De nouveaux modèles seront peut-être capables d’expliquer les défauts intrinsèques de la théorie actuelle des supercordes et, par exemple, de localiser sa ligne de réfutabilité potentielle.  

            2. La pertinence du problème actuel de l’unification 

            On peut considérer l’unification théorique en physique comme l’élaboration d’une théorie synthétique qui inclurait la description des quatre forces fondamentales, en plus d’idées clés telles que le concept de spin ou les symétries de jauge. Cela signifie, pense-t-on, que toute contradiction entre les théories ou les principes fondamentaux serait enfin surmontée. En particulier, on croit que, si on arrivait à surmonter les contradictions entre la théorie de la relativité générale et la mécanique quantique, cela suffirait pour que l’unification théorique soit effective.  

            Cette conception de l’unification théorique comporte une certaine confusion. Prétendre qu’il suffirait d’élaborer une telle théorie pour considérer l’édifice théorique terminé ou quasi terminé est trompeur. Car rien n’indique que cette théorie serait d’emblée exempte de seuil de réfutabilité. Ainsi, même si elle était dénuée de toute contradictions internes, il ne serait pas sûr qu’elle serait en mesure de rendre compte des observations qui seront faites plus tard et, de ce fait, il n’est pas sûr, non plus, qu’elle offrirait une représentation valable de la réalité physique. En outre, ce projet n’inclut rien en ce qui touche à l’unification de la recherche elle-même. Il ne contribue nullement, par exemple, à établir la cohérence conceptuelle de la recherche. 

            Si on suppose que les procédés d’observations continueront de progresser comme ils l’ont fait depuis les débuts du développement conjoint de la recherche, la limite d’observabilité effective va continuer de progresser et, vraisemblablement, la science continuera de s’enrichir de l’observation de nouveaux phénomènes. Il resterait donc tout à fait possible que le seuil de réfutabilité de cette théorie physique unifiante (telle que décrite ci-dessus) soit un jour atteint et dépassé. En outre, si l’on suppose, comme cela est naturel, que de nouveaux concepts ou modèles théoriques apparaîtront, cela signifie que cette théorie unifiante pourra être dépassée elle-même par d’autres théories. Celle-ci n’aurait donc jamais été autre chose qu’une synthèse des théories qui sont actuellement vues comme fondamentales – la relativité générale et la mécanique quantique – avec leurs propres seuils internes de réfutabilité. 

            Il est possible, donc, de considérer que le problème de l’unification, tel que formulé ci-dessus, n’est pas pertinent du point de vue de la recherche scientifique et qu’il est même incohérent. En fait, d’après les données d’observation qui sont effectivement disponibles, les théories de base actuelles ne se contredisent pas. Elles ne se contredisent qu’au-delà de la limite d’observabilité. Cela signifie, entre autres choses, que l’on ne sait pas encore laquelle des deux théories de base sera d’abord prise en défaut par les avancées futures des moyens observationnels. Il est bien possible qu’à long terme, les deux seront prises en défaut. On peut estimer que les théories de base de la physique actuelle sont mutuellement compatibles puisqu’il suffirait logiquement que l’une des deux soit approximative pour que, vraisemblablement, disparaissent les contradictions constatées. Ce n’est que lorsqu’on les suppose toutes les deux pythagoriciennes qu’il y a nécessairement contradiction. Ainsi la contradiction est davantage dans l’interprétation pythagoricienne que dans les deux théories mêmes. 

            De façon plus générale dans l’histoire de la recherche on peut constater que, dès qu’on les considère comme pythagoriciennes, les meilleures théories disponibles à un moment donné ne sont pas compatibles avec celles qui surviennent plus tard. Cela a été le cas des modèles grecs, bien sûr, mais aussi des théories classiques. Ce sera vraisemblablement le cas des théories de base actuelles. La recherche à long terme s’accommode donc bien de théories qui sont incomplètes, ou qui, à un certain moment, s’avèrent mathématiquement incompatibles entre elles ou avec celles qui les suivent. Elles peuvent tout à fait servir à l’avancement de la science. Et il se pourrait que les théories à venir, même si elles sont très différentes des théories de base actuelles, soient encore mathématiquement incompatibles entre elles ou avec d’autres, qui viendront encore plus tard. 

            On a montré, ci-dessus, que le programme de recherche d’Alan Kostelecky consiste à développer délibérément la recherche observationnelle de façon à localiser le seuil de réfutation d’un principe qui jusqu’alors a été jugé fondamental. Un programme plus général du même type consisterait à étendre ce type d’enquête à toutes les théories et principes de base actuels. Et un autre programme, en quelque sorte symétrique du précédent, concernerait plutôt le développement des outils théoriques. Il s’agirait par exemple de chercher de nouveaux modèles théoriques capables de rendre compte des observations actuelles avec différents scénarios de développements futurs pour l’observabilité potentielle. Il s’agirait d’exploiter le polymorphisme mathématique des théories physiques en cherchant à l’étendre. Cette idée signifie, en d’autres termes, que les théoriciens devront chercher de nouveaux modèles dans lesquels les principes de symétrie actuels seront tous vus comme des principes de symétrie approchée, conformément aux observations actuellement connues, mais avec des écarts (par rapport aux symétries parfaites qui leur correspondent) qui n’apparaîtront qu’au-delà de la limite d’observabilité actuelle.  

            On peut prévoir que les prochaines théories à venir sauront garder une bonne marge de manœuvre pour les chercheurs des générations ultérieures, en se présentant elles-mêmes comme seulement approximatives et partielles. C’est ainsi, par exemple, que la théorie des supercordes, de même que les théories concurrentes, devraient être envisagées et non, en particulier, comme des moyens définitifs de surmonter toutes les contradictions des modèles. 

     Si, un jour, on arrive enfin à une théorie de grande unification vraiment fondamentale, il s’agira vraisemblablement d’un état de la science qui saura expliquer ce qu’est la réalité et, aussi, qui saura s’expliquer lui-même, c’est-à-dire qui sera en mesure d’expliquer la nature du développement conjoint dont il sera issu. Pour le moment et à l’époque actuelle, on devra sans doute se faire à l’idée — non pythagoricienne — que les théories actuelles et celles qui les suivront pendant encore un certain temps, dans l’avenir, ne seront qu’approximatives et partiellement valables, et qu’en somme, on doive voir les théories existantes comme moins vraies que ne l’est lui-même le discours critique que l’on peut tenir sur elles. 

Suite


[1] On y remplace les quatre dimensions de l’espace-temps par dix dimensions, une dimension pour le temps, trois pour les dimensions « non enroulées », c’est-à-dire apparentes, de l’espace et six pour les dimensions « enroulées », c’est-à-dire cachées, de l’espace.

[2] C’est ce que pensent en particulier Cumrun Vafa et Edward Witten. Voir Brian Greene, L’univers élégant, Paris,

Robert Laffont, 2000, pp. 190, 197, 209-211, 415. 

[3] On appelle « dimension de Planck » les dimensions-limites de la mécanique quantique. Par exemple, cette théorie pose la limitation inférieure absolue de toute mesure du temps à 5,4 10-44 seconde et celle de la longueur à 1,62 10-35 mètre.