Pour construire nos structures de données et définir notre langage formel, nous devons procéder à une construction rigoureuse de notre mathématique, comme l'on fait le groupe Bourbaki, mais avec une autre optique, celle de la constructivité des objets et non des démonstrations.
Notre recherche sera guidée par trois principes ; un principe de constructivité, un principe entropique qui reste à définir, et un principe de psychogenèse qui est une sorte de réflexion métaphysique ou psychanalytique (selon la place que l'on prend) à la quelle on ne peut se dérober si on veut expliquer les motivations profondes de la création, ainsi que la source du mouvement.
Il y a toujours une part irréductible de choix par laquelle nous devons passer nous dit le philosophe. Ce sont les questions dites existentielles ou psychanalytiques (selon que l'on se place du coté de celui qui parle ou de celui qui écoute), et qui laisse à penser que dans toute pensée prétendue universelle il existe une relativité résiduelle irréductible (thèse qui peut être interprétée comme une critique du monothéisme).
L'égocentrisme émanant de la psychogenèse devient vite un obstacle. La conscience, tel qu'on la conçoit à notre époque et qui se traduit par le développement proéminent et psychorigide du "je", ne constitue pas le stade ultime de la raison, mais plutôt une régression, une voie de garage, qui porté à son paroxysme constitue une pathologie. Il est nécessaire de développer au contraire, une conscience "sociale" collective pour franchir cette étape. Sans elle le sujet reste comme exilé. Chaque domaine scientifique ne peut ignorer les autres domaines. De même chaque être ne peut expliquer le monde en ne se référant qu'à lui et Dieu selon l'obscurantisme de Descartes. La conséquence principale de cette régression est le développement de l'individualisme avec son cortège d'avatars relatifs aux religions, et son pendant, l'inconscience collective.
Tout système de pensée possède-t-il sa faille ? Nécessite-t-il forcement de passer par un choix arbitraire ? Nous ne répondrons pas à cette question. Mais, pragmatique que nous sommes, nous ferons des choix arbitraires que nous tenterons de réduire en s'appuyant sur les opportunités mathématiques connues. Ces choix sont des heuristiques, tels la méthode du fil d'Ariane, que l'on applique pour sortir d'un labyrinthe. Leur application à la lettre nous permet d'agir sans être l'objet seul du hasard et de la providence, coordonnant notre action et formulant notre pensée sur le monde, mais, peuvent aussi nous aliéner et nous borner, surtout lorsqu'ils s'étendent aveuglément à tous les domaines.... Par leur biais nous sommes élément de cette pensée collective et partie prenante du raisonnement.
Cette forme de fanatisme nécessaire pour transgresser et traverser le conformisme redoutable du système, peut lui-même se retourner contre ses auteurs qu'il soumet déjà à un véritable sacerdoce : On entre en rébellion comme on entre en religion. Car il faut adhérer pleinement aux thèses pour tirer toutes les forces nécessaires aux combats contre le système, et cette adhésion livre l'âme.... Nous en convenons, ces choix obéissent à la même problématique du pouvoir et de la vérité, analysable selon les trois principes d'indépendance, de concordance et de séparation, mais d'un pouvoir sur l'esprit, et d'une vérité métaphysique. Voir le chapitre 3- Le pouvoir et la vérité.
Nous devons donc, pour chaque choix que nous ferons, donner les éléments de base permettant de discourir sur cette problématique. Comme nous construisons une mathématique et non une philosophie, on s'en tiendra aux arguments sur la pertinence des choix relatifs à la construction en cours.
Même une simple définition est un choix, et devra être accompagnée d'un sens intuitif qui lui donnera une couleur et argumentera sur son opportunité.
Comme l'a signalé la psychogénétique, la création ne peut pas faire abstraction des raisons psychanalytiques qui la subordonne. Cela ce traduit naturellement par l'utilisation d'un métalangage, sans lequel nous ne pourrions nous libérer de la théorie étudiée, mais surtout, d'une réflexion métaphysique sur ce langage comme d'une sorte de méta intuition.
Nous commençons par définir un certain nombre de procédés, des méta-fonctions de `A ⇢ B`, qui sont des algorithmes de calcul programmables sur un ordinateur, où `A` et `B` définissent des méta-ensembles énumérables. Autrement dit, nous commençons par un procédé explicitement constructif mais dont le sens intuitif n'est pas directement l'objet que nous recherchons. Ceci afin que le procédé constructif au quel nous nous soumettons n'altère en rien la liberté de définition des objets que nous voulons découvrir.
Et nous ne considérons que des ensembles énumérables, c'est à dire des ensembles `E` telle qu'il existe une machine `E` qui énumère ses éléments, ce qui se note par `E ={x " / " E⊢x}`. Et cela s'applique également pour l'ensemble des déductions possibles. Les mathématiques sont un dialogue, la science hypothético-déductive exacte, qui se subdivisent en de multiples sections emboitées les unes dans les autres pour former un arbre d'hypothèses. Et à chaque section correspond un contexte qui constitue la théorie en cours que nous notons symboliquement par `"Self"` et qui énumére l'ensemble de ses déductions possibles `"Self" ={P " / Self"⊢P}`.
La première structure que nous rencontrons est l'élément, puis la collection d'éléments. Car on commence nécessairement par considérer un élément, puis plusieurs….
Mais l'élément est représenté par une donnée brute. Et plusieurs données distinctes peuvent désignée un même élément. Nous définissons le méta-ensemble des données. Une donnée est un identificateur, c'est à dire qu'il existe un moyen simple pour déterminer si deux données sont égales ou distinctes en tant que donnée brute. Mais en tant qu'élément, la question devient plus délicate. L'élément se manifeste à nos sens sous plusieurs expressions possibles qui sont les données. On considère la classe de représentation d'un élément. L'élément est, en fait, une classe d'équivalence, la classe de toutes les données le représentant.
Et contrairement à la donnée, l'élément n'est plus tout à fait un identificateur, car le moyen exacte pour déterminer si deux éléments sont égaux ou distincts, peut se lancer dans un calcul sans fin et ne donner aucune réponse. Et dans ce cas cela signifie que la théorie en cours ne tranche pas la question.
Cela présuppose qu'il existe une machine énumérant toutes les tautologies, et donc pour chaque théorie, qu'il existe une machine énumèrant toutes ses déductions possibles. Pourquoi cela ? parceque les mathématiques ne sont pas magiques mais mécaniques, qu'elles sont exactes, et conçus dans un monde supposé déterministe tel que la physique classique et percevable de manière finie. Parceque toutes les données sont de taille finies et sont donc énumérables et que toutes les démonstrations sont de tailles finies et sont donc énumérables, car le procédé vérifiant une démonstration donne toujours une réponse affirmative ou négative en un temp fini.
Concrètement, cela signifie que pour la théorie en cours, il existe une machine, appelée semi-prédicat d'égalité, qui accepte en entré les expressions de deux éléments et qui retourne une valeur de vérité, `0` ou `1`, selon que la théorie peut démontrer l'inégalité ou l'égalité, ou bien qui se lance dans un calcul sans fin si la théorie ne peut pas démontrer l'égalité ni l'inégalité. La machine procède de la façon suivante, elle énumère toutes les déductions possibles et s'arrête dès qu'une déduction énumérée répond à la question. Ce semi-prédicat d'égalité est une relation d'équivalence que l'on note par le symbole `=`. Ainsi nous avons :
`AA(x,y) in W^2, x"="y <=> "Self" ⊢ x"="y`
L'ensemble des données possibles (de taille finie) est notées `W`. c'est une carrière puisque toutes les constructions sont faites à partir de cet ensemble, et il est parfois appellé l'univers des constructions possibles. Notez qu'il existe un calcul simple, dont l'arrêt et sûr, pour déterminer si deux données `u` et `v` sont égales et cela se note `u≡v`.
Dans chaque contexte, le semi-prédicat `= ` est une fonction calculable de `W×W⇢{0,1}` définie comme suit :
Ce troisième cas signifie que l'univers peut être complété de deux façons différentes, l'une dans la quelle `x=y`, et l'autre dans laquelle `x!=y`.
Comme nous voulons que notre mathématique soit constructible, `W` et `=` doivent être constructibles. C'est à dire que `W` doit être énumérable et `=` calculable. Et c'est bien le cas : Les données sont de taille finie, donc elles énumères leur valeurs possibles. Les théories sont de taille finie, donc elles énumèrent leur déductions possibles.
On pourrait répéter le développement sur les représentations, en définissant une représentation de représentation, une classe d'équivalence de classes d'équivalence. Mais cela n'apporte pas plus. Et qu'est ce qu'un identificateur si celui-ci ne peut pas être développé ? C'est un numéro. C'est pourquoi l'ensemble des données brutes que nous utilisons est quelque fois identifié à `NN`, l'ensemble des entiers naturels, qui sert alors de carrière pour construire tous les éléments.
`NN` est un ensemble infini considéré parmis les plus simple. C'est une des raison pour laquelle les données brutes (et parcequ'on ne s'interesse pas à leur constitution) sont parfois identifiées à `NN`.
Selon la philosophie intuitionniste, il n'y à rien au delà de l'infini, c'est pourquoi `NN` contient tout.
Nous pouvons maintenant considérer le meta-ensemble de tous les éléments possibles comme étant l'ensemble des classes d'équivalence sur `W` ce qui se note par :
`W"/="`
Dés lors, il existe deux égalité, l'une de bas niveau qu'est l'égalité de données brutes et pour laquelle il existe une machine répondant en un temps fini, "oui" ou "non", l'autre de haut niveau qui est l'égalité d'éléments et pour laquel il existe une machine répondant "oui", "non" ou "non déterminé ". Le "non déterminé" étant l'incomplétion de la théorie, qui existe toujours comme on le verra plus-tard.
Une collection d'éléments est une définition plus floue que l'élément, car on se demande tout de suite comment sont disposés ces éléments les uns par rapport aux autres. On remarque que un ensemble d'éléments est équivalent à une suite d'éléments, à une permutation près quelconque, et après une suppression des éléments déjà présents. Aussi est-il peut-être nécessaire de définir un objet intermédiaire plus général englobant l'ensemble et la suite que l'on pourrait appeler configuration, une liste modulo un groupe de transformations définies uniquement dans le langage de la structure de liste augmenté de l'égalité et de l'inégalité entre éléments.
Un ensemble peut toujours se définir comme sous-ensemble d'un ensemble plus vaste et plus simple.
Si on utilise la définition de l'élément, le meta-ensemble mère de tous les éléments est égale à `NN` modulo la relation d'équivalence `=`.
L'ensemble décidable est déterminé par deux procédés de construction, l'un permettant d'atteindre tous ses éléments, et l'autre d'atteindre tous les éléments qui ne sont pas dans l'ensemble.
Nous passons en revue les différents procédés de constructions d'objets mathématiques en vue de les fonder dans notre nouvelle mathématique et d'en établir une implémentation informatique, et nous cherchons les procédés les plus généraux possibles afin d'en limiter la liste. Nous allons nous restreindre aux procédés de construction d'ensemble décidable n'utilisant que des fonctions réversibles.
Un ensemble est décidable si et seulement s'il est énumérable et que sont complémentaire est aussi énumérable.
Un ensemble non vide est énumérable si et seulement si, il existe un élément `x` et une application calculable `f` définie sur cet ensemble telle que l'ensemble soit égal à :
`{x, f(x), f(f(x)), f(f(f(x))), f^4(x), ...}`.
Un ensemble est énumérable si et seulement si, il existe un élément `x` et une bijection calculable `f` définie sur cette ensemble telle que l'ensemble soit égal à :
`{..., f^(-3)(x), f^(-2)(x), f^(-1)(x), f(x), f(f(x)), f(f(f(x))), f^4(x), ...}`.
Un ensemble décidable ni vide ni plein peut être défini par deux éléments origines, l'un appartenant à l'ensemble et l'autre appartenant à son complémentaire, et par deux ensembles finis d'applications réversibles qui appliqués respectivement aux deux éléments d'origines construisent l'ensemble et son complément dans `W"/="`, cet ensemble de fonctions devant être beaucoup plus simple, et constituant une sorte de super-factorisation.
Ces deux procédés à eux seul définissent l'ensemble décidable d'un point de vue fonctionnel. C'est à dire en répondant aux questions à quoi ça sert ? Qu'est-ce qu'on peut en faire ?. Toutes les opérations calculables sur les ensembles peuvent se construire à partir de ces deux procédés. Par exemple, la fonction caractéristique de l'ensemble `E` procédera en construisant en parallèle `E` et son complémentaire dans l'univers des constructions possibles jusqu'à ce qu'il atteigne l'élément `x` sur lequel il est appliqué, et retournera respectivement `1` ou `0` selon que l'un des deux procédés l'aura atteint, et comme l'ensemble est décidable, une réponse sera toujours donnée en un temp fini.
D'autres super-factorisations peuvent être mise en oeuvre. Elles fondent les structures, qui sont engendrées à partir d'opérateurs générateurs par cloture qui constitue une règle de construction mettant en oeuvre la récurrence générale.
Il existera toujours des ensembles indécidables, mais soit nous ne pouvons pas les atteindre et ils ne nous intéressent points, ou soit ces ensembles indécidables sont induits par nos procédés de construction, et pourront être approximer aussi finement que l'on veut avec nos ensembles décidables. Par contre nous devrons considérer les ensembles semi-décidables comme nous allons le voir dans les chapitres suivants.
Tout problème, aussi complexe soit-il, soumis à notre analyse, se ramène à des sous problèmes élémentaires transcris dans un langage simple et obéissant à une logique triviale. Notre esprit étant limité, il ne serait pas capable d'analyser un problème complexe sans le diviser en parties plus simples. Et la rigueur mathématique nous oblige à utiliser une logique totalement vérifiable et objective, donc triviale.
On pourrait contester ce dernier point en proposant une approche probabiliste. En effet, si la probabilité qu'une théorie soit tautologique est très proche de la certitude, cela peut suffire, la totale certitude n'apportant pas beaucoup plus, alors qu'elle peut avoir un coup considérable. Néanmoins pour établir cette approche probabiliste, et si l'on veut écarter l'écueil d'un empirisme obscur, il est nécessaire d'avoir une base rigoureuse, donc une logique triviale.
Concernant la division en problèmes séparés plus simples, il ne s'agit pas de diviser pour régner en créant des cellules hermétiques, mais au contraire de diviser pour réunifier d'avantage par de nouvelles analogies, en créant ainsi de la structure qui donne du sens et de nouveaux degrés de liberté à la pensé.
Il est regrettable que le cloisonnement des sciences en multiples matières tel qu'elles sont enseignées aujourd'hui, n'obéissent pas à ce principe métaphysique. On se doit d'établir des matières différentes en créant de nouveaux concepts pour, au contraire, en établir des analogies, créant ainsi de la structure qui dévoile leurs sens profonds par le biais d'un savoir davantage universel.
Mais même avec un langage simple et une logique triviale, une démonstration peut être contestable. Car la trivialité de la logique et la simplicité du langage n'empêche pas de constituer des démonstrations extrêmement complexes, très longues et passant par la construction de multiples structures. Seul quelques initiés persévérant sont alors capables de vérifier la démonstration. La probabilité qu'une erreur se soit insérée dans la démonstration, et que celle-ci soit passée inaperçue, devient alors non négligeable.
Est-il possible de construire de façon rigoureuse des mathématiques, comme par exemple l'on fait le groupe Bourbaki, pour proposer une méthode infaillible de vérification des démonstrations proposées, qui puisse être appliquée par des non initiés tel qu'une administration ? Oui dans le principe, mais il y aura toujours un risque d'erreur pour des raisons humaines et sociologiques. Et la démonstration formelle, dont l'établissement peut demander un coût considérable, n'est pas forcement ce qu'il y a de plus important, si nous sommes déjà convaincus de son existence. C'est la démonstration intuitive, les grands axes de la démonstration, les procédés constructifs et les algorithmes employés, les structures utilisées et leurs rôles, leurs raisons cachées et dévoilées par la démonstration, qu'il faut retenir.
Il est utile de recourir aux effets littéraires, à la prosopopée, de faire parler les structures. Car c'est l'esprit qu'il faut retenir, et non la lettre qui est trop détaillée. La poésie permet cela, de conclure notre pérégrination, comme la morale de l'histoire, par une philosophie permettant de donné du corps à notre intition et de la transmetre. D'autres appellent simplement cela, la culture ou le savoir du savoir.