Neurone logique

1) Les univers à 2 dimensions

Considérons un univers à deux dimensions

Ω = TableVérité(P0, P1, P2, P3)

x
y
Probabilité
élémentaire
0
0
P0
0
1
P1
1
0
P2
1
1
P3
Exhaustivité : P0 + P1 + P2 + P3 = 1

Les probabilités élémentaires sont numérotées selon un ordre précis, leur nom est composé de la lettre P indicé de leur numéro de place. Le numéro de place correspond à un évènement élémentaire, c'est un numéro dont la décomposition en base deux correspond exactement aux valeurs de x et de y de l'événement élémentaire. Et la probabilité qui s'y trouve représente la probabilité de l'évènement élémentaire.

Et l'on choisie x comme bit de poid fort et y comme bit de poid faible. Le couple (x,y) comprend une première composante x et une seconde composante y. Il ne faut donc pas le confondre avec le multi-ensemble de 2 booléens {x,y} qui constitue un couple à l'ordre près de ses composantes dans lequel on ne peut définir d'ordre indépendament des valeurs de x et y. Ainsi nous avons :

P0   =   P00  =  P(x=0 et y=0)   =   P(¬x et ¬y)
P1   =   P01  =  P(x=0 et y=1)   =   P(¬x et y)
P2   =   P10  =  P(x=1 et y=0)   =   P(x et ¬y)
P3   =   P11  =  P(x=1 et y=1)   =   P(x et y)

L'univers peut donc être décrit complètement par le quadruplet de nombre (P0, P1, P2, P3) qui représentent les 4 probabilités élémentaires. La table de vérité représente une liste d'évènements disjoints et exhaustif avec leur probabilités respectives. Il s'en suit que la somme de leur probabilité est égale à 1. Ces probabilités sont donc déterminés par trois d'entres elles, où par trois autres probabilités issue d'équations indépendantes, trois paramètres libres compris entre 0 et 1. Voici quelques exemples simples de définissions de trois probabilités caractéristiques déterminant les 4 probabilités élémentaires, et qui peuvent se généraliser à un nombre quelconque de degrés de liberté :

Distribution élémentaire :    P(x et ¬y), P(¬x et y), P(x et y), c'est à dire :       P1, P2, P3.
Distribution égalitaire :        P(x), P(y), P(x=y), c'est à dire :                           P2+P3, P1+P3, P0+P3.
Distribution conjonctive :    P(x), P(y), P(x et y), c'est à dire :                        P2+P3, P1+P3, P3.
Distribution disjonctive :     P(x), P(y), P(x ou y), c'est à dire :                       P2+P3, P1+P3, P1+P2+P3.

Dans un univers à deux degrés de liberté, l'espace des probabilités possède 3 degrés de liberté.

2) Les sources

Soit un univers. On suppose qu'il engendre un signal, un flux de caractère, où chaque caractère correspond à un monde tiré au sort. L'ordre des tirages n'intervient pas, la source est dite sans mémoire. Un message est une portion de ce flux.

Dans un univers équiprobable, chaque caractère apporte une même quantité d'information égale au nombre de bits nécessaires pour numéroter les différents caractères possibles qui sont les différents mondes possibles de l'univers. La source est alors dite sans redondance.

Connaissant la loi de probabilité de l'univers, c'est à dire la probabilité élémentaire de chaque monde, et donc de chaque caractère, le caractère émis nous apporte une quantité d'information qui peut être évaluée. Le gain d'information apporté par ce caractère, traduit l'évolution entre notre connaissance, avant réception, exprimée par la probabilité P du caractère en question, et notre connaissance après réception, exprimée par la certitude du caractère en question, c'est à dire une probabilité 1. C'est la formule de Wiener, établie en 1948, qui définie la quantité d'information I(e) = - log(P(e)) apportée par un évènement e de probabilité P(e). (Pour la démontrer, il faut faire l'hypothèse suivante, supposer l'existe d'une mesure de la quantité d'information I définie sur l'ensemble des évènements telle que ∀e I(e) ≥ 0, et telle que si deux évènements e1 et e2 sont indépendant alors I(e1 et e2) = I(e1) + I(e2), et telle que I(1/2) = 1 bit.)

L'univers est une source sans mémoire générant n caractères différents possibles de probabilité respectives Pn. La quantité d'information moyenne apportée par un tirage est alors :

Imoyen = - (P0*log(P0) + P1*log(P1) + P2*log(P2) + P3*log(P3) + .... + Pn-1*log(Pn-1))
Imoyen = - log(P0P0 * P1P1 * P2P2 * P3P3 * ... * Pn-1Pn-1)

Imoyen est aussi appellé entropie de la source, ou l'entropie de l'univers.

Pour un univers équiprobable possèdant n mondes, la probabilité d'un monde est 1/n, et donc la quantité d'information apportée par un caractère est log(n). Et cela correspond au nombre de bits necessaire pour numéroter tous les mondes possibles.

Pour un univers certain, qui ne possède qu'un monde sûre, de probabilité 1, l'entropie est nulle. Les tirages n'apportent aucune information puisque nous savons à l'avance qu'elle est l'unique monde qui sera tiré.

 

1.1) La reconnaissance d'un lien logique entre x et y

Comment reconnaitre l'éventuelle lien logique entre x et y dans un univers connue, c'est à dire lorsque les probabilité P0, P1, P2, P3 sont connues ?. Un lien logique est une proposition logique portant sur les deux variables booléennes x et y. C'est à dire qu'il existe une opération logique d'arité 2 qui appliquée à x et à y produit un évènement qui s'avère toujours réalisé, c'est à dire dont la probabilité est égale à 1.

Il n'y a que 2^(2^2) = 16 opérateurs logiques d'arité 2 possibles dont voici l'énumération dans l'ordre de leur code {0, et, ¬=>, g, ¬<=, d, w, ou, ¬ou, <=>, ¬d, <=, ¬g, =>, ¬et, 1}.

A ces 16 liens logiques correspond 16 conditions sur les probabilités élémentaires. Les conditions dont-il s'agit sont des égalité à 0 ou à 1 de certaine probabilités élémentaires comme indiquées sur le tableau suivant. Voir colonne Univers (P0,P1,P2,P3) :

Code de
l'opérateur
Lien
logique
Table
de vérité
Univers
(P0,P1,P2,P3)
Nombre d'états
microscopiques
Entropie
Quantité
d'information
0
x 0 y
0000
(0,0,0,0)
0
---
---
1
x et y
0001
(0,0,0,1)
1
0
2
2
x ¬=> y
0010
(0,0,1,0)
1
0
2
3
x g y
0011
(0,0,a,b)
2
1
1
4
x ¬<= y
0100
(0,1,0,0)
1
0
2
5
x d y
0101
(0,a,0,b)
2
1
1
6
x w y
0110
(0,a,b,0)
2
1
1
7
x ou y
0111
(0,a,b,c)
3
1.58
0.42
8
x ¬ou y
1000
(1,0,0,0)
1
0
2
9
x <=> y
1001
(a,0,0,b)
2
1
1
10
x ¬d y
1010
(a,0,b,0)
2
1
1
11
x <= y
1011
(a,0,b,c)
3
1.58
0.42
12
x ¬g y
1100
(a,b,0,0)
2
1
1
13
x => y
1101
(a,b,0,c)
3
1.58
0.42
14
x ¬et y
1110
(a,b,c,0)
3
1.58
0.42
15
x 1 y
1111
(a,b,c,d)
4
2
0

Tous les liens logiques (ou évènement) ne se valent pas. Ils n'apportent pas la même quantité d'information. L'univers possède 4 évènements élémentaires dont les tables de vérité sont 0001, 0010, 0100, 1000. Il faut une quantité d'information de log(4) = 2 bits pour numéroter un état microscopique (un évènement élémentaire). La quantité d'information apportée par un lien logique (ou un évènenement) tel que (x ou y) est égale log(4) - log(|(x ou y)|).

Chacun de ces 16 évènements correspond à un sous-ensemble d'évènements élémentaires. La relation d'inclusion est une relation d'ordre partielle représentée sur ce schéma :

Les 4 évènement élémentaires peuvent aussi s'écrirent ainsi :

P0    =    (x ¬ou y)
P1   
=    (x ¬<= y)
P2    =    (x ¬=> y)
P3   
=    (x et y)

La probabilité des évènements se calculent à partir de leur table de vérié :

Code de
l'opérateur
Evènement
Table
de vérité
Ensemble d'états
microscopiques
Probabilité
Probabilité
Nombre d'états
microscopiques
0
x 0 y
0000
{ }
0
0
0
1
x et y
0001
{3}
P3
P3
1
2
x ¬=> y
0010
{2}
P2
P2
1
3
x g y
0011
{2,3}
P2 + P3
P2 + P3
2
4
x ¬<= y
0100
{1}
P1
P1
1
5
x d y
0101
{1,3 }
P1 + P3
P1 + P3
2
6
x w y
0110
{1,2}
P1 + P2
P1 + P2
2
7
x ou y
0111
{1,2,3 }
P1 + P2 + P3
1 - P0
3
8
x ¬ou y
1000
{0 }
P0
P0
1
9
x <=> y
1001
{0,3 }
P0 + P3
P0 + P3
2
10
x ¬d y
1010
{0,2}
P0 + P2
P0 + P2
2
11
x <= y
1011
{0,2,3}
P0 + P2 + P3
1 - P1
3
12
x ¬g y
1100
{0,1}
P0 + P1
P0 + P1
2
13
x => y
1101
{0,1,3}
P0 + P1 + P3
1 - P2
3
14
x ¬et y
1110
{0,1,2}
P0 + P1 + P2
1 - P3
3
15
x 1 y
1111
{0,1,2,3}
P0 + P1 + P2 + P3
1
4

S'il y a des liens logiques entre x et y, alors cela se traduit pour les liens en question perçus comme des évènements, par des calculs de probabilité égale à 1. Mais comme les liens logiques obéïssent à une relation d'ordre partielle, il faut donner celui qui est le plus précis, c'est à dire celui qui à l'entropie la plus faible, c'est à dire celui qui a le minimum d'états microscopiques possibles, c'est à dire celui dont la table de vérité contient le moins de 1. L'algorithme est simple, il consiste à cherche les 0 parmis (P0, P1, P2, P3) et à retourner le lien qui a le plus de zéro. Par exemple, si nous avons (0.2, 0, 0, 0.8) alors nous avons une connaissance d'un lien logique entre x et y qui est (x w y) est qui coresspond à l'ensemble des évènement élémentaire{0, 3}qui écrit en binaire est {00, 11} et qui correspond à l'expression logique (¬x et ¬y) ou (x et y)

Le problème se complique lorsque l'on introduit des erreurs. Les liens logiques ne sont plus exactes, et les probabilités ne sont plus nulles. Si on recherche la probabilité maximum dans la liste des évènements on tombera nécessairement sur les évènements les plus imprécis. Comment définir une notion d'écart de probabilité significatif ?

Dans l'univers équiprobable à n degrés de liberté booléenne, la probabilité d'un évènement E est égale au rapport du nombre d'évènements élémentaires appartenant à E divisé par le nombre totale d'évènements élémentaires.

P(E) = |E| / 2^n

Il s'en suit les probabilités suivantes :

P(x et y) = 1/4
P(x <=> y) = 2/4
P(x ou y) = 3/4

1.2) La notion de signal

On introduit l'ordre des tirages successifs, ce qui n'est pas restrictif car on n'a pas définie cet ordre. Cet ordre peut être n'importe quel ordre, il est néanmoins nécessaire d'un point de vue programmatif. Car de la même façon que l'on ne peut pas énumérer un ensemble sans ordonner implicitement ses éléments, on ne peut énumérer une suite de tirage sans ordonner implicitement leur succession. Délors la succession des tirages va produire pour chaque variable une suite de valeur qui, par analogie aux signaux electriques, sera appelée signal, un signal carré valant 0 ou 1.

L'univers tel que nous l'avons défini ne spécifie rien concernant l'ordre des tirages, et contient dans son interpretation naïve une hypothèse trés forte qui est l'indépendance des évènements avec l'ordre du tirage. Cette hypothèse n'est pas simple à formaliser, aussi, on la contourne le plus souvent en ignorant simplement l'ordre des tirages.

1.3) La sémantique des probabilités conditionnelles.

Un sense chronologique peut être créé grace au concepte de probabilité conditionelle. La probabilité de y sachant x présupose que l'on connaisse x avant y, et reciproquement la probabilité de x sachant y présupose que l'on connaisse y avant x. Bien que cela ne soit qu'une pure construction intelectuelle, cela définie une chronologie abstraite que l'on peut choisir librement.

P(y/x) = P(x et y) / P(x)
P(x/y) = P(x et y) / P(y)
P(y/x)*P(x) = P(x/y)*P(y) = P(x et y)
P(y/x) = P(x/y) * P(y) / P(x)

Lorsque les évènement x et y sont indépendants nous avons :

P(x et y) = P(x)*P(y)

S'ils ne sont pas indépendants alors soit P(x et y) > P(x)*P(y) ce qui signifie que la conjonction des évènements x et y est plus grande que ne le prévoie la conjonction d'évènements indépendants, autrement dit les évènement x et y s'attirent et sont dits corrélés positivement, soit P(x et y) < P(x)*P(y) ce qui signifie que la conjonction des évènements x et y est plus faible que ne le prévoie la conjonction d'évènements indépendants, autrement dit les évènement x et y se fuient et sont dits corrélés négativement.

P(x et y) = P(x)*P(y)
P3 = (P2 + P3)*(P1+P3)
P3 = P2*P1 + P2*P3 + P3*P1 + P3*P3
P3*(1-P2-P1-P3) = P2*P1
P3*P0= P2*P1

P(x et y)*P(¬x et ¬y) = P(x et ¬y)*P(¬x et y)

.../...

1.3) Le pronostique de y selon x

On collecte les informations sur y sachant x. Cela se traduit par le calcule de la probabilité conditionnelle de y sachant x. P(y/x) = P(x et y) / P(x).

.../...

2) L'estimation des probabilités à partir de n tirages

On considère un univers qui comprend une variable booléenne de probabilité p. On veut calculer la probabilité des différents résultats pe que l'on peut obtenir en estimant la probabilité p à partir de n tirages. Pour modéliser ce calcul, on définie un univers plus grand qui comprend n variables booléennes x0, x1, x2..., x(n-1), chacune de probabilité p indépendante. Les évènements élémentaires sont (x0, x1, x2..., x(n-1)) et leur probabilité vaut p^r*(1-p)^(n-r)r est le nombre de variable xi à 1. L'estimation de p faite par cet évènement est simplement pe = r/n.

L'estimation de la probabilité est la somme des valeurs des n variables x0 + x1 + x2 + ... x(n-1) dans le corps Z/nZ exprimé en quanta de probabilité 1/n, et que l'on note pe.

Du fait de l'indépendance des probabilités, la probabilités des conjonctions d'évènements élémentaires s'obtiennent par le produits des évènements élémentaires en questions. La probabilité qu'il y ait r variables valant 1 parmis {x1,x2,x3...,x(n-1)}, vaut : n!/(r!*(n-r)!) * p^r * (1-p)^(n-r). Et c'est la probabilité que pe = r/n.

On vérifie cette formule en s'assurant que la sommation des probabilités fasse 1.

 

.../...

3) La probabilité des univers

Faux

On repose le problème différament. On suppose qu'un premier tirage au sort va choisire un univers parmi m univers de paramètre respectif p0, p1, p2..., p(m-1) selon les probabilités respectives A0, A1, A2,... A(m-1). Puis un deuxième tirages va donner les valeurs booléennes au n variables x0, x1...,x(n-1) selon une probabilité pk déterminée par le premier tirage d'univers. Les variables x0, x1...,x(n-1) sont supposées de probabilité indépendantes.

Les évènements élémentaires sont de la forme k, (x0,x1....,x(n-1)) et leur probabilité vaut Ak* pk^r * (1-pk)^(n-r). Il existe alors une probabilité résultante tenant compte de la succéssion des deux tirages qui est

P(x0) = A0*p0 + A1*p1 + A2*p2 .... + A(m-1)*p(m-1)

La probabilité d'être dans l'univers k est P(u=k) = Ak.

On veut calculer la probabilité que u=k sachant qu'il y a r variables valant 1 parmis {x1,x2,x3...,x(n-1)}.

P(u=k / "r variables valent 1" et "(n-r) variables valent 0") =
      = P("r variables valent 1" et "(n-r) variables valent 0" / u=k) * P(u=k) / P("r variables valent 1" et "(n-r) variable valent 0")

      = (pk^r * (1-pk)^(n-r)) * Ak / ((A0*p0 + A1*p1 .... + A(m-1)*p(m-1))^r * (A0*(1-p0) + A1*(1-p1) .... + A(m-1)*(1-p(m-1)))^(n-r))

4) La distribution équiprobable d'univers selon les quotas de probabilité 1/n

Faux

On applique la formule précédente à un cas particulier, la distribution équiprobable d'univers selon les quotas de probabilité 1/n. C'est à dire que m = n+1, et pour k variant de 0 à n, nous avons :

Ak=1/(n+1)
pk = k/n

La formule devient :

P(u=k / "r variables valent 1" et "(n-r) variables valent 0")

 

 

 

 

 

 

 

 

 

 

 

Les 24 transformations du signale (x,y)

On peut choisire parmis les 24 transformations possibles, celle qui produit un signal (u,v) où u et v est le plus indépendant possible, c'est à dire où |P(u)*P(v) - P(u et v)| soit minimum. Et on choise celle qui produit un signal (u,v) où u et v est le plus dépendant possible, c'est à dire où |P(u)*P(v) - P(u et v)| soit maximum.

.../...

 

 

2) Les univers à 3 dimensions

Considérons un univers à trois dimensions

Ω = TableVérité(P0, P1, P2, P3, P4, P5, P6, P7)

x
y
z
Probabilité
élémentaire
0
0
0
P0
0
0
1
P1
0
1
0
P2
0
1
1
P3
1
0
0
P4
1
0
1
P5
1
1
0
P6
1
1
1
P7
Exhaustivité : P0 + P1 + P2 + P3 + P4 + P5 + P6 + P7 = 1

Les probabilités élémentaires sont numérotées selon un ordre précis, la décomposition en base deux de leur numéro correspond exactement aux valeurs de (x,y,z). Autrement dit, Pn est la probabilité de l'évènement élémentaire (x,y,z)n = x*2^2 + y*2^1 +z*2^0. Ainsi nous avons :

P0   =   P000  =  P(x=0 et y=0 et z=0)   =   P(¬x et ¬y et ¬z)
P1   =   P001   =  P(x=0 et y=0 et z=1)   =   P(¬x et ¬y et z)
P2   =   P010  =  P(x=0 et y=1 et z=0)   =   P(¬x et y et ¬z)
P3   =   P011  =  P(x=0 et y=1 et z=1)   =   P(¬x et y et z)
P4   =   P100  =  P(x=1 et y=0 et z=0)   =   P(x et ¬y et ¬z)
P5   =   P101  =  P(x=1 et y=0 et z=1)   =   P(x et ¬y et z)
P6   =   P110  =  P(x=1 et y=1 et z=0)   =   P(x et y et ¬z)
P7   =   P111  =  P(x=1 et y=1 et z=1)   =   P(x et y et z)

L'univers peut donc être décrit complètement par le 8-uplet de nombre (P0, P1, P2, P3, P4, P5, P6, P7) qui représentent les 8 probabilités élémentaires. La table de vérité représente une liste d'évènements disjoints et exhaustif. La somme de leur probabilité est égale à 1. Ces probabilités sont donc déterminés par 7 d'entres elles, où par 7 autres probabilités issue d'équations indépendantes, 7 paramètres libres compris entre 0 et 1. Voici quelques exemples simples de définissions de 7 probabilités caractéristiques déterminant les 8 probabilités élémentaires, et qui peuvent facilement se généraliser à un nombre quelconque de degrés de liberté :

Distribution élémentaire 
Distribution égalitaire
Distribution conjonctive 
Distribution disjonctive
P(x et ¬y et ¬z)
P
(y et ¬x et ¬z)
P
(z et ¬x et ¬y)
P(x et y et ¬z)
P(x et z et ¬y)
P(y et z et ¬x)
P(x et y et z)

P(x)
P(y)
P(z)
P(x=y)
P(x=z)
P(y=z)
P(x=y et y=z)
P(x)
P(y)
P
(z)
P
(x et y)
P(x et z)
P(y et z)
P(x et y et z)
P(x)
P(y)
P
(z)
P
(x ou y)
P(x ou z)
P(y ou z)
P(x ou y ou z)
P1
P2
P3

P4
P5
P6
P7

P4 + P5 + P6 + P7
P2 + P3 + P6 + P7
P1 + P3 + P5 + P7
P0 + P1 + P6 + P7
P0 + P2 + P5 + P7
P0 + P3 + P4 + P7
P0 + P7
P4 + P5 + P6 + P7
P2 + P3 + P6 + P7
P1 + P3 + P5 + P7
P6 + P7
P5 + P7
P3 + P7
P7
P4 + P5 + P6 + P7
P2 + P3 + P6 + P7
P1 + P3 + P5 + P7
1 - P0 - P1
1 - P0 - P2
1 - P0 - P4
1 - P0

Dans un univers à 3 degrés de liberté boléenne, l'espace des probabilités possède 8 degrés de liberté.

 


D. Mabboux-Stromberg