Un évènement `e` s'identifie à une variable booléenne qui vaut `1` lorsque `e` se réalise, et `0` lorsqu'il ne se réalise pas. Ainsi, il peut désigner tantôt un évènement, tantôt la variable booléenne qui lui est associée, et c'est le mécanisme de typage par inférence, ou bien le contexte, qui le détermine. Nous avons les égalités d'évènements suivantes :
`e = (overset(***)e"="1)`
`"¬"e = (overset(***)e"="0)`
`e` étant aussi une variable booléenne, son tirage à l'instant `k` se note `e(k)`, et vaut `0` ou `1`. L'égalité `e(k)"="1` signifit que l'évènement `e` se réalise à l'instant `k`. L'égalité `e(k)"="0` signifit que l'évènement `e` ne se réalise pas à l'instant `k`.
La loi de probabilité de `e` est déterminée par un seul réel qui est sa probabilité, noté `P(e)`, la probabilité que l'évènement `e` se produise. Si les tirages sont indépendants alors il n'existe pas d'autres informations statistiques sur la variable `e`.
Nous avons les égalités de probabilité suivantes :
`P(overset(***)e"="1) = P(e)`
`P(overset(***)e"="0) = 1-P(e)`
On remarque que `e` étant booléen, pour tout entier `r">"0`, nous avons `e^r"="e`, et donc tous les moments non nuls de `e` sont égaux à la moyenne `"<"e^r">=<"e">"`. Et on remarque que la moyenne est égale à la propabilité :
`P(e)="<"e">"`
On remarque que, étant donné deux évènements `a` et `b`, qui peuvent être considérés comme des variables booléennes, le produit `ab` correspond à la variable booléenne associée à l'évènement `(a "et" b)`, et nous considérons qu'il désigne cet évènement :
`ab = a "et" b`
`P(ab)=P(a "et" b)`
La probabilité estimée d'un évènement `e` est la probabilité calculée sur `n` tirages successifs. Cette estimation se note `m_(e,n)(k)` où `k` est l'instant où commence la suite des `n` tirages successifs considérés. Elle correspond à la moyenne de la variable `e` calculée sur ces `n` tirages.
`m_(e,n)(k) = (e(k)+e(k"+"1)+e(k"+"2)+...+e(k"+"n"-"1))/n`
`m_(e,n)(1) = (e(1)+e(2)+e(3)+...+e(n))/n`
`m_(e,n)` constitue une variable. Si la variable `e` est à `n` tirages successifs indépendants et de loi `E`, alors l'estimation de sa probabilité notée `m_(e,n)` qui constitue une variable, sera statistiquement identique à la variable `(e_1"+"e_2"+"e_3"+"..."+"e_n)"/"n` où chaque `e_i` est une variable de loi `E`, et telle que `{e_1, e_2, e_3, ..., e_n}` forment `n` variables indépendantes.
Cela revient à considèrer une variable vectorielle `(e_1, e_2, e_3, ..., e_n)` de loi `E^n` c'est à dire où chaque composante `e_i` possède la même loi `E`, et à considérer que les `n` composantes sont indépendantes.
Déterminons les moments de la variable `m_(e,n)`. Pour alléger l'écriture on note `y` l'estimation de la probabilité de `e` sur les `n` prochains tirages, et on note `p` la probabilité de l'évènement `e` :
`y=m_(e,n)`
`p=P(e)="<"e">"`
On note `sum_i` pour désigner `sum_(i=1)^n` et donc nous avons `sum_i 1 = n`.
La moyenne `"<"y">"` se calcule comme suit :
`y = (e_1 + e_2 + e_3 + ... + e_n)"/"n` `ny = sum_i e_i` `n"<"y">" = sum_i "<"e_i">"` `n"<"y">" = sum_i "<"e">"` `n"<"y">" = "<"e">"sum_i 1` `"<"y">" = "<"e">"` `"<"y">" = p`
La moyenne de l'estimation de la probabilité est évidement égale à la probabilité :
`"<"m_(e,n)">" = P(e)`
Notation : On note `sum_(i<j)` pour désigner `sum_(i=1)^(n-1) sum_(j=i+1)^n` et donc nous avons :
`sum_(i<j) 1 = (n(n"-"1))/(2!)`
Et on remarque la décomposition du carré suivante :
`sum_i sum_j 1 = sum_i 1 + 2sum_(i<j) 1`
`n^2 = n + n(n"-"1)`
La variance `"<"y^2">"` se calcule comme suit :
`y = (e_1 + e_2 + e_3 + ... + e_n)"/"n` `y^2 = (e_1 + e_2 + e_3 + ... + e_n)^2"/"n^2` `n^2y^2 = sum_i e_i^2 + 2 sum_(i<j)e_i e_j` `n^2y^2 = sum_i e_i + 2sum_(i<j)e_i e_j` `n^2"<"y^2">" = sum_i "<"e_i">" + 2sum_(i<j)"<"e_i e_j">"` `n^2"<"y^2">" = sum_i "<"e_i">" + 2sum_(i<j)"<"e_i"><"e_j">"` `n^2"<"y^2">" = sum_i "<"e">" + 2sum_(i<j)"<"e"><"e">"` `n^2"<"y^2">" = sum_i p + 2sum_(i<j)p^2` `n^2"<"y^2">" = p sum_i 1 + 2p^2 sum_(i<j)1 ` `n^2"<"y^2">" = p n + p^2 n(n-1)` `n^2"<"y^2">" = p^2 n^2 + p n - p^2 n` `"<"y^2">" =p^2 + (p - p^2)/n` `"<"y^2">" =p^2 + (p(1 - p))/n`
La variance de l'estimation de la probabilité est égale au carré de la probabilité augmenté d'un terme inférieur à `1/(4n)`.
`"<"m_(e,n)^2">" =P(e)^2 + (P(e)(1 - P(e)))/n`
La variance de la variable centrée, notée `"<"(y"-"p)^2">"`, tend alors vers zéro lorsque `n` tend vers l'infini :
`"<"(y"-"p)^2">" = "<"y^2 + p^2 - 2py">"`
`"<"(y"-"p)^2">" = "<"y^2">" + p^2 - 2p"<"y">"`
`"<"(y"-"p)^2">" = p^2 + (p(1 "-" p))/n + p^2 - 2p^2`
`"<"(y"-"p)^2">" = (p(1 "-" p))/n`
`"<"(m_(e,n) - P(e))^2">" = (P(e)(1 - P(e)))/n`
On note `sum_(i<j<k)` pour désigner `sum_(i=1)^(n-2) sum_(j=i+1)^(n-1) sum_(k=j+1)^n` et donc nous avons :
`sum_(i<j<k) 1 = (n(n"-"1)(n"-"2))/(3!)`
Et on remarque la décomposition du cube suivante :
`sum_i sum_j sum_k 1 = sum_i 1 + 3"∗"2sum_(i<j)1 + 6sum_(i<j<k)1`
`n^3 = n + 3n(n"-"1) + n(n"-"1)(n"-"2)`
Le moment d'ordre `3`, noté `"<"y^3">"`, se calcule comme suit :
`y = (e_1 + e_2 + e_3 + ... + e_n)"/"n` `y^3 = (e_1 + e_2 + e_3 + ... + e_n)^3"/"n^3` `n^3y^3 = sum_i e_i^3 + 3sum_(i<j)(e_i^2 e_j+e_i e_j^2) + 6sum_(i<j<k)e_i e_je_k` `n^3y^3 = sum_i e_i + 3sum_(i<j)(e_i e_j+e_i e_j) + 6sum_(i<j<k)e_i e_je_k` `n^3y^3 = sum_i e_i + 6sum_(i<j)e_i e_j + 6sum_(i<j<k)e_i e_je_k` `n^3"<"y^3">" = sum_i "<"e_i">" + 6sum_(i<j)"<"e_ie_j">" + 6sum_(i<j<k)"<"e_i e_je_k">"` `n^3"<"y^3">" = sum_i "<"e_i">" + 6sum_(i<j)"<"e_i">""<"e_j">" + 6sum_(i<j<k)"<"e_i">""<" e_j">""<"e_k">"` `n^3"<"y^3">" = sum_i "<"e">" + 6sum_(i<j)"<"e">""<"e">" + 6sum_(i<j<k)"<"e">""<" e">""<"e">"` `n^3"<"y^3">" = sum_i p + 6sum_(i<j)p^2 + 6sum_(i<j<k)p^3` `n^3"<"y^3">" = p sum_i 1 + 6p^2sum_(i<j)1 + 6p^3sum_(i<j<k)1` `n^3"<"y^3">" = pn + 3p^2n(n"-"1)+ p^3n(n"-"1)(n"-"2)` `"<"y^3">" = p^3((n"-"1)(n"-"2))/(n^2) + 3p^2(n"-"1)/(n^2) + p 1/(n^2)`
On note `sum_(i<j<k<l)` pour désigner `sum_(i=1)^n sum_(j=i+1)^n sum_(k=j+1)^n sum_(l=k+1)^n` et donc nous avons :
`sum_(i<j<k<l) 1 = (n(n"-"1)(n"-"2)(n"-"3))/(4!)`
Et on remarque la décomposition de l'hypercube de dimension 4 suivante :
`sum_(i=1)^n sum_(j=1)^n sum_(k=1)^n sum_(l=1)^n 1 = sum_(i=1)^n 1 + (6+4"∗"2)sum_(i<j) + 12"∗"3sum_(i<j<k) + 24sum_(i<j<k<l)`
`n^4 = n + 7 n(n"-"1) + 6 n(n"-"1)(n"-"2) + n(n"-"1)(n"-"2)(n"-"3)`
Le moment d'ordre `4`, noté `"<"y^4">"`, se calcule comme suit :
`y = (e_1 + e_2 + e_3 + ... + e_n)"/"n` `y^4 = (e_1 + e_2 + e_3 + ... + e_n)^4"/"n^4` `n^4y^4 = sum_i e_i^4 + sum_(i<j)(6e_i^2 e_j^2 + 4(e_i^3 e_j+e_ie_j^3 )) + 12sum_(i<j<k)(e_i^2 e_je_k +e_i e_j^2e_k+e_i e_je_k^2) + 24sum_(i<j<k<l)e_ie_je_ke_l` `n^4y^4 = sum_i e_i + sum_(i<j)(6e_ie_j + 4(e_ie_j+e_ie_j)) + 12sum_(i<j<k)(e_ie_je_k+e_ie_je_k+e_ie_je_k) + 24sum_(i<j<k<l)e_ie_je_ke_l` `n^4y^4 = sum_i e_i + 14sum_(i<j)e_ie_j + 36sum_(i<j<k)e_ie_je_k +24 sum_(i<j<k<l)e_ie_je_ke_l` `n^4"<"y^4">" = sum_i "<"e_i">" + 14sum_(i<j)"<"e_i">""<"e_j">" + 36sum_(i<j<k)"<"e_i">""<"e_j">""<"e_k">" + 24sum_(i<j<k<l)"<"e_i">""<"e_j">""<"e_k">""<"e_l">"` `"n"^4"<"y^4">" = sum_i "<"e">" + 14sum_(i<j)"<"e">""<"e">" + 36sum_(i<j<k)"<"e">""<"e">""<"e">" + 24sum_(i<j<k<l)"<"e">""<"e">""<"e">""<"e">"` `n^4"<"y^4">" = sum_i p + 14sum_(i<j)p^2 + 36sum_(i<j<k)p^3 + 24sum_(i<j<k<l)p^4` `n^4"<"y^4">" = p sum_i 1 + 14p^2sum_(i<j)1 + 36p^3sum_(i<j<k)1 + 24p^4sum_(i<j<k<l)1` `n^4"<"y^4">" = pn + 7p^2 n(n"-"1) + 6p^3 n(n"-"1)(n"-"2) + p^4n(n"-"1)(n"-"2)(n"-"3)` `"<"y^4">" = p^4((n"-"1)(n"-"2)(n"-"3))/(n^3) + 6p^3 ((n"-"1)(n"-"2))/(n^3) + 7p^2 (n"-"1)/(n^3) +p 1/(n^3)`
Considérons une variable `x` de loi discrète ou continue. La moyenne de la variable `x` se note `"<"x">"`. La moyenne estimée de la variable `x` est la moyenne calculée sur `n` tirages successifs. Cette estimation se note pareillement `m_(x,n)(k) ` où `k` est l'instant où commence la suite des `n` tirages successifs.
`m_(x,n)(k) = (x(k)+x(k"+"1)+x(k"+"2)+...+x(k"+"n"-"1))/n`
`m_(x,n)(1) = (x(1)+x(2)+x(3)+...+x(n))/n`
`m_(x,n)` constitue une variable. Si la variable `x` est à `n` tirages successifs indépendants et de loi `X`, alors l'estimation de sa moyenne notée `m_(x,n)` qui constitue une variable, sera statistiquement identique à la variable `(x_1"+"x_2"+"x_3"+"..."+"x_n)"/"n` où chaque `x_i` est une variable de loi `X`, et telle que `{x_1, x_2, x_3, ..., x_n}` forment `n` variables indépendantes.
Cela revient à considèrer une variable vectorielle `(x_1, x_2, x_3, ..., x_n)` de loi `X^n` c'est à dire où chaque composante `x_i` possède la même loi `X`, et à considérer que les `n` composantes sont indépendantes.
Déterminons les moments de la variable `m_(x,n)`. Pour alléger l'écriture on note `y` l'estimation de la moyenne de `x` basée sur les `n` prochains tirages, et on note `mu_1` la moyenne de l'évènement `x` :
`y=m_(x,n)`
`mu_1="<"x">"`
Déterminons les moments de cette variable `y`, en fonction des moments de `x` qui sont `mu_1="<"x">", mu_2="<"x^2">", mu_3="<"x^3">"....`. La différence avec la probabilité estimée, calculée précédement, tient dans le fait que la variable `x` n'est pas booléenne.
Les tirages étant indépendants, avec `i!=j, i!=k`, nous avons `"<"x_ix_j">" = "<"x_i">""<"x_j">" = "<"x">"^2` (voir, chapitre Partie 3 chapitre 9, "produits de deux variables indépendantes").
On note `sum_i` pour désigner `sum_(i=1)^n` et donc nous avons `sum_i 1 = n`.
La moyenne `"<"y">"` se calcule comme suit :
`y = (x_1 + x_2 + x_3 + ... + x_n)"/"n` `ny = sum_i x_i` `n"<"y">" = sum_i "<"x_i">"` `n"<"y">" = sum_i "<"x">"` `n"<"y">" = "<"x">"sum_i 1` `"<"y">" = "<"x">"` `"<"y">" = mu_1`
La moyenne de l'estimation de la moyenne est évidement égale à la moyenne :
`"<"m_(x,n)">" = "<"x">" `
Les tirages étant indépendants, avec `i"≠"j, i"≠"k`, nous avons :
`"<"x_ix_j">" = "<"x_i">""<"x_j">" `
`"<"x_ix_j">" = "<"x">"^2`
`y = (x_1 + x_2 + x_3 + ... + x_n)"/"n` `y^2 = (x_1 + x_2 + x_3 + ... + x_n)^2"/"n^2` `n^2y^2 = sum_i x_i^2 + 2sum_(i<j)x_i x_j` `n^2"<"y^2">" = sum_i "<"x_i^2">" + 2sum_(i<j)"<"x_i x_j">"` `n^2"<"y^2">" = sum_i "<"x_i^2">" + 2sum_(i<j)"<"x_i"><"x_j">"` `n^2"<"y^2">" = sum_i "<"x^2">" + 2sum_(i<j)"<"x"><"x">"` `n^2"<"y^2">" = sum_i mu_2 + 2sum_(i<j)mu_1^2` `n^2"<"y^2">" = mu_2 sum_i 1 + 2mu_1^2 sum_(i<j)1 ` `n^2"<"y^2">" = mu_2 n + mu_1^2 n(n-1)` `n^2"<"y^2">" = mu_1^2 n^2 + mu_2n - mu_1^2 n` `"<"y^2">" =mu_1^2 + (mu_2 - mu_1^2)/n`
Pour vérifier si on n'a pas oublié des termes dans la décomposition du polynôme, on vérifie que :
`sum_i 1 = n` `sum_(i<j) 1 = (n(n-1))/2` `n +n(n-1) = n^2`
Les tirages étant indépendants, avec `i"≠"j, i"≠"k, j"≠"k`, nous avons :
`"<"x_ix_jx_k">" = "<"x_i">""<"x_j">""<"x_k">"`
`"<"x_ix_j^2">" = "<"x_i">""<"x_j^2">"`
`"<"x_ix_jx_k">" = "<"x">"^3`
Le moment d'ordre `3`, noté `"<"y^3">"`, se calcule comme suit :
`y = (x_1 + x_2 + x_3 + ... + x_n)"/"n` `y^3 = (x_1 + x_2 + x_3 + ... + x_n)^3"/"n^3` `n^3y^3 = sum_i x_i^3 + 3sum_(i<j)(x_i^2 x_j+x_i x_j^2) + 6sum_(i<j<k)x_i x_jx_k` `n^3"<"y^3">" = sum_i "<"x_i^3">" + 3sum_(i<j)("<"x_i^2 x_j">"+"<"x_i x_j^2">") + 6sum_(i<j<k)"<"x_i x_jx_k">"` `n^3"<"y^3">" = sum_i "<"x_i^3">" + 3sum_(i<j)("<"x_i^2">""<"x_j">"+"<"x_i">""<"x_j^2">") + 6sum_(i<j<k)"<"x_i"><"x_j"><"x_k">"` `n^3"<"y^3">" = sum_i "<"x^3">" + 3sum_(i<j)("<"x^2">""<"x">"+"<"x">""<"x^2">") + 6sum_(i<j<k)"<"x"><"x"><"x">"` `n^3"<"y^3">" = sum_i mu_3 + 3sum_(i<j)(mu_2 mu_1+mu_1 mu_2) + 6sum_(i<j<k)mu_1^3` `n^3"<"y^3">" = mu_3 sum_i 1 + 6mu_2 mu_1 sum_(i<j)1 + 6mu_1^3 sum_(i<j<k)1` `n^3"<"y^3">" = mu_3 n + 3 mu_2 mu_1 n(n"-"1) + mu_1^3 n(n"-"1)(n"-"2)` `"<"y^3">" = mu_1^3 (n(n"-"1)(n"-"2))/(n^3) + 3 mu_2 mu_1 (n"-"1)/n^2 + mu_3/n^2`
Pour vérifier si on n'a pas oublié des termes dans la décomposition du polynôme, on vérifie que :
`sum_i 1 = n` `sum_(i<j) 1 = (n(n-1))/2` `sum_(i<j<k) 1 = (n(n-1)(n-2))/6` `n +n(n-1) = n^2` `n + 3n(n-1) + n(n-1)(n-2) = n^3`
La variance estimée de la variable `x` est la moyenne des carrés calculée sur `n` tirages successifs. Cette estimation se note pareillement `V_(x,n)(k) ` où `k` est l'instant où commence la suite des `n` tirages successifs.
`V_(x,n)(k) = (x(k)^2+x(k"+"1)^2+x(k"+"2)^2+...+x(k"+"n"-"1)^2)/n`
`V_(x,n)(1) = (x(1)^2+x(2)^2+x(3)^2+...+x(n)^2)/n`
`V_(x,n)` constitue une variable. Si la variable `x` est à `n` tirages successifs indépendants et de loi `X`, alors l'estimation de sa variance notée `V_(x,n)` qui constitue une variable, sera statistiquement identique à la variable `(x_1^2"+"x_2^2"+"x_3^2"+"..."+"x_n^2)"/"n` où chaque `x_i` est une variable de loi `X`, et telle que `{x_1, x_2, x_3, ..., x_n}` forment `n` variables indépendantes.
Cela revient à considèrer une variable vectorielle `(x_1, x_2, x_3, ..., x_n)` de loi `X^n` c'est à dire où chaque composante `x_i` possède la même loi `X`, et à considérer que les `n` composantes sont indépendantes.
Déterminons les moments de la variable `V_(x,n)`. Pour alléger l'écriture on note `y` l'estimation de la variance de `x` basée sur les `n` prochains tirages, et on note `mu_2` la variance de l'évènement `x` :
`y=V_(x,n)`
`mu_2="<"x^2">"`
Déterminons les moments de cette variable `y`, en fonction des moments de `x` qui sont `mu_1="<"x">", mu_2="<"x^2">", mu_3="<"x^3">"....`.
`y = (x_1^2+ x_2^2 + x_3^2... + x_n^2) "/" n` `ny = sum_i x_i^2` `n"<"y">" = sum_i "<"x_i^2">"` `n"<"y">" = sum_i "<"x^2">"` `n"<"y">" = mu_2 sum_i 1` `"<"y">" = mu_2`
La moyenne de l'estimation de la variance est évidement égale à la variance :
`"<"V_(x,n)">" = "<"x^2">" `
`y = (x_1^2+ x_2^2 + x_3^2... + x_n^2) "/" n` `y^2 = (x_1^2 + x_2^2 + x_3^2... + x_n^2)^2 "/" n^2` `n^2y^2 = sum_i x_i^4 + 2sum_(i<j) (x_i^2x_j^2)` `n^2"<"y^2">" = sum_i "<"x_i^4">" + 2sum_(i<j) ("<"x_i^2x_j^2">")` `n^2"<"y^2">" = sum_i "<"x_i^4">" + 2sum_(i<j) ("<"x_i^2"><"x_j^2">")` `n^2"<"y^2">" = sum_i "<"x^4">" + 2sum_(i<j) ("<"x^2"><"x^2">")` `n^2"<"y^2">" = sum_i mu_4 + 2sum_(i<j) mu_2^2` `n^2"<"y^2">" = mu_4 sum_i 1 + 2mu_2^2sum_(i<j)1 ` `n^2"<"y^2">" = mu_4 n + mu_2^2 n(n"-"1)` `"<"y^2">" = mu_2^2 (n"-"1)/n + mu_4 1/n`
`y = (x_1^2+ x_2^2 + x_3^2... + x_n^2) "/" n` `y^3 = (x_1^2 + x_2^2 + x_3^2... + x_n^2)^3 "/" n^3` `n^3y^3 = sum_i x_i^6 + 3sum_(i<j)(x_i^4 x_j^2 + x_i^2 x_j^4) + 6sum_(i<j<k)x_i^2 x_j^2 x_k^2` `n^3"<"y^3">" = sum_i "<"x_i^6">" + 3sum_(i<j)("<"x_i^4 x_j^2">" + "<"x_i^2 x_j^4">") + 6sum_(i<j<k)"<"x_i^2 x_j^2 x_k^2">"` `n^3"<"y^3">" = sum_i "<"x_i^6">" + 3sum_(i<j)("<"x_i^4"><"x_j^2">" + "<"x_i^2"><"x_j^4">") + 6sum_(i<j<k)"<"x_i^2"><"x_j^2"><"x_k^2">"` `n^3"<"y^3">" = sum_i "<"x^6">" + 3sum_(i<j)("<"x^4"><"x^2">" + "<"x^2"><"x^4">") + 6sum_(i<j<k)"<"x^2"><"x^2"><"x^2">"` `n^3"<"y^3">" = sum_i mu_6 + 6sum_(i<j)mu_4 mu_2 + 6sum_(i<j<k)mu_2^3` `n^3"<"y^3">" = mu_6 sum_i 1 + 6mu_4 mu_2 sum_(i<j)1 + 6mu_2^3 sum_(i<j<k)1` `n^3"<"y^3">" = mu_6 n + 3mu_4 mu_2 n(n"-"1) + mu_2^3 n(n"-"1)(n"-"2)` `"<"y^3">" = mu_2^3 (n(n"-"1)(n"-"2))/n^3 + 3 mu_4 mu_2 (n"-"1)/n^2 + mu_6 1/n^2 `
Les moments centraux d'une variable sont ceux de la variable centrée. Et les moments réduits d'une variable sont ceux de la variable réduite. Soit une variable `x` de moment `mu_1, mu_2, mu_3...`. On note les moments centraux `mu_1', mu_2', mu_3'...`, et les moments réduits `mu_1'', mu_2'', mu_3''...`. Et nous avons toujours `mu_0=1`. On note les coefficients binomiaux comme suit :
`((n),(r))=(n!)/(k!(n-k)!)`
Le moment centré d'ordre `r`, noté `mu_r'`, de la variable `x` se calcule comme suit :
`mu_r' = "<"(x-mu_1)^r">"` `mu_r' = "<"sum_(r=0)^r ((overset(▴)r),(r)) x^(overset(▴)r-r) ("-"mu_1)^r">"` `mu_r' = sum_(r=0)^r ((overset(▴)r),(r)) "<"x^(overset(▴)r-r)">" ("-"mu_1)^r` `mu_r' = sum_(r=0)^r ((overset(▴)r),(r)) mu_(overset(▴)r-r) ("-"mu_1)^r`
`mu_1' = mu_1 - mu_0mu_1`
`mu_2' = mu_2 - 2mu_1mu_1 + mu_0mu_1^2`
`mu_3' = mu_3 - 3mu_2mu_1 + 3mu_1mu_1^2 - mu_0mu_1^3`
`mu_4' = mu_4 - 4mu_3mu_1 + 6mu_2mu_1^2 - 4mu_1mu_1^3 + mu_0mu_1^4`
`mu_1' = 0`
`mu_2' = mu_2 - mu_1^2`
`mu_3' = mu_3 - 3mu_2mu_1 + 2mu_1^3`
`mu_4' = mu_4 - 4mu_3mu_1 + 6mu_2mu_1^2 - 3mu_1^3`
Le moment réduit d'ordre `r`, noté `mu_r''`, de la variable `x` se définit comme suit :
`mu_r'' = "<"(ax+b)^r">"`
avec
`a = 1/sqrt(mu_2 - mu_1^( 2))`
`b = - amu_1`
Et donc il se calcule comme suit :
`mu_r'' = "<"sum_(r=0)^r ((overset(▴)r),(r)) a^(overset(▴)r"-"r)x^(overset(▴)r"-"r)b^r">"`
`mu_r'' = sum_(r=0)^r ((overset(▴)r),(r)) a^(overset(▴)r"-"r)"<"x^(overset(▴)r"-"r)">"b^r`
`mu_r'' = sum_(r=0)^r ((overset(▴)r),(r)) mu_(overset(▴)r"-"r) a^(overset(▴)r"-"r) b^r`
`mu_r'' = sum_(r=0)^r ((overset(▴)r),(r)) mu_(overset(▴)r"-"r) a^(overset(▴)r"-"r) a^r("-"mu_1)^r`
`mu_r'' = sum_(r=0)^r ((overset(▴)r),(r)) mu_(overset(▴)r"-"r) a^(overset(▴)r)("-"mu_1)^r`
`mu_r'' = a^r sum_(r=0)^r ((overset(▴)r),(r)) mu_(overset(▴)r"-"r)("-"mu_1)^r`
`mu_r'' = a^r mu_r'`
Ainsi nous avons :
`mu_1'' = a(mu_1 - mu_0mu_1)`
`mu_2'' = a^2(mu_2 - 2mu_1mu_1 + mu_0mu_1^2)`
`mu_3'' = a^3(mu_3 - 3mu_2mu_1 + 3mu_1mu_1^2 - mu_0mu_1^3)`
`mu_4'' = a^4(mu_4 - 4mu_3mu_1 + 6mu_2mu_1^2 - 4mu_1mu_1^3 + mu_0mu_1^4)`
`mu_1'' = 0`
`mu_2'' = 1`
`mu_3'' = (mu_3 - 3mu_2mu_1 + 2mu_1mu_1^2) (mu_2 - mu_1^2)^(-3/2)`
`mu_4'' = (mu_4 - 4mu_3mu_1 + 6mu_2mu_1^2 - 3mu_1^3) (mu_2 - mu_1^2)^-2`
---- 8 février 2020 ----