Etant donné deux variables `x` et `y`, et un schéma de tirage dans lequel les variables `x` et `y` sont tirées en même temps, cela représente une variable de dimension `2` que l'on note `(x,y)` et que l'on appel produit cartésien de la variable `x` et de la variable `y`. Cela constitue une variable vectorielle `(x,y)` dont le domaine d'évolution est :
`"Arr"(x,y) = "Arr"(x)"×Arr"(y)`
Par convention, on notera `L_x` la loi de la variable `x`, et on l'appellera simplement la loi de `x`. C'est une fonction de `"Arr"(x) -> [0,1]`. Puis on désignera souvent la loi d'une variable `x` par sa majuscule `X` qui est une loi de probabilité si la variable est de loi discrète, et qui est une loi de densité de probabilité si la variable est de loi continue. Ainsi on pose habituellement :
`X=L_x`
`Y=L_y`
`F=L_("("x,y")")`
La connaissance de `F` comprend la connaisance de `X` et de `Y` et davantage encore, elle comprend la connaissance de la dépendance entre `x` et `y`.
Dans le cas de deux variables de loi discrète, les lois de `x` et de `y` s'obtiennent à partir de la loi de `(x,y)` comme suit :
`X(x) = sum_y F(x,y)`
`Y(y) = sum_x F(x,y)`
Les lois sont normées, c'est à dire :
`sum_x X(x) = 1`
`sum_y Y(y) = 1`
`sum_x sum_y F(x,y) = 1`
Par convention on note une sommes à multiple indices comme suit :
`sum_(x,y) = sum_x sum_y`
Dans le cas de deux variables de loi continue, on remplace la somme, intégrant le domaine d'évolution de la variable, par l'intégrale, et on multiplie la loi qui est alors une loi de densité de probabilité par l'élément différentiel de cette variable. Autrement dit pour chaque variable `x` on remplace `sum_x X(x)` par `int_x X(x)dx`
Ainsi pour le cas continu nous avons :
`X(x) = int_y F(x,y)dy` `Y(y) = int_x F(x,y)dx`
Les lois sont normées, c'est à dire :
`int_x X(x)dx = 1` `int_y Y(y)dy = 1` `int_x int_y F(x,y)dxdy = 1`
Notez que, l'intégrale spécifiant en indice une variable, intègre sur tout le domaine d'évolution de cette variable.
`int_x X(x)dx = int_(x in "Arr"(x)) X(x)dx`
Dans le cas mixte où `x` est de loi continue et `y` est de loi discrète, nous avons :
`X(x) = sum_y F(x,y)` `Y(y) = int_x F(x,y)dx`
Les lois sont normées, c'est à dire :
`int_x X(x)dx = 1` `sum_y Y(y) = 1` `sum_y int_x F(x,y)dx = 1`
Etant donné deux variables `x` et `y`, et un schéma de tirage dans lequel les variables `x` et `y` sont tirés en même temps, on nomme la loi de `x` par `X`, la loi de `y` par `Y` et la loi de `(x,y)` par `F`, ce qui s'écrit :
`X = L_x`
`Y = L_y`
`F = L_("("x,y")")`
On applique l'axiome des probabilités indépendantes, à savoir, si deux évènements `e_1` et `e_2` sont indépendants alors la probabilité de leur réalisation commune lors d'un même tirage `P(e_1 "et" e_2)` est égale au produit des probabilités de chacun `P(e_1 "et" e_2)=P(e_1)P(e_2)`.
|
Deux variables discrètes `x` et `y` sont indépendantes si et seulement si quelque soit les valeurs `x` et `y`, les évènements `overset(***)x"="x` et `overset(***)y"="y` sont indépendants.
|
Deux variables continue `x` et `y` sont indépendantes si et seulement si quelque soit les valeurs `x` et `y`, les évènements `overset(***)x∈"]"x, x"+"dx"["` et `overset(***)y∈"]"y, y"+"dy"["` sont indépendants.
|
Supposons `{x,y}` indépendants.
`X(x) = P(overset(***)x"="x)`
`Y(y) = P(overset(***)y"="y)`
`F(x,y) = P((overset(***)x,overset(***)y)"="(x,y))`
`F(x,y) = P(overset(***)x"="x "et" overset(***)y"="y)`
Et comme `{overset(***)x"="x, overset(***)y"="y}` sont indépendants, nous avons :
`F(x,y) = P(overset(***)x"="x) P(overset(***)y"="y)`
`F(x,y) = X(x)Y(y)`
En conclusion, les variables `{x, y}` sont indépendantes si et seulement si la loi de `(x,y)` est égale au produit des lois de `x` et de `y` :
`F(x,y) = X(x)Y(y)`
Dans le cas de lois continues cela s'écrit pareillement en terme de densité de probabilité car en terme de probabilité nous avons :
`F(x,y)dxdy=X(x)dx Y(y)dy`
Et le même raisonnement s'applique en remplaçant les évènements discret `overset(***)x"="x` par les évènements différentiels `overset(***)x"∈]"x, x"+"dx"["`. Dans le cas mixte où `x` est de loi continue et `y` de loi discret, nous avons `F(x,y)dy = X(x) Y(y)dy`.
Les lois de `x"+"y` et de `xy` que l'on note `L_(x+y)` et `L_(xy)` ne sont pas simples à calculer. Parcontre les moments de `x"+"y` et de `xy` sont plus simples à calculer comme nous allons le voir.
Par convention, on notera `bbL_x` la fonction cumulative de la variable `x`. Puis on désignera souvent la fonction cumulative de `x` par sa majuscule grasse `bbX`, la fonction cumulative de `y` par sa majuscule grasse `bbY`, et la fonction cumulative de `(x,y)` par `bbF`, ce qui s'écrit :
`bbX = bbL_x`
`bbY = bbL_y`
`bbF = bbL_("("x,y")")`
Supposons `{x,y}` indépendants.
`bbX(x) = P(overset(***)x"<"x)`
`bbY(y) = P(overset(***)y"<"y)`
`bbF(x,y) = P(overset(***)x"<"x" et "overset(***)y"<"y)`
`bbF(x,y) = P((vvv_(x<x) (overset(***)x"="x))" et "overset(***)y"<"y)`
Comme les événements `overset(***)x"="x` sont disjoints deux à deux, nous avons :
`bbF("x","y") = sum_(x<x) P(overset(***)x"="x "et" overset(***)y"<"y)`
`bbF("x","y") = sum_(x<x) P(overset(***)x"="x "et" vvv_(y<x) (overset(***)y"="y))`
Comme les événements `overset(***)y"="y` sont incompatibles deux à deux, nous avons :
`bbF(x,y) = sum_(x<x) sum_(y<y)P(overset(***)x"="x "et" overset(***)y"="y)`
Comme `{x,y}` sont indépendants, nous avons :
`bbF(x,y) = sum_(x<x) sum_(y<y)P(overset(***)x"="x)P(overset(***)y"="y)`
`bbF(x,y) = sum_(x<x) P(overset(***)x"="x) sum_(y<y)P(overset(***)y"="y)`
`bbF(x,y) = (sum_(x<x) P(overset(***)x"="x)) (sum_(y<y)P(overset(***)y"="y))`
`bbF(x,y) = bbX(x) bbY(y)`
En conclusion, les variables `x` et `y` sont indépendantes si et seulement si la fonction cumulative de `(x,y)` est égale au produit des fonctions cumulatives de `x` et de `y`
`bbF(x,y) = bbX(x)bbY(y)`
Dans le cas de lois continues, le même raisonnement s'applique en remplaçant les évènements discret `overset(***)x"="x` par les évènements différentiels `overset(***)x"∈]"x, x"+"dx"["`. Et cela s'applique aussi dans le cas mixte.
La loi s'obtient à partir de la fonction cumulative comme suit. Quelque soit `x_1"<"x_2` et `y_1"<"y_2`, nous avons :
`P(overset(***)x "∈["x_1,x_2"[" "et" overset(***)y"∈["y_1,y_2"[") = bbF(x_2,y_2)+bbF(x_1,y_1)-bbF(x_2,y_1)-bbF(x_1,y_2)`
Et donc pour une variable vectorielle `(x,y)` de loi discrète définie sur :
`"Arr"(x,y)={0,1,2,...,n}"×"{0,1,2,...,m}`
Nous avons :
`F(x,y) = bbF(x"+"1,y"+"1)+bbF(x,y)-bbF(x"+"1,y)-bbF(x,y"+"1)`
Et pour une variable de loi continue, nous avons :
`F(x,y)dxdy = bbF(x"+"dx,y"+"dy)+bbF(x,y)-bbF(x"+"dx,y)-bbF(x,y"+"dy)` `F(x,y)dy = (bbF(x"+"dx,y"+"dy) - bbF(x,y"+"dy))/(dx) - (bbF(x"+"dx,y) - bbF(x,y))/(dx)`
`F(x,y)dy = (del bbF(x,y"+"dy))/(del x) - (del bbF(x,y))/(del x)`
`F(x,y) = ((del bbF(x,y"+"dy))/(del x) - (del bbF(x,y))/(del x))/(dy)`
`F(x,y) = (del^2 bbF(x,y))/(del x del y)`
Et l'opération inverse :
`bbF(x,y) = int_x int_y F(x,y)dxdy`
La notation différentielle permet de simplifier davantage la formulation, si on déclare le neurone `bbF"←" (x,y)` et le neurone `F"←"(x,y)`, alors la conclusion se note :
`F = (del^2 bbF)/(del x del y)`
L'indépendance est une notion clef en probabilité. Etant donné une variable vectorielle `(x,y)` de loi continue `F` définie sur `"Arr"(x)"×Arr"(y)`. Les projections définissent la variable `x` de loi `X` définie sur `"Arr"(x)`, et la variable `y` de loi `Y` définie sur `"Arr"(y)`.
La fonction cumulative de `(x,y)` se note `bbF`, la fonction cumulative de `x` se note `bbX` et la fonction cumulative de `y` se note `bbY`.
La condition d'indépendance se définit formellement à partir des probabilités élémentaires, par la première proposition pour une loi discrète, et par le seconde proposition pour une loi continue :
`{x,y}`
indépendants`<=>` `AAxAAy,P(overset(***)x"="x "et" overset(***)y"="y) = P(overset(***)x"="x)P(overset(***)y"="y)`
`{x,y}`
indépendants`<=>` `AAxAAy,P(overset(***)x"∈]"x, x"+"dx"[" "et" overset(***)y"∈]"y, y"+"dy"[") = P(overset(***)x"∈]"x, x"+"dx"[")P(overset(***)y"∈]"y, y"+"dy"[")`
Ou autrement dit :
`{x,y}`
indépendants`<=>` `AAxAAy, F(x,y)=X(x)Y(y)`
Ou autrement dit :
`{x,y}`
indépendants`<=>` `AAxAAy, bbF(x,y)=bbX(x)bbY(y)`
Remarquez que dans ces expressions, `AAx` ne précise pas le type de `x`. Celui-ci est limité de fait, soit par l'appel de la fonction `X(x)` faisant que le type de `x` est restreint à l'ensemble de départ de `X` qui est par définition `"Arr"(x)`, ou soit par l'appel `overset(***)x"="x`, l'étoile au dessus dans l'expression `overset(***)x` indique que l'expression retourne la valeur d'un tirage d'une variable de nom `x`, cette valeur étant mise à égalité de `x`, l'appel `overset(***)x"="x` entraine que le type du paramètre `x` est restreint à l'ensemble d'arrivé de la variable `x`, qui se note `"Arr"(x)`. Ce mécanisme de typage, dit, typage par inférence, permet dans de nombreux cas d'omettre la déclaration de type des variables.
L'hypothèse d'indépendance entre deux variables `x` et `y` entraine de nombreuses conséquences.
Démontrons dans le cas ou `X` et `Y` sont des lois discrètes, que pour toutes fonctions `f` et `g` nous avons `{f(x),g(y)}` indépendants.
On définit la variable `u` par l'égalité `u=f(x)`.
On définit la variable `v` par l'égalité `v=g(y)`.
Comme nous n'étudions que des variables bornées, `"Arr"(x)` et `"Arr"(y)` sont finis.
On note
`{x_1, x_2, ..., x_n}= f^-1(u)`.
On note
`{y_1, y_2, ..., y_m}= g^-1(v)`.
L'évènement `overset(***)u"="u` se réalise si et seulement si l'un des évènements `overset(***)x"="x_1, overset(***)x"="x_2,..., overset(***)x"="x_n` se réalise. Comme ces évènements sont disjoints deux à deux, la probabilité de `overset(***)u"="u` est égale à la somme de leur probabilité :
`P(overset(***)u"="u) = sum_(i=1)^n P(overset(***)x"="x_i)`
`P(overset(***)v"="v) = sum_(j=1)^m P(overset(***)y"="y_j)`
De même, les évènements `{(overset(***)x"="x_i "et" overset(***)y"="y_j) "/" (i,j) "∈" {1,2,...,n}"×"{1,2,...,m}}` sont deux à deux disjoints, donc la probabilité que l'un d'entre eux se réalise est égale à la sommes de chacune de leur probabilité :
`P(overset(***)u"="u "et" overset(***)v"="v) = sum_(i=1)^n sum_(j=1)^m P(overset(***)x"="x_i "et" overset(***)y"="y_j)`
`P(overset(***)u"="u "et" overset(***)v"="v) = sum_(i=1)^nsum_(j=1)^m P(overset(***)x"="x_i)P(overset(***)y"="y_j)` # Car `{x,y}` indépendants.
`P(overset(***)u"="u "et" overset(***)v"="v) = sum_(i=1)^n P(overset(***)x"="x_i) sum_(j=1)^m P(overset(***)y"="y_j)` # Factorisation.
`P(overset(***)u"="u "et" overset(***)v"="v) = (sum_(i=1)^nP(overset(***)x"="x_i)) (sum_(j=1)^m P(overset(***)y"="y_j))` # Distributivité.
`P(overset(***)u"="u "et" overset(***)v"="v) = P(overset(***)u"="u)P(overset(***)v"="v)``{u,v}` indépendants.
Si `x` et `y` sont deux variables indépendantes de loi discrète alors quelque soit des fonctions `f` et `g` arbitraires, `f(x)` et `g(y)` définissent deux variables indépendantes de loi discrète.
Dans le cas de lois continues, le même raisonnement s'applique en remplaçant les évènements discret `overset(***)x"="x` par les évènements différentiels `overset(***)x"∈]"x, x"+"dx"["`. Et cela s'applique aussi dans le cas mixte.
Si `x` et `y` sont deux variables indépendantes de loi continue alors quelque soit des fonctions `f` et `g` arbitraires telle que `f(x)` et `g(y)` forment deux variables de loi continue, nous avons nécessairement la propriété que `f(x)` et `g(y)` sont indépendants.
Etant donné deux évènements `a, b`, la probabilité de `a` sachant que `b` se réalise se note `P(a"\" b)`. C'est la fréquence de l'évènement `a` parmis les tirages où se réalise l'évènement `b`.
`P(a) = lim_(k->oo)1/k sum_(k=1)^k a(k)`
`P(a"\"b) = lim_(k->oo) (sum_(k=1)^k a(k)b(k))/(sum_(k=1)^k b(k))`
`a(k)` désigne la valeur logique `0` ou `1` de l'évènement `a` à l'instant `k`. Autrement dit, `a(k)` vaut `1` si l'évènement `a` se produit à l'instant `k`, et vaut `0` sinon si l'évènement `a` ne se produit pas à l'instant `k`. De même pour `b(k)`. Notez alors que le produit `a(k)b(k)` est identique à `(a "et" b)(k)`. Autrement dit, `a(k)b(k)"="1` si et seulement si les évènements `a` et `b` se réalise à l'instant `k`.
On restreint ainsi l'univers probabiliste aux seuls évènements réalisant `b`. Les probabilités sont alors simplement renormées à `1` en les divisants par la probabilité de `b` :
`P(a"\"b) = (P(a "et" b))/(P(b))`
On remarque que :
`P(a "et" b) = P(a) P(b"\"a)`
`P(a "et" b) = P(b) P(a"\"b)`
Étant donné une variable vectorielle `(x,y)` de loi `F`, et dont les projections définissent les variables `x` de loi `X` et `y` de loi `Y`.
`X(x) = sum_y F(x,y)`
`Y(y) = sum_x F(x,y)`
On définie la variable `x"\"overset(***)y"="y`, appelée variable conditionnelle `x` sachant que le tirage de la variable `y` est égale au paramètre `y`, comme étant la restriction de la variable `x` restreint aux seuls tirages où l'évènement `overset(***)y"="y` se réalise. Et on note cette variable `X_(overset(***)y=y)`.
`X_(overset(***)y=y)(x) = P(overset(***)x"="x"\"overset(***)y"="y)`
`X_(overset(***)y=y)(x)= lim_(k->oo) (sum_(k=1)^k (x(k)"="x)(y(k)"="y))/(sum_(k=1)^k(y(k)"="y))`
`x(k)` désigne la valeur de la variable `x` à l'instant `k`. Et de même `y(k)` désigne la valeur de la variable `y` à l'instant `k`.
On restreint ainsi l'univers probabiliste aux seuls tirages réalisant l'évènement `overset(***)y"="y`. Les distributions de probabilités sont alors simplement renormées à `1` en les divisants par la probabilité de l'évènement `overset(***)y"="y`.
`P(overset(***)x"="x"\"overset(***)y"="y) = (P(overset(***)x"="x "et" overset(***)y"="y))/(P (overset(***)y"="y))`
`X_(overset(***)y=y)(x) = (F(x,y))/(Y(y))`
On remarque que :
`F(x,y) = X(x)Y_(overset(***)x=x)(y)`
`F(x,y) = Y(y)X_(overset(***)y=y)(x)`
Deux groupes d'évènements `{a,b}` et `{c,d}` sont dit partiellement indépendant si et seulement si toutes les combinaisons d'évènements de l'un sont indépendantes de toutes les combinaisons d'évènements de l'autre groupe. C'est à dire dans l'exemple, en notant les conjonctions d'évèneent par produit et la négation d'évènement par une barre :
`ab` indépendant de `cd` `P(abcd) = P(ab) P(cd)` `ab` indépendant de `c bard` `P(abc bard) = P(ab) P(c bar d)` `ab` indépendant de `barc d` `P(ab barc d) = P(ab) P(barc d)` `ab` indépendant de `barc bard` `P(ab barc bard) = P(ab) P(barc bar d)` `a barb` indépendant de `cd` `P(a barb cd) = P(a barb) P(cd)` `a barb` indépendant de `c bard` `P(abarbc bard) = P(abarb) P(c bar d)` `a barb` indépendant de `barc d` `P(abarb barc d) = P(abarb) P(barc d)` `a barb` indépendant de `barc bard` `P(abarb barc bard) = P(abarb) P(barc bar d)` `bara b` indépendant de `cd` `P(barabcd) = P(barab) P(cd)` `bara b` indépendant de `c bard` `P(barabc bard) = P(barab) P(c bar d)` `bara b` indépendant de `barc d` `P(barab barc d) = P(barab) P(barc d)` `bara b` indépendant de `barc bard` `P(barab barc bard) = P(barab) P(barc bar d)` `bara barb` indépendant de `cd` `P(bara barb cd) = P(bara barb) P(cd)` `bara barb` indépendant de `c bard` `P(barabarbc bard) = P(barabarb) P(c bar d)` `bara barb` indépendant de `barc d` `P(barabarb barc d) = P(barabarb) P(barc d)` `bara barb` indépendant de `barc bard` `P(barabarb barc bard) = P(barabarb) P(barc bar d)`
Cela permet de définir le concept d'indépendance partielle entre deux groupes de variables `{x_1,x_2}` et `{y_1,y_2}`. Les deux groupes de lois respectives `X` et `Y` sont partiellement indépendants si et seulement si la loi globale `F` est le produit des deux lois `X` et `Y`. C'est à dire si et seulement si :
`Z(x_1,x_2,y_1,y_2) = X(x_1,x_2) Y(y_1,y_2)`
Étant donné une variable `x`. On peut définir une moyenne de `x` conditionnée à un évènement `e`, que l'on note `"<"x"\"e">"` et que l'on appelle moyenne de `x` sachant `e`. Ainsi on restreint l'univers propabiliste aux seuls évènements satisfaisants `e`. Les probabilités sont alors renormées à `1` en les divisants par la probabilité de `e`.
La moyenne de `x` sachant `e` peut se calculer d'une façon intérieure en sommant les valeurs possibles de `x` multipliées par leur probabilitées respectives réalisant l'évènement `e` puis divisé par la probabilité de `e`, ou d'une façon extérieur et empirique en prenant la limite lorsque le nombre de tirage tend vers l'infini de la somme des valeurs de `x` pour chaque tirage réalisant l'évènement `e` divisée par le nombre de tirages réalisant l'évènement `e`. Les deux procédés donnent le même résultat qu'est la moyenne de `x` sachant `e`, et qui est notée `"<"x"\"e">"`.
`"<"x"\"e ">" = (sum_x X(x)xe)/(P(e))`
`"<"x"\"e">" = lim_(k->∞) (sum_(k=1)^k x(k)e(k))/(sum_(k=1)^k e(k))`
`x(k)` désigne la valeur de la variable `x` à l'instant `k`. Et `e(k)` désigne la valeur logique `0` ou `1` de l'évènement à l'instant `k`, qui est `1` s'il se réalise et `0` s'il ne se réalise pas. Les expressions de la forme `(p"="q)` valent `0` si `p` est différent de `q` et `1` si `p` est égal à `q`.
Étant donné une variable vectorielle `(x,y)` de loi `F`, et dont les projections définissent les variables `x` de loi `X` et `y` de loi `Y`. La moyenne de `x` sachant que `overset(***)y"="y` se calcule de deux façons :
`"<"x "\" overset(***)y"=y>" = 1/(P(overset(***)y"="y))sum_x sum_y F(x,y)x(y"="overset(▴)y)`
`"<"x "\" overset(***)y"=y>" = 1/(P(overset(***)y"="y))sum_x F(x,y)x`
et comme `P(overset(***)y"="y) = Y(y) = sum_x F(x,y)`, nous avons :
`"<"x "\" overset(***)y"="y">" = (sum_x F(x,y)x)/(sum_x F(x,y)) = (sum_x F(x,y)x)/(Y(y))`
`"<"x "\" overset(***)y"="y">" = lim_(k->∞) (sum_(k=1)^k x(k)(y(k)"="y))/(sum_(k=1)^k (y(k)"="y))`
Dans le cas où l'évènement `overset(***)y"="y` ne se produit quasiment jamais, c'est à dire dans le cas où la probabilité `P(overset(***)y"="y) "=" 0`, alors cette moyenne conditionnelle pose des difficultés pour être calculé. Aussi on utilisera la moyenne conditionnelle que sur des conditions de probabilité non nulle.
Intuitivement si l'évènement `e` est indépendant de la variable `x` alors nous avons `"<"x"\"e">=<"x">"`. Et si les variables `x` et `y` sont indépendantes alors nous avons `"<"x"\"overset(***)y"="y">=<"x">"`. Cela se démontre comme suit : `x` et `y` étant indépendants, nous avons `F(x,y)"="X(x)Y(y)`, et donc :
`"<"x"\"overset(***)y"="y">" = (sum_x F(x,y)x)/(sum_x F(x,y)) = (sum_x X(x)Y(y)x)/(sum_x X(x)Y(y)) = (Y(y)sum_x X(x)x)/(Y(y)sum_x X(x)) = sum_x X(x)x = "<"x">"`
Car, les distributions de probabilité étant normée, nous avons : `sum_x X(x) = 1`
Cela se généralise en remplaçant `x` par une fonction quelconque `φ(x,y)`. Cette nouvelle variable `φ(x,y)`, lorsque `x` et `y` sont indépendants, satisfait la propriété suivante :
`"<"φ(x,y)"\"overset(***)y"="y">" = (sum_x F(x,y)φ(x,y))/(sum_x F(x,y)) = (sum_x X(x)Y(y)φ(x,y))/(sum_x X(x)Y(y)) = (Y(y)sum_x X(x)φ(x,y))/(Y(y)sum_x X(x)) = sum_x X(x)φ(x,y) = "<"x">"`
`"<"φ(x,y)"\"overset(***)y"="y">" = sum_x X(x)φ(x,y)`
Et donc en particulier, pour deux fonctions quelconques `f` et `g`, la moyenne du produit `f(x)g(y)` est le produit des moyennes de `f(x)` et de `g(y)` :
`"<"f(x)g(y)">" = "<"f(x)"><"g(y)">"`
On appliquera souvent cette propriété en particulier pour les puissances :
`"<"x^r y^s">" = "<"x^r"><"y^s">"`
Calculons les moments de la somme `x+y` en fonction des moments de `x` et des moment de `y`.
La moyenne extérieure de `x"+"y` est la somme des moyennes extérieures de `x` et de `y`, et cela reste valable même si `x` et `y` ne sont pas indépendants.
`"<"x"+"y">" = "<"x">" + "<"y">" `
`"<"(x"+"y)^2">" = "<"x^2 + 2xy + y^2">"`
`"<"(x"+"y)^2">" = "<"x^2">" + 2"<"xy">" + "<"y^2">"`
`"<"(x"+"y)^2">" = "<"x^2">" + 2"<"x"><"y">" + "<"y^2">"`
Nous vons vue précédement que le calcul de `"<"xy">"`, sachant que `x` et `y` sont indépendants, est égale à `"<"x"><"y">"`. Donc :
`"<"(x"+"y)^2">" = "<"x^2">" + 2"<"x"><"y">" + "<"y^2">"`
Il existe une autre méthode de démonstration dite interne utlisant les moyennes conditionnelles. Considérons une variable vectorielle `(x,y)` de loi `F`, et dont les projections définissent les variables `x` de loi `X` et `y` de loi `Y`.
`"<"(x"+"y)^2">" = "<"x^2 "+" 2xy "+" y^2">"`
`= sum_x sum_y F(x,y)(x^2"+"2xy"+"y^2)`
`= sum_x sum_y X(x)Y(y)(x^2"+"2xy"+"y^2)` Car `{x,y}` indépendants
`= sum_x X(x) sum_y Y(y)(x^2"+"2xy"+"y^2)`
`= sum_x X(x) "<"x^2"+"2xy"+"y^2"\"overset(***)x"="x">"` Car `{x,y}` indépendants
`= sum_x X(x)(x^2"+"2x"<"y">+<"y^2">")`
`= sum_x X(x)x^2 + 2"<"y">"sum_x X(x)x + "<"y^2">"sum_x X(x)`
`= "<"x^2">" + 2"<"x"><"y">" + "<"y^2">"`
On a utilisé l'expression d'une moyenne conditionnelle qui, lorsque `x` et `y` sont indépendants, s'exprime ainsi :
`"<"x^2"+"2xy"+"y^2"\"overset(***)x"="x">"=sum_y Y(y)(x^2"+"2xy"+"y^2)`
`"<"(x"+"y)^3">" = "<"x^3"+"3x^2y"+"3xy^2"+"y^3">"`
`"<"(x"+"y)^3">" = "<"x^3">"+3"<"x^2">""<"y">"+3"<"x">""<"y^2">" +"<"y^3">"`
Cela correspond au développement de `(x"+"y)^r`. Nous avons :
`"<"(x"+"y)^r">" = "<"sum_(r=0)^r ((overset(▴)r),(r)) x^(overset(▴)r"-"r) y^r">"`
`"<"(x"+"y)^r">" = sum_(r=0)^r ((overset(▴)r),(r)) "<"x^(overset(▴)r"-"r)"><"y^r">"`
Somme de deux variables indépendantes
`"<"(x"+"y)^r">" = sum_(r=0)^r ((overset(▴)r),(r)) "<"x^(overset(▴)r"-"r)"><"y^r">"` |
Nous avons vue au chapitre 7 que le calcul de `"<"xy">"`, sachant que `x` et `y` sont indépendants, est égale à `"<"x"><"y">"`.
`"<"xy">" = "<"x">" "<"y">"`
Il existe une autre méthode de démonstration dite interne. Considérons une variable vectorielle `(x,y)` de loi `F`, et dont les projections définissent les variables `x` de loi `X` et `y` de loi `Y`. L'indépendance des variables `{x, y}` entraine que `F(x,y) = X(x)Y(y)`.
`"<"x">" = sum_x X(x)x`
`"<"y">" = sum_y Y(y)y`
`"<"xy">" = sum_(x,y) F(x,y)xy`
`"<"xy">" = sum_(x,y) X(x)Y(y)xy` car `{x,y}` indépendants.
`"<"xy">" = sum_x sum_y X(x)xY(y)y`
`"<"xy">" = (sum_xX(x)x) (sum_y Y(y)y)`
`"<"xy">" = "<"x">" "<"y">"`
La même démonstration peut être utilisé pour calculer les momentss d'ordre `r` de `xy`.
Nous avons vue au chapitre 7 que le calcul de `"<"f(x)g(y)">"`, sachant que `x` et `y` sont indépendants, est égale à `"<"f(x)"><"g(y)">"`, et ceci quelque soit les fonctions `f` et `g`. Et donc
`"<"(xy)^r">" = "<"x^r y^r ">"`
`"<"(xy)^r">" = "<"x^r">" "<"y^r">"`