Précédent
Sommaire
Suivant

Du signal à l'équation du monde
 
Calcul différentiel vectoriel
 


1. Introduction

Le calcul différentiel, le calcul des dérivées et des tangentes, nous amène naturellement à l'étude des transformations linéaires. Aussi, il est naturel que du calcul différentiel nait l'étude des transformations linéaires et des espaces vectoriels.

On commence par étudier une fonction analytique à deux variables et on établit sa série de Taylor. On calcule les dérivées avec un logiciel de calcul formel, ou bien directement avec le site web https://fr.symbolab.com/solver/

2. Différentielle d'une fonction binaire

Considérons une variable d'état `f` qui dépend uniquement de deux variables `x,y`. Cela se note par l'unique neurone suivant :

`f←(x,y)`

À l'ordre d'`epsilon` tout est linéaire. La fonction `f` de `(x,y)` est localement linéaire ce qui correspond à l'équation du plan tangent à `f`. Notons les coefficients de linéarité respectivement par `a` et `b`. Nous avons :

`AA (u,v) "∈" RR, f(x"+"uepsilon,y"+"vepsilon)=f+auepsilon+bvepsilon+o(epsilon)`

Puis, il est judicieux de notez la variation infinitésimale arbitraire `uepsilon` par l'élément différentiel `dx`, puisqu'il s'agit d'une variation de `x`, et de notez la variation infinitésimale arbitraire `vepsilon` par l'élément différentiel `dy`, puisqu'il s'agit d'une variation de `y`. Somme toute, une restriction des libertés des paramètres qui reste seulement soumis au seul déterminisme librement choisi du système, et qui n'a donc pas d'effet :

`f(x"+"dx,y"+"dy)=f+adx+bdy+o(epsilon)`

Le coefficient de linéarité en `dx` représenté ici par `a` définit la dérivée partielle selon `x` de `f` que l'on note `f’_x`. De même de coefficient de linéarité en `dy` représenté ici par `b` définit la dérivée partielle selon `y` de `f` que l'on note `f’_y` :

`f(x"+"dx,y"+"dy)=f+f’_xdx+f’_ydy+o(epsilon)`

Ces dérivées partielles se définissent analytiquement et algébriquement comme suit :

`f’_x=lim_(r->0) (f(x"+"r,y)-f)/r`

`f’_y=lim_(r->0) (f(x,y"+"r)-f)/r`

      

`f’_x= (f(x"+"dx,y)-f)/dx +o(1)`

`f’_y= (f(x,y"+"dy)-f)/dy +o(1)`

3. Élément différentiel partiel

Dans le cas de l'unique neurone `f←(x,y)`, l'élément différentiel partielle `delf` mesure un effet. C'est la variation infinitésimale de `f` qui se produit lorsque la variable considérée, `x` par exemple, varie de façon infinitésimale sans que l'autre variable contribuant au calcul de `f` ne varient.

Et de l'autre coté, l'élément différentiel partiel `delx` mesure une cause. C'est la variation infinitésimale de `x` que l'on impose en maintenant fixe l'autre variable contribuant au calcul de `f`.

Ainsi l'expression `delf` ne peut être utilisée sans préciser de quelle cause elle est l'effet, si la cause en est la seule variation `delx` ou bien si la cause en est la seule variation `dely`. C'est pourquoi, par convention les expressions de la forme `delf` n'apparaissent que sous formes de rapport de deux telles expressions, le numérateur mesurant l'effet, et le dénominateur mesurant la cause. Et ce rapport définit la dérivée partielle :

`f’_x = (delf)/(delx)`

`f’_y = (delf)/(dely)`

La variation infinitésimale de `x` est noté `dx` et constitue une variable d'état. En faisant ce choix nous créons une nouvelle variable d'état dans notre système déterministe et analytique, créant ainsi un nouveau degré de liberté, d'où l'expression de "déterminisme librement choisi". L'élément différentiel `df` et parfois appelé élément différentiel total (ou exacte) `df` pour exprimer qu'il s'agit de la variation infinitésimale totale (ou exacte) de `f`. Et c'est à partir de cet élément différentiel total que l'on peut définir de façon formelle les éléments différentiels partiaux.

L'écriture `delf` redevient pérenne si on précise quelle est la cause de la variation, ce qui peut se faire en indiçant l'opérateur `del` par la variable qui varie, les autres variables contribuant au calcul de `f` étant artificiellement maintenues constant. On note ainsi `del_xf` la variation infinitésimale de `f` lorsque seul `x` varie, et que `y` est maintenue artificiellement constant. Et dans notre ssystème déterministe, la variation de `x` qu'il faut considérer s'il y a lieu, est nécessairement l'élément différentiel exacte `dx`. On obtient ainsi la définition formelle des éléments différentiels partiaux. (Voir question posée à ChatGPT.) :

`del_xf = f’_x dx`

`del_yf = f’_y dy`

Ce qui s'écrit également :

`del_xf = (delf)/(delx)dx`

`del_yf = (delf)/(dely)dy`

L'élément différentiel total étant la sommes des éléments différentiels partiaux :

`df=del_xf + del_yf`

Notez qu'ils s'agient bien d'égalités d'hyperréels exactes. Quant les égalités d'hyperéels ne sont pas exactes, il doit être ajouté au second membre, un ordre de grandeur avec la notation de Landau (petit o ou grand O).

4. Un système déterministe contenant des variables interdépendantes

Le déterminisme du système peut s'interpréter comme une évolution du système déterminée selon une variable de temps `t` qui peut être inconnue, extérieure au système en quelque sorte. L'élément différentiel `df` traduit la variation infinitésimale de `f` causée par une variation infinitésimale de `t` :

`df=f(t"+"dt)-f+o(epsilon)`

Et on remarque que `df` ne dépend pas seulement de `t` mais également de `dt` et de façon linéaire à `dt` selon un facteur qui est la dérivée de `f` noté `f’`, et il s'agit d'une égalité d'hyperréels exacte :

`df=f’dt`

Notez que dans une évolution complétement déterminée, tout dépend de `t`, et donc `dt` dépend de `t`. Lorsque `t` n'est pas connu, `f’` n'est pas connu.

D'une façon générale, le système contient une information supplémentaire à son seul déterminisme, qu'est la connaissance qu'il peut avoir sur les relations de dépendances entre ses variables d'état. Toutes les variables d'état dépendent de `t`, mais elles peuvent aussi avoir des dépendances entres-elles révélées c'est à dire dont on connait l'expression du calcul, ou simplement connues c'est à dire dont on connait l'existence mais dont on ne connait pas l'expression du calcul, ou tout simplement inconnues. Et cette connaissance du système sur lui-même va augmenter le pouvoir de définition du calcul différentiel en introduisant des notions de différentielles partielles spécifiques à chaque connaissance de dépendance.

Chaque connaissance d'une dépendance se note par un neurone, et entraine de nombreuses dépendances induites qu'il n'est donc pas utile de noter. Par exemple, si `f` dépend de `(u,v)`, et que `u` dépend de `(x,y)`, et que `v` dépend de `(y,z)` alors nous en déduisons que `f` dépend de `(x,y,z)`, mais qu'il dépend aussi de `(u,y,z)` et aussi de `(x,y,v)`.

Dépendances initiales Dépendances induites
`f←(u,v)`
`u←(x,y)`
`v←(y,z)`
`f←(y,x,z)`
`f←[y,x,v]`
`f← ⦅y,z,u⦆`

La variable d'état `f` n'est plus le résultat d'une seule fonctions mais de 4, et pour chacune, la définition des dérivées partielles peut être diffèrentes, d'où la nécessité d'enrichire l'écriture pour distinguer ces différentes dérivées partielles. Voyons les différents cas que nous pouvons rencontrer. On part de la connaissance d'un unique neurone :

`f←(u,v)`

S'il existe un deuxième neurone calculant `f` et ayant le même ensemble de racines `u` et `v` ce qui se note `f←[u,v]`, alors du fait que se sont des fonctions analytiques, elles coïncident forcement.

Si par contre ce second neurone est basé sur un ensemble disjoint de racines tel que `(g,h)` ce qui se note `f←[g,h]`, alors la dérivée partielle de `f` selon `g` sera forcement à `h` constant, et celle selon `h` sera forcement à `g` constant, et celle selon `u` sera forcement à `v` constant, et celle selon `v` sera forcement à `u` constant, et il ne sera pas nécessaire de compléter les notations pour lever une ambiguité inexistante.

`f←(u,v)`

`f←[g,h]`

`df=del_uf + del_vf`

`df=del_gf + del_hf`

            

`df = (delf)/(delu)du + (delf)/(delv)dv`

`df = (delf)/(delg)dg + (delf)/(delh)dh`

Si par contre ce second neurone est basé sur un ensemble non-disjoint de racines tel que `(x,y,v)`. Dans ce cas, la dérivéee partielle de `f` selon `v` est ambigüe puisqu'on a pas précisé sur quelle fonction elle s'applique. Mais si on précise que les autres variables restent constantes dans le calcul de la dérivéee partielle, on précise alors l'ensemble des racines du neurone concerné et donc on précise le neurone concerné et donc on précise la fonction sur laquelle on veut calculer la dérivéee partielle. La notation s'enrichie. il ne suffit plus de désigner la variable qui varie mais il faut désigner les autres variables qui ne varient pas, pour ainsi préciser le neurone. Considérons par exemple les deux neurones suivants :

`f←(u,v)`

`f←(x,y,v)`

Les dérivées de `f` selon `u`, selon `x` et selon `y` n'ont pas d'ambiguité et peuvent donc être respectivement notée `f’_u`, `f’_x`, `f’_y`. Par contre pour la dérivée de `f` selon `v`, il y a une ambigüité car elle peut s'appliquer à deux fonctions différentes. Pour lever l'ambiguité, il faut préciser l'ensemble des racines du neurone concerné en énumérant les variables qui ne varient pas dans le calcul de la dérivée partielle. Il y a donc deux dérivées partielles de `f` selon `v` que l'on note `f’_({v|u})` et `f’_({v|x,y})`, et donc deux éléments différentiels partiaux que l'on note `del_({v|u})f` et `del_({v|x,y})f`

`df=del_uf + del_({v|u})f`

`df=del_xf + del_yf + del_({v|x,y})f`

            

`df = (delf)/(delu)du + ((delf)/(delv))_u dv`

`df = (delf)/(delx)dx + ((delf)/(dely))dy + ((delf)/(delv))_(x,y) dv`

Mais ces deux dérivées partielles sont-elles vraiment différente ? Pour répondre oui à cette question, il suffit d'un exemple :

`f=u"+"2v"+"3uv`
`u=xy`
`v=z(y"+"1)`

`f=xy"+"2v"+"3xyv`

`((delf)/(delv))_u = 2+3u`

`((delf)/(delv))_(x,y) = 2+3xy`

Dans l'exemple pris au hasard, les deux dérivées partielles sont égales. Y-aurait-il donc une raison pour que cela soit ainsi ?

 

---- 20 novembre 2024 ----

 

 

 

 

qui précise un réseau de neurones déclarant des dépendances entre variables d'état. Par exemple le neurone `f"←"(x,y)` précise que `x` et `y` déterminent `f`, rendant possible la définition des dérivées partielles de `f` selon `x` et selon `y` que l'on note respectivement `f’_x` et `f’_y`. La définition de ces dérivées partielles est relative à ce neurone.

 

 

 

 

 

 

 

 

---- 19 novembre 2024 ----

 

L'expression `delf"/"delx` n'est autorisée que s'il n'y a qu'un seul neurone déclaré de tête `f` et possédant `x` parmi ses racines, ou alors si l'équation dans laquelle elle se trouve évoque sans ambiguité le neurone concerné.

Les expression `delf` et `delx` n'ont pas de sens pris isolément et ne définissent pas de variable d'état d'ordre `epsilon`. Parcontre la dérivée partielle `delf"/"delx` multipliée par la variation infinitésimale totale `dx` désigne une variable d'état appelée la différentielle partielle de `f` par rapport à `x`. C'est la définition de l'élément différentiel partiel de `f` selon `x`, que l'on note par `del_xf` (Voir question posée à ChatGPT.)

`del_xf=(delf)/(delx) dx`

Et s'il y a lieu de préciser les variables imposées comme constantes dans le cas où il y aurait plusieurs neurones possibles, par exemple :

`del_({x|y})f=((delf)/(delx))_(y) dx`

`del_({x|u,v})f=((delf)/(delx))_(u,v) dx`

Le premier terme de la série de Taylor coïncide avec l'équation locale liant la fonction avec ses dérivées partielles. Considérons une fonction `f` à trois variables :

`f←(x,y,z)`

`f(x"+"dx,y"+"dy,z"+"dz)=f+(delf)/(delx)dx+(delf)/(dely)dy+(delf)/(delz)dz+o(epsilon)`

`f(x"+"dx,y"+"dy,z"+"dz)=f+f’_xdx+f’_ydy+f’_zdz+o(epsilon)`

S'il y a plusieurs neurones de tête `f`, l'écriture se perfectionne pour lever les ambiguités et discerner les dérivées partielles selon le neurone concerné. Par exemple :

`f←(x,y)`

`f←(x,u,v)`

`f(x"+"dx,y"+"dy)=f+((delf)/(delx))_(y)dx+(delf)/(dely)dy+o(epsilon)`

`f(x"+"dx,y"+"dy)=f+ f’_({x|y})dx+f’_ydy+o(epsilon)`

`f(x"+"dx,u"+"du,v"+"dv)=f+((delf)/(delx))_(u,v)dx+(delf)/(delu)du+(delf)/(delv)dv+o(epsilon)`

`f(x"+"dx,u"+"du,v"+"dv)=f+f’_({x|u,v})dx+f’_udu+f’_vdv+o(epsilon)`

 

Lorsque `t` n'est pas connu, `f’` n'est pas connu. D'une façon générale, le système contient une information supplémentaire à son seul déterminisme, qui précise un réseau de neurones déclarant des dépendances entre variables d'état. Par exemple le neurone `f"←"(x,y)` précise que `x` et `y` déterminent `f`, rendant possible la définition des dérivées partielles de `f` selon `x` et selon `y` que l'on note respectivement `f’_x` et `f’_y`. La définition de ces dérivées partielles est relative à ce neurone.

 

 

---- 19 novembre 2024 ----

 

 

S'il existe un deuxième neurone calculant `f` et ayant le même ensemble de racines `x` et `y` alors du fait que se sont des fonctions analytiques, elles coïncident forcement. Parcontre si le neurone est basé sur un ensemble distinct mais non disjoint de racines tel que `x` et `u` et `v`. Dans ce cas, la dérivée partielle de `f` selon `x` est ambigüe puisqu'on a pas précisé sur quelle fonction elle s'applique. Mais si on précise que les autres variables restent constantes dans le calcul de la dérivée partielle, on précise alors l'ensemble des racines du neurone concerné et donc on précise le neurone concerné et donc on précise la fonction sur laquelle on veut calculer la dérivée partielle. La notation s'enrichie. il ne suffit plus de désigner la variable qui varie mais il faut désigner les autres variables qui ne varient pas, pour ainsi préciser le neurone. Considérons par exemple les deux neurones suivants :

`f←(x,y)`

`f←(x,u,v)`

Dans l'absolu, le système étant déterminé, la dérivée de `f` notée `f’` a toujours une signification précis, c'est la drivée de `f` selon le temps même si le temps est inconnu. La dérivée de `f` selon `u` n'a pas d'ambiguité non-plus et peut donc être notée `f’_u`. Par contre la dérivée de `f` selon `x` est ambigüe car elle peut s'appliquer à deux fonctions (ou neurones). Pour lever l'ambiguité, il faut préciser l'ensemble des racines du neurone concerné en énumérant les variables qui ne varient pas dans le calcul de la dérivée partielle. Il y a donc deux dérivées partielles de `f` selon `x` que l'on note `f’_({x|y})` et `f’_({x|u,v})`.

L'élément différentiel partielle de `f`, noté en terme de mesure physique résultante `delf`, est la variation infinitésimale de `f` lorsque la variable considérée, `x` par exemple, varie de façon infinitésimale sans que les variables fixes considérées ne varient. Et de l'autre coté, l'élément différentiel partielle en terme de mesure physique initiale, notée `delx`, est la variation infinitésimale de `x` que l'on impose en maintenant fixes les autres variables considérées. Ainsi ces expressions ne peuvent pas être notées séparement.

L'expression `((delf)/(delx))_(y)` s'applique au neurone `f"←"(x,y)` et se note `f’_({x|y})`

L'expression `((delf)/(delx))_(u,v)` s'applique au neurone `f"←"(x,u,v)` et se note `f’_({x|u,v})`

L'expression `delf"/"delx` n'est autorisée que s'il n'y a qu'un seul neurone déclaré de tête `f` et possédant `x` parmi ses racines, ou alors si l'équation dans laquelle elle se trouve évoque sans ambiguité le neurone concerné.

Les expression `delf` et `delx` n'ont pas de sens pris isolément et ne définissent pas de variable d'état d'ordre `epsilon`. Parcontre la dérivée partielle `delf"/"delx` multipliée par la variation infinitésimale totale `dx` désigne une variable d'état appelée la différentielle partielle de `f` par rapport à `x`. C'est la définition de l'élément différentiel partiel de `f` selon `x`, que l'on note par `del_xf` (Voir question posée à ChatGPT.)

`del_xf=(delf)/(delx) dx`

Et s'il y a lieu de préciser les variables imposées comme constantes dans le cas où il y aurait plusieurs neurones possibles, par exemple :

`del_({x|y})f=((delf)/(delx))_(y) dx`

`del_({x|u,v})f=((delf)/(delx))_(u,v) dx`

Le premier terme de la série de Taylor coïncide avec l'équation locale liant la fonction avec ses dérivées partielles. Considérons une fonction `f` à trois variables :

`f←(x,y,z)`

`f(x"+"dx,y"+"dy,z"+"dz)=f+(delf)/(delx)dx+(delf)/(dely)dy+(delf)/(delz)dz+o(epsilon)`

`f(x"+"dx,y"+"dy,z"+"dz)=f+f’_xdx+f’_ydy+f’_zdz+o(epsilon)`

S'il y a plusieurs neurones de tête `f`, l'écriture se perfectionne pour lever les ambiguités et discerner les dérivées partielles selon le neurone concerné. Par exemple :

`f←(x,y)`

`f←(x,u,v)`

`f(x"+"dx,y"+"dy)=f+((delf)/(delx))_(y)dx+(delf)/(dely)dy+o(epsilon)`

`f(x"+"dx,y"+"dy)=f+ f’_({x|y})dx+f’_ydy+o(epsilon)`

`f(x"+"dx,u"+"du,v"+"dv)=f+((delf)/(delx))_(u,v)dx+(delf)/(delu)du+(delf)/(delv)dv+o(epsilon)`

`f(x"+"dx,u"+"du,v"+"dv)=f+f’_({x|u,v})dx+f’_udu+f’_vdv+o(epsilon)`

 

 

 

4. Opérateurs de dérivée partielle

 

 

 

 

 

 

5.Opérateur de différentialisation partielle

---- 17 novembre 2024 ----

 

 

La dérivée de `f` comprend deux composantes que sont ces deux dérivées partielles :

`f’=(f’_x,f’_y)`

---- 11 novembre 2024 ----

 

 

deux opérateurs de dérivée partielle `del/(delx)` et `del/(dely)` comme suit :

On définit algébriquement deux opérateurs de dérivée partielle `del/(delx)` et `del/(dely)` comme suit :

`del/(delx)f = (f(x"+"dx,y)-f)/dx +o(1)`

`del/(dely)f = (f(x,y"+"dy)-f)/dy+o(1)`

Ces dérivées partielles constituent des nouvelles variables d'états dépendantes de `(x,y)`, et elles ont la propriété tangentielle, c'est à dire qu'à l'ordre d'epsilon la fonction `f` est linéaire dont le coefficient de linéarité est justement cette dérivée partielle. On note les dérivées partielles de deux manières :

`del/(delx)f = (delf)/(delx)`

`del/(dely)f = (delf)/(dely)`

----- 15-10-2024

 

 

 

 

Nous pouvons écrire cette linéarité locale sous forme vectorielle. Pour cela on définit les variables suivantes :

`vec x = ((x),(y))`       `dvec x = ((dx),(dy))`       `vec a = ((a_1),(a_2))`

`u"←"vec x`

`u(vec x+dvecx ) = u+veca"·"dvecx + veco(epsilon)`

La fonction `u` est localement linéaire et les coefficient de linéarité `veca` correspond à sa dérivée `vec (u’)` notée avec une flêche puisque c'est un vecteur :

`u(vec x+dvecx ) = u+vec(u’)"·"dvecx + veco(epsilon)`

`du` possède une particularité propre aux éléments différentiels, il est linéaire, proportionnel à `dvecx`, il satisfait l'égalité d'hyperréels exacte suivante :

`du = vec(u’)"·"dvecx`

`u’=du"/"dt` est appelé la différentielle ou la dérivée de `u`. Notez que le sens précis de la différentielle est ici la fonction `r |-> u’ r` tandis que la dérivée est le coefficient `u’`. Notez que `u(t"+"dt) - u` n'est pas égale à `du`, il l'est seulement à `o(epsilon)` près. Car `u(t"+"dt)` est un hyperréel stratifié n'ayant aucune raison d'appartenir à une seule strate.

`u in RR`

`dt in epsilonRR`

`du in epsilonRR`

`u(t"+"dt) in RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+...`

----15/10/2024 ----

 

 

 

Et on définie deux opérateurs de différentialisation `del_x` et `del_y` comme suit :

 

`del_x= dxdel/(delx)`

`del_y = dydel/(dely)`

Et nous avons les égalités hyperrreél exacte :

`del_xf= (delf)/(delx)dx`

`del_yf= (delf)/(dely)dy`

`del_xf = f(x"+"dx,y)-f +o(epsilon)`

`del_yf = f(x,y"+"dy)-f +o(epsilon)`

Et donc :

 

Les expressions `del, delx, dely, delf` n'ont pas de sens prises isolément. Seuls les calculs pouvant avoir le statut de variables d'état ont un sens, tel que :

La dérivée partielle de `f` selon `x` notée `(delf)/(delx)`

L'élément différentiel partiel de `f` selon `x` notée `del_xf = (delf)/(delx) dx`

L'élément différentiel de `x` notée `dx`

L'élément différentiel de `f` notée `df`

Noter qu'il est possible de définir la division de `df` par `dx` en fonction d'une base de variables commune. On considère que le système peut toujours être compléter de tel sorte que les variables d'états `df` et `dx` dépendent d'une même base de variables. Délors il est alors possible de calculer `df"/"dx` à chaque état de la base de variables communes. Néanmoins, comme nous n'avons pas encore complété notre système, ce calcul qui a bien le status de variable d'état reste indéveloppé.

On formalise l'utilisation d'opérateurs. Les opérateurs différentiels ainsi que les opérateurs de différentialisation ont les mêmes règles syntaxiques que l'opérateur de différentialisation `d`. Les différentielles partielles `del_x f` et `del_y f` constituent des variables d'états du système, et leur valeurs appartiennent à `epsilonRR`. Les égalités sont d'hyperréels exactes, c'est pourquoi lorsque l'on ne retient que le terme réel de l'hyperréel, on arrondie à `o(1)` près, où `o(1)` désigne l'ensemble des hyperréels négligeable devant `1`. Et lorsque l'on ne retient que le terme infinitésimal du premier ordre de l'hyperréel, on arrondie à `o(epsilon)` près, où `o(epsilon)` désigne l'ensemble des hyperréels négligeable devant `espilon`.

Rappelons que les différentielles du premier ordre sont des valeurs appartenant à `epsilon RR` tandis que le calcul d'une fonction d'état appliquée à un élément de `RR"+"epsilonRR` est une valeur appartenant à `RR"+"``epsilonRR"+"``epsilon^2RR"+"``epsilon^3RR"+"...`

`del_x f` représente la variation tangentielle de la fonction `f` au point `(x,y)` lorsque l'on fait bouger `x` de `dx` sans faire bouger `y`. Et `del_y f` représente la variation tangentielle de la fonction `f` au point `(x,y)` lorsque l'on fait bouger `y` de `dy` sans faire bouger `x`.

Par définition, la variable `df` est liée à `x,y,dx,dy`. Mais ce `df` possède une particularité propre aux différentiels, il est lié en plus de façon exacte d'une manière linéaire au vecteur `(dx,dy)`. C'est la définition d'une différentielle exacte appliqués à une fonction analytique à deux variables. Nous avons l'égalité d'hyperréels exacte suivante :

`df = adx"+"bdy`

`a` et `b` sont des coefficients réels définissant les dérivée partielles de `f` en `(x,y)` :

`a=(delf)/(delx)`          et        `b=(delf)/(dely)`

Et ces dérivées partielles peuvent être calculées si on connait la fonction analytique `f` fonction de `x` et de `y`. La définition de `df` se note alors par l'égalité hyperréelle exacte suivante :

  `df = (delf)/(delx)dx + (delf)/(dely)dy` 

Littéralement : La différentielle exacte de `f` est égale à la somme des différentielles partielles de `f`.

  `df = del_xf + del_yf` 

Et si on se restreint à n'opérer ques sur des applications analytiques dépendant de `x` et `y`, alors l'opérateur de différentialisation d est égale à la somme des opérateur de différentialisation partielle :

  `d = del_x + del_y` 

3) Représentation vectorielle

Considérons le cas particulier d'une fonction `f` dépendant de 3 variables `x, y, z` représentant une position dans l'espace. On regroupe ces trois variables en un vecteur position `vec r`. Ainsi nous avons :

`f←vec r`
`f←x,y,z`
               `vec r = ((x),(y),(z))`        `dvec r = ((dx),(dy),(dz))`

`f=f(x,y,z)=f(vec r)`

Nous allons définir la dérivée de `f` selon la position `vecr`. Nous avons vu dans la partie précédente que la variation infinitésimale de `f`, appelée différentielle de `f`, vaut :

`df = del_xf + del_yf + del_zf `

`df = (delf)/(del x)dx+(delf)/(del y)dy+(delf)/(del z)dz`

On exprime cette combinaison linéaire par le produit scalaire suivant :

`df = (((delf)/(del x)),((delf)/(del y)),((delf)/(del z)))"·"((dx),(dy),(dz))`

Le premier vecteur exprime la dérivée de `f` selon le vecteur position `vec r`, le second vecteur exprime un vecteur de déplacement infinitésimal :

`(df)/(dvecr) = (((delf)/(del x)),((delf)/(del y)),((delf)/(del z)))`            `dvecr=((dx),(dy),(dz))`        

Dans le cas où `vec r` est un vecteur position a trois composantes nommées `x,y,z`, l'opérateur de dérivée selon `vecr` correspond à l'opérateur nabla `vec nabla` :

`d/(dvecr) = vec nabla = ((del/(del x)),(del/(del y)),(del/(del z)))`

La dérivée de `f` selon la position `vecr`  est le vecteur des dérivées partielles de `f`, et il se note à l'aide du nabla, `vec nablaf` ou par l'expression `df"/"dvecr` :

`(df)/(dvecr) = vec nablaf `

`df = vec nablaf · dvecr`

`df = (df)/(dvecr) · d vecr`

Dans le cas général, on considère que le vecteur `vec r` transporte également l'information concernant le nom de ses composantes et on indice le nabla avec le vecteur `vec r`. Si `vecr` possède par exemple deux composantes `u,v`, l'opérateur de dérivée selon `vecr` s'exprime en utilisant le nabla indicé par le vecteur `vecr` ou préalablement déclaré comme se rapportant au vecteur `vec r` :

`vecr=((u),(v))`

`d/(dvecr) = vec nabla_(vec r) = ((del/(del u)),(del/(del v)))`

4) Autre représentation vectorielle

Remarquez que les différentielles partielles de `f` forme un vecteur, que l'on peut aussi mettre sous forme de produit vectoriel :

`((del_x f),(del_y f),(del_z f)) = (((delf)/(delx)dx),((del f)/(dely)dy),((del f)/(delz)dz))=((dx,0,0),(0,dy,0),(0,0,dz))(((delf)/(delx)),((del f)/(dely)),((del f)/(delz)))`

Si les opérateurs `vec del` et `vec nabla` sont prédéclarés comme relatifs au vecteur de position `(x,y,z)`, alors nous avons :

`vec del = ((del_x), (del_y),(del_z))          vec nabla = ((del/(delx)), (del/(dely)), (del/(delz)))          D =((dx,0,0),(0,dy,0),(0,0,dz))`  

`vec del f = D vec nablaf`

Le produit vectoriel se note parfois par absence de symbole.

5) Considération générale sur le produit matriciel

La représentation des vecteurs sont forment de vecteur ligne ou de vecteur colone introduit une donnée supplémentaire qui est d'ordre calligraphique et qui est extérieur à la notion première de vecteur. Cette représentation des matrices et vecteur est d'origine anglaise. On revient à une définition native algorithmique du vecteur, de la matrice et du tenseur, qui n'introduit pas ce biais calligraphique. Le vecteur se présente alors comme une liste de composantes sans considération de verticalité ou d'horizontalité.

Etant donnée deux vecteurs `vec u`, `vec v`, le produit matriciel noté `vecu"×"vecv` est la matrice obtenue des produits croisés des composantes de `vec u` par les composante de `vec v`. C'est une liste de listes où chaque liste parcourt toutes les composantes de `vecv`. Exemple :

`vec u =(a,b)`
`vec v = (x,y,z)`

`vecu"×"vecv = "("(ax,ay,az),(bx,by,bz)")"`

Et comme par convention, on lit de gauche à droite et de ligne par ligne de haut en bas, la liste de listes est représentée par la matrice suivante :

`vecu"×"vecv = ((ax,ay,az),(bx,by,bz))`

On définit ainsi la matrice comme étant une suite de suites de même tailles. Puis on définit un objet plus général appelé tenseur qui est définit récursivement comme étant une suite de tenseurs de même taille, où la taille du tenseur est définit récurcivement comme étant une liste de tailles où le premier terme est la taille de la liste et où la liste des termes suivants est la taille des sous-tenseurs. La dimension du tenseur est égale à la taille de la taille du tenseur. Le tenseur peut être une matrice par exemple `M="("(x,y,z),(u,v,w)")"` est un tenseur de taille `(2,3)` et de dimension `2`. Le tenseur peut être un vecteur, par exemple `vec v=(x,y,z)` est un tenseur de taille `(3)` et de dimension `1`. Par convention le tenseur de dimension zéro est un élément.

6) Considération générale sur le produit scalaire

Lorsque les vecteurs `vec u`, `vec v` sont de même dimension leur produit matriciel est une matrice carré c'est à dire un tenseur de taille `(n,n)` `n` est la dimension du vecteur. Il apparait alors une caractéristique particulièrement simple qu'est la trace de la matrice, la somme des termes de la diagonale de la matrice, et qui constitue le produit scalaire :

`vec u · vec v = sf"trace"(vecu×vecv)`

7) Fonction analytique

Les fonctions analytiques ont une propriété remarquable et qui les définit, c'est qu'elles se développent autour de tout point de leur domaine de définition en une série entière, appelé série de Taylor, convergente sur un voisinnage. Considérons le neurone suivant :

`f"←"(x,y)`

La fonction analytique `f(".,.")` se développe au voisinage de tout point `(x,y)` de son domaine de définition, en une série entière appelée série de Taylor de `f` au voisinage de `(x,y)`. Grâce au hyperréels on peut formaliser le voisinage à l'aide de variable infinitésimales `dx,dy`

  `f (x"+"dx,y"+"dy) = sum_(i,j) a_("("i,j")") dx^idy^j`  

Les indices `i,j` parcours l'ensemble des entiers naturels. Les constante `a_("("i,j")")` sont les coefficients de la série entière appelée série de Taylor de `f` au point `(x,y)`. Le coefficient `a_("("i,j")")` est le produit d'un coefficient multinomiaux et d'une dérivée partielle :

  `a_("("i,j")") = 1/(i!j!) (del^(i"+"j)f)/(delx^i del y^j)`  

Si on ne garde que les termes du premier ordre :

`f (x"+"dx,y"+"dy) = f(x,y)+(delf)/(delx)dx+(delf)/(dely)dy+o(epsilon)`

`f (x"+"dx,y"+"dy) = f(x,y)+(((delf)/(delx)),((delf)/(dely)))"·"((dx),(dy))`

Les opérateurs de dérivée partielle commutent entre-eux, et donc les opérateurs de différentialisation partielle commutent aussi entre-eux, et ils se notent comme suit :

`del_xdel_xf = del_x^2f= (del^2f)/(delx^2)dx^2`

`del_xdel_yf = (del^2f)/(delxdely)dxdy`

`del_ydel_yf = del_y^2f= (del^2f)/(delydely)dxdy`

`del_xdel_xdel_xf = del_x^3f= (del^3f)/(delx^3)dx^3`

`del_xdel_xdel_yf = del_x^2del_yf= (del^3f)/(delx^2dely)dx^2dy`

`del_xdel_ydel_yf = del_xdel_y^2f= (del^3f)/(delxdely2)dxdy^2`

`del_ydel_ydel_yf = del_y^3f= (del^3f)/(dely^3)dy^3`

 

`del_x^idel_y^j f = (del^(i"+"j) f)/(delx^idely^j)dx^idy^j`

La série de Taylor s'écrit :

  `f (x"+"dx,y"+"dy) = sum_(i,j) 1/(i!j!)del_x^idel_y^jf`  

`f (x"+"dx,y"+"dy) = f(x,y)+del_xf+del_yf+o(epsilon)`

`f (x"+"dx,y"+"dy) = f(x,y)+(del_x"+"del_y)f+(del_x^2f)/2"+"del_xdel_yf+(del_y^2f)/2 f+o(epsilon^2)`

`f (x"+"dx,y"+"dy) = f(x,y)+(del_x"+"del_y)f+1/2(del_x"+"del_y)^2f + 1/(3!)(del_x"+"del_y)^3f+o(epsilon^3)`

  `f (x"+"dx,y"+"dy) = sum_n 1/(n!)(del_x"+"del_y)^nf`  

 
  `f (x"+"dx,y"+"dy) = e^(del_x"+"del_y)f`  

 

---- 8 septembre 2024 ----

 

 

7) Opérateur différentiel

Les dérivées partielles de `f` sont relatives à une variable dans une liste de variables servant de base au calcul de `f`, mais comme `f` peut désigner plusieurs fonctions donnant le même résultat `f`, il se peut dans certain cas qu'il soit nécessaire de préciser la base des arguments utilisés. On le précise soit par une prèsdéclaration, ou bien grace à la la forme d'appel de la fonction que l'on développe, ou soit encore en notant en indice les autres variables considérées constantes. La dérivée partielle selon `x` pour une fonction `f` dépendant de `x,y,z` pourra se noter comme suit :

`((delf)/(delx))_(y,z)`

`((delf(x,y,z))/(delx))dx`

Et sa définition est la suivante :

`(f(x+dx,y,z)-f)/dx+o(1)`

L'opérateur de différentialisation partielle :

`del_x = dx del/(delx)`

`del_y = dy del/(dely)`

L'opérateur de différentialisation totale :

`d =del_x+del_y`

7) Différentielle seconde

`d^2 =(del_x+del_y)(del_x+del_y)= del_x del_x+2del_xdel_y+del_ydel_y`

 

 

 

 

La dérivée première est définie comme suit :

`d=(del_x+del_y)= ((del)/(delx)dx + (del)/(dely)dy)`

`df=(del_x+del_y)f =del_xf+del_yf = (delf)/(delx)dx + (delf)/(dely)dy`

 

`(del_x+del_y) f = del_xf + del_yf = (delf)/(delx)dx+(delf)/(dely)dy`

`(del_x+del_y)^2 = (del_x+del_y)(del_x+del_y)=(del_x^2 +2del_xdel_y+del_y^2)`

`(del_x+del_y)^2f = del_x^2f+2del_xdel_yf+del_y^2f`

 `d^2f = (del^2f)/(delx^2)dx^2+2(del^2f)/(delxdely)dxdy+ (del^2f)/(dely^2)dy^2`

7) Développement de Taylor

Le developpement de Taylor à deux variables peut s'établire à partir des deux règles suivantes :

  `f(x"+"dx,y"+"dy)=f+df+(d^2f)/2 +(d^3f)/(3!) +...` 

  `df = (delf)/(delx)dx + (delf)/(dely)dy` 

Et à partir des trois règles de développement suivantes où `u` et `v` sont des variables d'états et où `z` est un entier relatif :

  `d(u"+"v) = du+dv`  

  `d(uv) = udv+vdu`  

  `d(u^z) = zu^(z"-"1)du`  

On commence par calculer la différentielle de la dérivée partielle :

`d((delf)/(delx)) = (del((delf)/(delx)))/(delx)dx+(del((delf)/(delx)))/(dely)dy`

`d((delf)/(delx)) = del/(delx)(del/(delx) f)dx + del/(delx)(del/(dely) f)dy`

`d((delf)/(delx)) = del^2/(delx^2) fdx + del^2/(delxdely) fdy`

et de même :

`d((delf)/(dely)) = del^2/(dely^2) fdx + del^2/(delxdely) fdy`

Puis on calcule la différentielle de la différentielle de `f`, dite différentielle seconde de `f` , notée `d^2f` :

`d^2f = d(df) = d((delf)/(delx)dx + (delf)/(dely)dy)`

`d^2f = d((delf)/(delx)dx) + d((delf)/(dely)dy)`

`d^2f = d((delf)/(delx))dx + (delf)/(delx)d(dx) + d((delf)/(dely))dy+(delf)/(dely)d(dy)`

`d^2f = del^2/(delx^2) fdx + del^2/(delxdely) fdy + del^2/(dely^2) fdx + del^2/(delxdely) fdy + (delf)/(delx)d^2x+(delf)/(dely)d^2y`

  `d^2f = (del^2f)/(delx^2)dx^2 + 2 (del^2f)/(delxdely)dxdy + (del^2f)/(dely^2)dy^2 + (delf)/(delx)d^2x+(delf)/(dely)d^2y `  

Dans la littérature, les physiciens utilisant des variables libres pour `x` et `y`, choisissent toujours pour ces variables une évolution simple, constante, c'est à dire telles que `d^2x` et `d^2y` sont nulles, et aussi `d^nx"="0` et `d^ny"="0` pour tout entier `n>1`. Mais si `x` et `y` sont fonction de `t` alors ce libre choix n'est plus possible car nous avons nécessairement :

`x←t`

`y←t`

`dx = dot x dt`

`d^2x = ddot x dt^2`

`dy = dot y dt`

`d^2y = ddot y dt^2`

Où l'on note la dérivé d'une variable d'état `u` selon le temps `t` en mettant un point au dessus, `dot u`, et où on note la dérivée seconde selon le temps en mettant deux point au dessus, `ddot u`. Cette formulation de la différentielle seconde n'étant pas habituelle, il convient de trouver une confirmation avec un exemple qui servira ainsi de teste, une sorte d'expérience mathématique pour confirmer la théorie. Exemple :

Erreur sur le calcul de la différentielle seconde : voir

 

`f←x,y          f=x^2y^2`

`x←t               x=1+t^2`

`y←t               y=1/t`

On peut alors calculer les différentielles premières et seconde de `f` à partir de `(x,y)`, et on peut calculer les différentielles première et seconde de `f` directement à partir de `t`. Et le résultat doit être identique puisque les différentielles `df` et `d^2f` sont des variables d'état du système.

`(delf)/(delx) = del/(delx) (x^2y^2) = y^2 del/(delx) (x^2) =2 y^2 x`

`(delf)/(dely) = del/(dely) (x^2y^2) = x^2 del/(delx) (y^2) =2 x^2 y`

`(del^2f)/(delx^2)=(del/(delx))^2 f = del/(delx) (del/(delx) f) = del/(delx) (2 y^2 x) = 2 y^2`

`(del^2f)/(dely^2)=(del/(dely))^2 f = del/(dely) (del/(dely) f) = del/(dely) (2 x^2 y) = 2 x^2`

`(del^2f)/(delxdely)=(delf)/(delx)((delf)/(dely))=(delf)/(delx)(2 x^2 y)=2y(delf)/(delx)(x^2) = 2 y(2x) = 4 xy`

 

`dx=d(t^2+1)=2tdt`

`dy=d(1/t)=-dt/(t^2)`

`d^2x=d(dx)=d(2tdt)=2dtdt+2td(dt) = 2dt^2+2td^2t`

`d^2y=d(dy)=d("-"dt/(t^2))=d(dt)("-"1/(t^2))+d("-"1/(t^2))dt=-(d^2t)/(t^2)+2(dtdt)/t^3`

 

 `df = (delf)/(delx)dx + (delf)/(dely)dy` 

 `df = 2y^2x(2tdt) + 2x^2y("-"dt/(t^2))`

`df = 4y^2xtdt - 2x^2ydt/(t^2)`

 `df = 4/(t^2)(1"+"t^2)tdt - 2((1"+"t^2)^2)/tdt/(t^2)`

`df = 4(dt)/t+4tdt-2(1+2t^2+t^4)(dt)/(t^3)`

 `df = 4(dt)/t+4tdt-2(dt)/(t^3)-4(dt)/(t)-2tdt`

 `df = 2tdt-2(dt)/(t^3)`

 

 `d^2f = (del^2f)/(delx^2)dx^2 + 2 (del^2f)/(delxdely)dxdy + (del^2f)/(dely^2)dy^2 + (delf)/(delx)d^2x+(delf)/(dely)d^2y `  

`d^2f = 2y^2dx^2 + 8xydxdy + 2x^2dy^2 +2y^2xd^2x+2x^2yd^2y`  

`d^2f = 2y^2(2tdt)^2 + 8xy(2tdt)("-"dt/(t^2)) + 2x^2("-"(dt)/(t^2))^2 +2y^2x(2td^2+2td^2t)+2x^2y(2/t^3dt^2-(d^2t)/(t^2))`     

`d^2f = 2/(t^2)(2tdt)^2 + 8(1"+"t^2)/t(2tdt)("-"dt/(t^2)) + 2(1"+"t^2)^2("-"(dt)/(t^2))^2 +2(1"+"t^2)/(t^2)(2dt^2"+"2td^2t)+2((1"+"t^2)^2)/t(2/t^3dt^2-(d^2t)/(t^2))`     

`d^2f = 4dt^2 - 16(dt^2)/(t^2) - 16dt^2 - 2(1"+"2t^2+t^4)(dt^2)/(t^4) + 2/(t^2)(2dt^2"+"2td^2t)+ 2(2dt^2"+"2td^2t) +2(1"+"2t^2+t^4)/t(2/t^3dt^2-(d^2t)/(t^2))`     

 

....

Par ailleurs, les différentielles `df` et `d^2f` peuvent se calculer directement à partir de `t` :

`f=x^2y^2=(1+t^2)^2/t^2 = (1+2t^2+t^4)/t^2 = 1/t^2 +2+t^2 `

`df=d(1/t^2 +2+t^2)= d(1/(t^2))+d(t^2) = -2dt/t^3+2tdt`

`d^2f=d(df)= d(

---- 30 août 2024 ----

 

 

 

 

On procède à un calcul d'opérateurs :

`df = ((del)/(delx)dx + (del)/(dely)dy)f` 

  `df^n = ((del)/(delx)dx + (del)/(dely)dy)^nf`

 

 

 

Puis en répetant le calcul :

  `d^nf = sum_(k=0)^n ((n),(k)) (del^nf)/(del^(n"-"k)xdel^ky)`  

où les `((n),(k))` sont les coefficients binomiaux : `((n),(k))=(n!)/(k!(n-k)!)`

 

4) Développement vectoriel de Taylor

On reprend l'exemple d'une fonction binaire :

`f←x,y`

`f(x"+"dx,y"+"dy)=f+df+(d^2f)/2 +(d^3f)/(3!) +...`

`df=(delf)/(delx)dx+(delf)/(dely)dy = (((delf)/(delx)),((delf)/(dely)))·((dx),(dy))`

`d^2f= d(df) = (((del(df))/(delx)),((del(df))/(dely)))·((dx),(dy))`

`= (((del((((delf)/(delx)),((delf)/(dely)))·((dx),(dy))))/(delx)),((del((((delf)/(delx)),((delf)/(dely)))·((dx),(dy))))/(dely)))·((dx),(dy))`

---- 25 août 2024 ----

 

5) Champ scalaire et champ vectoriel

Une fonction `f` dépendant d'un vecteur `vec r` prédispose un espace vectoriel où se situe le vecteur `vec r`. Et pour chaque valeur de `vec r` qui désigne une position dans cet espace vectoriel, et qui doit être dans le domaine de définition `f`, correspond une valeur scalaire `f(vec r)`. De telle sorte que `f←vec r` définie un champ scalaire dans cet espace vectoriel. La dérivé de `f` selon `vec r` est le vecteur de ses dérivées partielles. C'est le gradient, un vecteur qui indique la direction où la montée est la plus forte, et dont la norme correspond à la variation infinitésimale de `f` lorsque l'on se déplace dans cette direction d'une distance infinitésimale. Ces propriétés apparaissent évidentes lorsque l'on développe la série de Taylor de `f` comme indiqué au chapitre 2

 

 
 

Dominique Mabboux-Stromberg

 

Précédent
Sommaire
Suivant