Sommaire
Suivant

Analyse numérique du signal

1. Les signaux périodiques

Un signal périodique quelconque `f` se décompose en la somme infinie de ses harmoniques entiers `0, 1, 2, 3, 4,...` appelée somme des harmoniques ou série de Fourier du célèbre mathématicien français Joseph Fourier (Auxerre 1768 - Paris 1830) :

`f(t) = a_0 + a_1sin(α_1 "+" omega t) + a_2sin(α_2 "+" 2omega t) + ... + a_nsin(α_n "+" n omega t) + ...`  

Un signal est périodique s'il possède une période `T` c'est à dire s'il se répète à l'identique après chaque intervalle de temps `T` :

`AAt "∈" RR, f(t"+"T)=f(t)`

Un tel signal se décompose en la somme de ses harmoniques.

La décomposition d'un signal périodique `f(t)` de période `T` en somme de ses harmoniques s'écrit comme suit :

`f(t) = a_0 + sum_(n=1)^(oo) a_n sin(α_n"+" n omega t)`

`omega=(2pi)/T`

`t` : Temps.
`f(t)` : Valeur du signal `f` à l'instant `t`.
`T` : Période du signal `f`. Nous avons : `AA t "∈" RR,  f(t"+"T)=f(t)`.
`1"/"T`
: Fréquence de l'harmonique fondamental.
`omega`
: Vitesse angulaire de l'harmonique fondamental exprimée en radian par unité de temps.
`n`
: Numéro de l'harmonique.

`a_0` : Composante continue.
`a_1sin(α_1 "+" omegat)`
: Harmonique `1`, harmonique fondamental de vitesse angulaire `omega`.
`a_2 sin(α_2"+" 2omega t)`
: Harmonique `2` de vitesse angulaire `2omega`.
`a_n sin(α_n"+" n omega t)` : Harmonique `n` de vitesse angulaire `n omega`.

`a_1`
: Amplitude du premier harmonique.
`α_1`
: Phase du premier harmonique exprimée en radian.
`a_n`
: Amplitude du `n`-ième harmonique.
`α_n`
: Phase du `n`-ième harmonique exprimée en radian.

Chaque harmonique est un signal sinusoïdal caractérisé par une amplitude `a` exprimée en unité de champ, une phase `α` exprimée en radian, et un numéro `n` de l'harmonique déterminant sa fréquence `n"/"T` et donc sa vitesse angulaire `n omega`, ce qui s'écrit par une fonction du temps `t` comme suit :

`asin(α "+" n omegat)`

Si on admet que tout signal périodique est une somme de signaux sinusoïdaux. C'est en constatant que la somme de deux signaux sinusoïdaux de même fréquence produit un signal sinusoïdal de même fréquence, et que toute décomposition d'un signal périodique de période `T` en une somme finie de signaux sinusoïdaux ne comprend nécessairement que des signaux sinusoïdaux dont la période est une division entière de `T`, c'est à dire dont la fréquence est un multiple de `1"/"T`, que l'on démontre la forme de cette décomposition en somme des `N` premiers harmoniques pour tous signaux de période `T` ne possédant pas de composante de fréquence supérieure à `N"/"T`

2. Pôles

Etant donné une fréquence `omega`, pour chaque signal sinusoïdal d'amplitude `a` et de phase `alpha` c'est à dire valant `asin(α"+" omega t)`, on regroupe les deux paramètres en un nombre complexe appelé pôle, dont les coordonnées polaires et cartésiennes sont :

`[a,alpha]=a cos(alpha) + i a sin(alpha)`

Ce regroupement en pôle complexe s'avère pertinent, car si on ajoute deux signaux sinusoïdaux de même fréquence et de pôle complexe respectif `z_1, z_2`, on obtient un signal sinusoïdal de même fréquence et de pôle obtenu en sommant les deux nombres complexes `z_1"+"z_2`.

Et lorsque le signal sinusoïdale traverse un média (un guide d'onde) linéaire et sans réminiscence, la transformation qu'il subit se traduit par l'augmentation de son amplitude d'un facteur `b` et par l'augmentation de sa phase d'une quantité `beta`. C'est deux termes sont regroupés en un nombre complexe `[b,beta]` appelé pôle d'amplification, où de façon inverse `[1"/"b,"-"beta]` appelé pôle d'absorbtion. Ainsi, lorque un signal sinusoïdal de fréquence donnée et de pôle `z` traverse un média linéaire sans réminiscence dont le pôle d'amplification pour la fréquence en question est le nombre complexe `rho`, on obtient alors un signal sinusoïdal de même fréquence et de pôle obtenu en multipliant les deux nombres complexes `rho z`.

Le spectre discret du signal `f(t)` défini précédement est la suite des amplitudes :

`(a_1,a_2,a_3,...)`

Mais celui-ci est incomplet pour définir le signal. Le spectre complet est la suite des pôles et qui permet de restituer le signal à l'identique :

`([a_1, α_1],[a_2, α_2],[a_3, α_3],...)`

Le pôle placé à la place n°`n` dans la liste, définit le `n`-ième harmonique de fréquence `n"/"T`.

De même, telle une photographie en négatif, un média linéaire (et non-réminiscent) est entièrement défini par son spectre d'absorbtion (ou d'amplication).

3. Le théorème de l'échantillonnage

Si le signal ne dure qu'un temps `T`, alors il n'est plus périodique. On le rend périodique en le répètant à l'identique après chaque intervalle de temps `T`. On peut alors le décompose en une série de Fourier avec comme étalon de fréquence, la fréquence de l'harmonique fondamental qui est égale à l'inverse de la durée du signal `1"/"T`. Chaque harmonique possède une fréquence qui est un multiple entier de la fréquence fondamentale `1"/"T`. Le spectre du signal est perçu de façon quantifiée où `1"/"T` constitue le quanta de fréquence, et donc avec une précision de l'ordre du demi-quanta de fréquence `1"/"(2T)`. Le spectre est d'autant plus précis que le temps de mesure `T` est long.

Imaginons que le signal contienne une composante de fréquence `f` inconnue. L'harmonique correspondant à cette composante aura comme fréquence le multiple entier de `1"/"T` le plus proche de `f`. Plus la durée `T` de la mesure est grande, plus la fréquence mesurée de la composante recherchée est précise. Et on constate une incertitude sur la fréquence perçue égale à la moitié de la fréquence fondamentale : `f ± 1"/"(2T)`. Ce constat se formalise dans le théorème de l'échantillonnage découvert par C.E.Shannon, ingénieur américain (1916-2001) :

Un signal ne contenant pas de fréquence supérieure ou égale à `f_"max"` peut être échantillonné à la fréquence `2f_"max"` sans qu'il n'y est aucune perte d'information.

Le signal est entièrement déterminé par la suite de ses valeurs à des instants régulièrements espacés par la demie-période de la fréquence maximum `f_"max"` qu'il contient, soit régulièrements espacés de la durée `1"/"(2f_"max")`.

4. De la nature des signaux

Le signal possède une unité selon sa nature. On le définit de la manière la plus générale en lui donnant autant que possible une nouvelle dimension, une espèce indépendante. Pour concrétiser notre étude nous choisissons comme nature du signal, un signal électrique. Et on choisie d'utiliser le Système international d'unité. La valeur du signal qui est un potentiel électrique, est exprimé en volt (noté `"V"`). Et donc les amplitudes sont exprimés en volt.

Les phases sont exprimées en radian (noté `"rad"`). C'est un choix canonique qui possède quand-même un certain arbitraire. On aurait pu choisir comme unité d'angle, le tour, ou une subdivision entière du tour, ou encore, on le verra plus tard, le double-tour. Néanmoins le développement de la fonction sinus dans ce système d'unité nous laisse penser que c'est le choix le plus simple.

`sin(x)=x+O(x^3)`

L'unité de temps est la seconde (notée `"s"`). La fréquence est exprimée en tour par seconde c'est à dire en Hertz (noté `"Hz"`). Tandis que la vitesse angulaire est exprimée en radian par seconde, sachant qu'un tour égale `2pi` radian, et que l'on passe de la fréquence à la vitesse angulaire en la multipliant par `2pi`, et que inversement on passe de la vitesse angulaire à la fréquence en la divisant par `2pi`.

Néanmoins le choix de la seconde comme unité de temps est arbitraire. Il doit exister un paramètre fondamentale précisant dans quelle échelle de temps nous nous plaçons ou à quelle vitesse le temps s'écoule, et qui est un facteur multiplicatif, définissant une unité de temps choisie (que l'on peut alors exprimer dans une unité arbitraire sans introduire d'arbitraire). De même, le choix du volt comme unité de mesure du signal est arbitraire. Il doit exister un paramètre fondamentale précisant dans quelle échelle de mesure dans la dimension du signal nous nous plaçons, et qui est un facteur multiplicatif, définissant une unité de potentiel électrique (que l'on peut alors exprimer dans une unité arbitraire sans introduire d'arbitraire). Le choix de l'echelle est important car dans certaine théorie cosmologique (et ne soyez pas étonné, car l'infiniment petit et lié à l'infiniment grand), les lois dépendent de l'échelle où se situe l'observateur.

5. Développement de Taylor

Un signal possède à chaque instant `t` une valeur `f(t)`, sa dérivée `f’(t)`, sa dérivée seconde `f’’(t)`, sa dérivée `n`-ième `f^("("n")")(t)`, etc.. On déclare le neurone `f"←"t`, qui signifie que `f` dépend de `t`, et qu'il le possède en tant qu'argument par défaut : `f = f(t)`. On fait de même pour les dérivées successives :

`f’"←" t`
`f’’"←" t`
`f’’’ "←" t`
...
`f^("("n")")"←"t`

Mais dans la pratique, il n'est pas commun de mesurer cette suite des dérivées. Le développement de Taylor permet à partir de cette suite de dérivées de calculer le signal à tout instant `t`. Le développement de Taylor est :

`f(t"+"dt) = f+f’dt+f’’(dt^2)/2+f’’’(dt^3)/(3!)+ ... + f^("("n")") dt^n/(n!) + o(dt^n)`

`f(t"+"dt) = sum_(n=0)^n (f^((n)))/(n!) + o(dt^n)`

Avec comme convention d'écriture, ce qui découle des neurones : `f"="f(t)`, `f’"="f’(t)`, `f^((n))"="f^("("n")") (t)`, puis la convention `0! "=" 1`, `f^("("0")") "=" f`, et pour la somme, l'utilisation d'une variable d'indice de même nom `n` qui masque la borne `n` dans la partie itérée. Ce développement est valable à condition que le signal doit infiniment dérivable et de série de Taylor convergente en tout instant `t`, ce qui est supposé vrai pour des raisons physiques.

6. Les signaux sinusoïdaux

De la même façon que le cercle est la plus simple des figures, la sinusoïde est le signal le plus simple parmi tous les signaux scalaire sans dimension spatiale. C'est le signal qui semble nécessité le moins de paramètres pour être définie. C'est un champ scalaire `U` qui évolue au cours du temps `t`, ce qui se note `U"←"t`, et qui adopte comme réduction d'écriture par défaut `U=U(t)`. Ce champ possède une vitesse angulaire `omega`, une amplitude `a` et une phase initiale `varphi`.

  `U = a cos(omega t+varphi)`

Ce champ obéït à l'équation locale suivante :

`(d^2U)/(dt^2) = - omega^2U`

Ce champ sinusoïdale est déterminé par la connaissance de trois paramètres `omega, U(0), (dU)/(dt)(0)`, ou bien `omega, a, varphi`.

7. De la géométrie

Le cercle se définit comme étant la figure convexe qui optimise le rapport entre la surface délimitée et la circonférence, et on exprime ce rapport en fonction de l'une ou de l'autre. La circonférence `L` du cercle est égale au rayon `R` multiplié par `2pi`. L'aire `S` du cercle est égale au carré du rayon multiplié par `pi`.

`L=2pi R`
`S=pi R^2`

 
`S/L = R/2 = L/(4pi)= sqrt(S/(4pi))`

Un principe similaire devrait s'appliquer pour définir un signal sinusoïdale. Le signal possède un paramètre supplémentaire qui est sa période `T`, ou sa fréquence `nu=1"/"T`. Le signal scalaire se décompose en la somme de deux signaux vectoriels de dimension 2 qui tournent en rond dans le sens inverse l'un de l'autre et à la même fréquence. Le signal vectoriel de dimension 2 qui tourne en rond est encore plus simple, ce qui rend pertinente cette décomposition.

Pour l'exprimer simplement on utilise le corps des nombres complexes, comme espace vecoriel de dimension 2, formant un plan. Le nombre complexe `e^(ialpha)` désigne un vecteur de norme `1` dans ce plan. Il parcourt le cercle de rayon `1` dans le sens trigonométrique lorsque `alpha` parcourt les valeurs croissantes de `0` à `2π`. Tandis que le nombre complexe `e^(-ialpha)` parcourt ce cercle dans le sens inverse. Le nombre `alpha` représente un angle. Nous avons la formule d'Euler :

`e^(ialpha) =cos(alpha)+i sin(alpha)`

`cos(alpha) = 1/2(e^(ialpha)+e^(-ialpha))`

`sin(alpha) = 1/(2i)(e^(ialpha)-e^(-ialpha))`

Le signal sinusoïdal réel se décompose en deux signaux complexes tournants qui sont dans leur principe plus simples :

`U = a cos(omega t"+"varphi)`

`U = a/2e^(i(omegat"+"varphi)) + a/2e^(-i(omegat"+"varphi))`

`omega` est la vitesse angulaire de rotation exprimée en radians par unité de temps, où `varphi` est la phase initiale exprimée en radians, et où `a` est l'amplitude exprimée en unité de champ. On constate donc qu'il existe une interprétation plus simple du champ scalaire formant un signal sinusoïdale, dans un champ augmenté d'une dimension appelé champ vectoriel de dimension 2 et formant des vecteurs tournants à vitesse angulaire constante.

8. Les signaux électromagnétiques

Le signal sinusoïdale fait partie des signaux les plus simples. C'est pourquoi on le retrouve dans la nature sous une forme fondamentale qu'est l'onde électromagnétique, mais celle-ci se définit en 3 dimensions spaciales auxquelles on ajoute une dimension de temps.

Il est inutile d'inventer l'eau chaude, surtout lorsque la nature nous montre des fondements tels ce lapin blanc qu'il suffit de suivre pour ordonner notre construction en une oeuvre révélatrice. L'onde électromagnétique dans le vide se déplace toujours à la vitesse de la lumière et cela dans tout référentiel non-accéléré. Elle obéït aux équations de Maxwell, et met en oeuvre la relativité restreinte.

9. Les équations de Maxwell

Le champ électromagnétique dans le vide satisfait les équations locales suivantes :

`vec(grad)"∧"vecE = - (del vecB)/(cdelt)`

`vec(grad)"∧"vecB= (del vecE)/(cdelt) `

`vec(grad)"·"vecE=0`

`vec(grad)"·"vecB=0`

Où le nabla `vec(grad)` est définie comme suit :

`vec(grad)=(del/(delx), del/(dely), del/(delz))`

Remarquez que nous avons multiplié `t` systématiquement par `c` afin d'exprimer le temps `t` sous forme d'une distance `ct`. Remarquez que l'on définit un nouveau champs magnétique `B` qui est égal au produit du champs magnétique classique multiplié par `c`.

10. De l'analyse vectorielle en 3 dimensions

L'espace tridimensionnel perçu par l'observateur que nous sommes est caractérisé par un système de coordonnées `(x,y,z)` définit dans un repère. à chaque instant `t`, Un champ scalaire `V` est une fonction qui associe à chaque point de l'espace `(t,x,y,z)` une valeur de champ `V(x,y,z)`. Un champ de vecteur ou champ vectoriel est une fonction qui associe à chaque point de l'espace un vecteur de l'espace multiplié par une unité spécifique. Chaque vecteur désigne un débit et le champ représente un flux.

Les champs `V` et `vec E` sont des variables d'états dépendant du vecteur position `(x,y,z)` et du temps `t` ce qui se note par les neurones suivants  :

`V"←"(x,y,z,t)`
`vecE"←"(x,y,z,t)`

Délors, ils ont comme argument par défaut, le vecteur position et le temps `(x,y,z,t)`. Ainsi `V"="V(x,y,z,t)` et `vecE"="vecE(x,y,z,t)`. Leur composantes selon les axes `"x","y","z"` se notent `V_"x",V_"y",V_"z"` et `E_"x", E_"y", E_"z"`et constituent implicitement des variables d'états dépendant de `(x,y,z,t)`. Remarquez que les indices `"x","y","z"` jouent ici le rôle de label désignant les 3 axes du repère.

10.1 Le gradient `vecgrad`

Le gradient d'un champ scalaire `V` correspond à sa dérivée spaciale . C'est un vecteur dont la direction suit la plus grande montée. On l'obtient en appliquant le nabla `vec(grad)` :

`vec("grad")V=vecgrad V = ((delV)/(delx), (delV)/(dely), (delV)/(delz))`

Le gradient d'un champ vectoriel `E` est un vecteur de vecteurs, dont chaque composante et le gradient d'une composante. On l'obtient en appliquant le nabla `vec(grad)` :

`vec("grad")vecE=vecgrad vecE = (vecgrad E_"x",vecgradE_"y",vecgradE_"z")`

Le gradient d'un champ possède comme unité, une unité de champ divisé par une unité de distance.

10.2 La divergence `"div"`

La divergence représente, comme son nom l'indique, la dispertion du flux, et indique une concentration du flux lorsqu'elle est négative. On l'obtient en appliquant l'opérateur nabla à l'aide du produit scalaire `vec(grad)"·"` :

`"div"vecE = vec(grad)"·"vecE = (delE_x)/(delx)"+"(delE_y)/(dely)"+" (delE_z)/(delz)`

La divergence d'un champ possède comme unité, une unité de champ divisé par une unité de distance.

10.3 Le rotationnel `"rot"`

Le rotationnel représente, comme son nom l'indique, la vorticité, la tendance qu'ont les lignes du champ vectoriel à tourner autour du point. On l'obtient en appliquant l'opérateur nabla à l'aide du produit vectoriel `vec(grad)"∧"` :

`vec(grad)"∧"vecE = ( ((delE_y)/(delz)-(delE_z)/(dely)), ((delE_z)/(delx)-(delE_x)/(delz)) , ((delE_x)/(dely)-(delE_y)/(delx)) )`

On a représenté le vecteur rotationnel sous forme de vecteur colonne par pure commodité. On ne fait pas de distinction entre vecteur ligne et vecteur colonne.

Le rotationnel d'un champ possède comme unité, une unité de champ divisé par une unité de distance.

L'analyse vectorielle montre que la divergence d'un rotationnel est toujours identiquement nulle pour tout champ quelconque. Réciproquement, tout champ de vecteurs dont la divergence est identiquement nulle peut être exprimé sous la forme d'un rotationnel. L'analyse vectorielle nous dit également que le rotationel d'un gradient est toujours identiquement nul pour tout champ scalaire quelconque. Ainsi quelque soit les champs `V` et `vecE`.

` vec(grad)"∧"vec(grad) V =0`

` vec(grad)"·"(vec(grad)"∧"vecE) =0`

10.4 Le laplacien `Delta` noté aussi `vecgrad^2`

On l'obtient en appliquant 2 fois l'opérateur nabla à l'aide du produit scalaire `vecgrad"·"vecgrad` :

`Delta = vec(grad)"·"vec(grad) = (del^2)/(delx^2) "+" (del^2)/(dely^2) "+" (del^2)/(delz^2)`

`Delta vec E = vec(grad)"·"vec(grad) vecE= (del^2E_x)/(delx^2) "+" (del^2E_y)/(dely^2) "+" (del^2E_z)/(delz^2)`

Le laplacien d'un champ possède comme unité, une unité de champ au carré divisé par une unité de distance au carré.

12. Les forces

11. Le champ potentiel

Le champ électromagnétique `vecE, vecB`, crée un champ potentiel `V, vecA` défini à l'aide de  la condition de jauge de Lorentz :

`vecB = vec(grad)"∧"vecA`

`vecE = -vec(grad)V-(del vecA)/(c del t)`

`vec(grad)"·"vecA + (del V)/(cdel t) = 0`

Remarquez que l'on définit un nouveau potentiel vecteur `A` qui est égal au produit du potentiel vecteur classique multiplié par `c`. Le champ potentiel satisfait les équations locales suivantes :

`(del^2 vecA)/(c^2 del t^2) = vec(grad)^2 vecA`

`(del^2 V)/(c^2 del t^2) = vec(grad)^2 V`

Le champ éléctromagnétique doit pouvoir se calculer simplement dans un autre répère en translation uniforme, en appliquant une transformation de Lorentz.

3) Les quaternions

Le corps de dimension finie le plus grand est celui des quaternions. Il est engendré par le groupe des quaternions, un groupe d'unités à 8 éléments `{±1, ±i, ±j, ±k}`.

 

 

 

2.2) Quanta d'énergie

Ce signal, on le retrouve en physique quantique constituant la plus simples des particules élémentaires qu'est le photon. On constate que le signal électromagnétique de fréquence `nu` transporte une quantité d'énergie qui est quantifiée. Chaque quanta d'énergie correspond à un photon de fréquence `nu` et d'énergie `E` :

`E=hnu`

`h` est la constante de Planck de l'ordre de `6.6 10^-34 "Js"`. Le photon est une vibration électromagnétique de fréquence `nu` et d'énergie `hnu`. Ainsi, il n'existe pas de moyen de transmission d'un signal électromagnétique de fréquence `nu` ayant une énergie plus faible que `hnu`. Et cette énergie est proportionnelle à la fréquence.

2.3) Masse du photon

La masse du photon s'obtient en divisant l'énergie par la vitesse de la lumière au carré, selon la célèbre formule d'Einstein `E= mc^2`. Le photon étant toujours à la vitesse `c` dans tout référentiel non-accéléré, il ne possède pas de masse au repos.

`m=E/c^2=(hnu)/c^2`

2.4) Quantité de mouvement d'un photon

La quantité de mouvement et le produit de la masse par la vitesse. La quantité de mouvement du photon est :

`p=mc=(hnu)/c`

2.5) L'onde associée

L'onde associée d'une particule de quantité de mouvement `p` possède une longueur d'onde `lambda` égale à la constante `h` divisée par la quantité de mouvement `p`. Pour le photon, on obtient

`lambda =h/p = c/nu`

Ce qui correspond à une onde de fréquence `nu` et de célérité `c`. Dans un système en état d'équilibre, le carré de l'onde associée définit la densité de probabilité de présence du photon, qui est donc égale à 1 lorsqu'on l'intégre sur tout l'espace.

2.6) Spin du photon

Puis on constate que le photon possède un spin `1`, c'est à dire un moment cinétique parallèle à sa trajectoire et qui est égale à plus ou moins `ℏ``ℏ=h"/"2pi`. Le photon est ainsi polarisé. Il y a deux sortes de photons, les photons gauches représentés par le symbole `⟲` qui correspondent au sens de dévissage, et les photons droits représentés par le symbole `⟳` qui correspondent au sens de vissage.

Une explication théorique selon Marc Henry consiste à définir le photon comme un cercle homogène en rotation où chaque point du cercle possède une vitesse `c`, En accord avec la dualité onde-corpuscule de Louis de Broglie, pour que ce modèle soit viable, il faut que la longueur d’onde associée au photon, `λ`, soit égale à la circonférence du cercle, `2πR`, soit :

`λ=c/nu = 2piR`

`R= c/(2pi nu)`

Le moment cinétique `J` est égale au produit de la quantité de mouvement par la distance à l'axe de rotation.

`J = pR = h/(2pi)=ℏ`

2.7) Principe d'incertitude d'Heisenberg

On constate que les données de temps `t` et d'énergie `E` d'un photon ont une précision limitée interdépendante. Si on connait précisement `E` alors on ne peut pas connaitre précisement `t` et réciproquement si on connait précisement `t` alors on ne peut pas connaitre précisément `E`. Mais la mécanique quantique ne s'en tient pas au constat de cette seule limite des mesures, elle l'instaure comme un principe de réalité. C'est le principe d'incertitude d'Heisenberg. Etant donné un photon. Ce photon possède deux variables d'états que sont son énergie `E` et le temps `t` qui est en faite le temps impropre du photon, soit le temps de l'observateur. L'imprécision sur la mesure du temps, noté d'écarts types `sigma_t`, dépend de l'imprécision sur la mesure de l'énegie, noté d'écart type `sigma_E`, selon la formule de dépendance constatée :

`sigma_t sigma_E=ℏ`

Autement dit, si on connait `t` deux fois plus précisement alors on connait `E` deux fois moins précisement, et réciproquement si on connait `E` deux fois plus précisement alors on connait `t` deux fois moins précisement. Deux hypothèses `(E_1,t_1)` et `(E_2,t_2)` sont dites non séparées si :

`|t1-t2||E_1-E_2|=ℏ`

La véritable caractéristique du photon n'est pas une multitude de valeurs `(E,t)`, mais un état quantique qui décrit les probabilités de `E` et de `t`.

2.7) Les équations de Maxwell

Le champ électromagnétique dans le vide satisfait les équations locales suivantes :

`vec(grad)"∧"vecE = - del/(cdelt)vecH`

`vec(grad)"∧"vecH=1/(c^2) del/(cdelt) vecE`

`vec(grad)"·"vecE=0`

`vec(grad)"·"vecH=0`

Où le nabla `vec(grad)` est définie comme suit :

`vec(grad)=((del/(delx)), (del/(dely)), (del/(delz)))`

 

---- 16 juillet 2022 ----

 

 

 

 

 

 

 

 

 

 

Condidérons un signal de fréquence `nu` et d'énergie minimal `E=hnu` correspondant à un seul photon. La période du signal est `t = 1"/"nu`. La vitesse angulaire `omega` est égale à `2pinu`. Posons une incertitude sur `t` notée `sigma_t` et une incertitude sur `E` notée `sigma_E`. Du principe d'incertitude, on déduit :

`sigma_t sigma_E=ℏ`
`sigma_t sigma_(hnu) = ℏ`
`h sigma_t sigma_nu =ℏ`

`2pi sigma_t sigma_nu=1`
`sigma_t sigma_omega=1`

La période `t` est égale à l'inverse de la fréquence `nu`. Concidérons une incertitude sur `t` très petite devant `t` que l'on note `sigma_t`. Celle-ci va être liée à une incertitude sur `nu` très petite devant `nu` que l'on note `sigma_nu`. Considérons une série de `N` tirages `dt_j` et `dnu_j` pour `j"="1".."N`. Nous avons :

`sigma_t = sqrt(1/N sum_j (dt_j)^2)`
`sigma_nu = sqrt(1/N sum_j (dnu_j)^2)`

`tnu=1`
`(t+dt)(nu+dnu)=1`
`tnu+t dnu+nudt+dt dnu=1`
`1+t dnu+nudt+dt dnu=1`
`t dnu+nudt+dt dnu=0`

`t dnu+dt/t+dt dnu=0`
`dnu(t+dt)= -dt/t`
`dnu= -dt/(t(t+dt))`
`dnu= -dt/(t^2+tdt)`

`dnu= -dt/t^2+O(1/t^3)`

`sigma_nu = -(sigma_t)/t^2+O(1/t^3)`

`sigma_t sigma_nu = -(sigma_t/t)^2+O(1/t^3)`

`2pi sigma_t sigma_nu = - 2pi (sigma_t/t)^2+O(1/t^3)`

`1 = - 2pi (sigma_t/t)^2+O(1/t^3)`

`t^2 = - 2pi (sigma_t)^2+O(1/t)`

`sigma_t^2 = - t^2 /(2pi) + O(1/t)`

 

 

---- 5 juillet 2022 ----

 

 

 

 

 

 

Un signal ne contenant pas de fréquence supérieure ou égale à `f_"max"` peut être échantillonné à la fréquence `2f_"max"` sans qu'il n'y est aucune perte d'information.

Le signal est entièrement déterminé par la suite de ses valeurs à des instants régulièrements espacés par la demie-période de la fréquence maximum `f_"max"` qu'il contient, soit régulièrements espacés de la durée `1"/"(2f_"max")`.

Ce théorème permet de remplacer les signaux dont les fréquences sont bornées, par des suites de valeurs sans qu'il n'y ait auncune perte d'information. On peut alors traiter ces suites de valeurs en leur appliquant des convolutions, la transformation de Fourrier, la transformation en Z…, décrits dans l'ouvrage du Professeur Bellanger.


M. Bellanger "Traitement numérique du signal", 7ème édition, Dunod, 2002
P. Destuynder & F.Santi "Analyse et contrôle numérique du signal", Ellipses, 2003

6) L'échantillonnage

Dans la pratique, l'oreille ne perçevant pas les sons de fréquences supérieurs à `20 000 "Hz"`, nous pouvons retirer les composantes de fréquence supérieures puis échantillonner le signal à `44 100 "Hz"`, un standard communément rencontré.

les signaux sont échantillonnés à la fréquence `F = 44 100 "Hz"`. Cet échantillonnage est sans perte si les signaux ne comprennent pas de composante de fréquence supérieure à `F"/"2 = 22 050 "Hz"`.

L'échantillonage du signal à la fréquence `F` va prendre les `N` premières valeurs du signal espacées par des intervalles de temps constant `1/F` c'est à dire aux instants suivant `0`, `1"/"F`, `2"/"F`, `3"/"F`..., `(N"-"1)"/"F`. Les valeurs successives du signal sont ainsi espacées d'un même intervalle de temps égale `1"/"F`, soit une valeur à peu près toutes les `23 µs`. Les deux paramètres pour définir un échantillonnage sont la fréquence d'échantillonnage `F` et le nombre d'échantillons `N`.

6.1) Notation

Il n'existe pas de différence fondamentale significative entre un signal tronqué après une durée `T`, et un signal de période `T` identique sur la durée `T`. C'est pourquoi dans un premier temps le choix de notation ne fera pas de différence entre un signal tronqué et un signal périodique.

Puis on précisera la fréquence d'échantillonnage, formant ainsi un type de suite dite fréquencée, plus riche car comprenant cette information supplémentaire qu'est la fréquence d'échantillonnage. Et dans la programmation, une variable désignant une suite fréquencée peut désigner une suite. La conversion de type est implicite.

On définit un langage pour manipuler ces suites finies ou pérodiques à fin de mieux cerner les structures mathématiques sous-jacentes. La résolution des problèmes tient en grande partie dans leurs formulations, par le choix du langage le mieux adapté. Le langage formel permet la programmation et donc l'expérimentation. Cela donne à l'utilisateur final la possibilité de vérifier l'intégrité d'une théorie, en vérifiant expérimentalement les invariants de la théorie sur quelques cas au hasard, et selon une méthode holistique où la charge de la preuve revient à l'utilisateur final.

Pour procéder à cette expérimentation on utilise un logiciel de calcul formel. Le logiciel MuPad est pratique pour cela. Malheureusement ce logiciel a été privatisé il y a une vingtaine d'années. Il est possible de récupérer sur internet en cherchant bien une version 4-0-6 du logiciel juste avant que celui-ci ne devienne exclusivement commercial sous un autre nom, avec un générateur de codes piratés. Remercions les pirates qui ont ainsi oeuvré au bien commun en redonnant au public un outils bien pratique pour appréhender le calcul scientifique, et qui ont redonné par la même occasion aux développeurs et théoriciens à la base de ce projet de recherche de l'Université de Paderborn leurs noblesses malencontreusement dévoyées par des intérêts commerciaux illégitimes. En effet on ne peut se permettre de privatiser un bien qui appartient à tous, tel un théorème ou une preuve, et cela est valable aussi pour les logiciels dont le développement s'appuit pour l'essentiel sur des techniques et des connaissances publiques et sur la recherche publique. Si vous ne souhaiter pas violer les règles du copyrigth et que vous préfériez participer à un projet vivant, vous pouvez vous rabattre sur scilab, axiom, etc., qui sont libres, open-source et en évolution. Rappelez-vous que la quête scientifique n'a de vertu que si elle est démocratique.

6.2) Suite périodique

Par convention, on note une suite périodique par la liste de ses valeurs sur une période, mise entre crochet `"<>"`. Par exemple `"<"1,2,3">"` désigne le signal `1,2,3,1,2,3,1,2,3...`, Par exemple nous pouvons écrire :

`"<"1,2">" = "<"1,2,1,2,1,2,1,2">"`

`"<"2,0,5">" = "<"2,0,5,2,0,5">"`

`"<"5">" = "<"5,5">"`

On accède aux valeurs du signal par un appel fonctionnelle avec comme paramètre la position entière dans la liste en commençant par zéro. Par exemple, si `S = "<"1,2,3">"` alors `S(0)"="1, S(1)"="2 , S(2)"="3` et comme la suite est périodique `S(3)"="1, S(4)"="2`, etc.. `S(n)"="S(n mod 3)`.

Par exemple, nous pouvons écrire :

`"<"1,2,3">"(0) = 1`

`"<"4,5,6">"(1) = 5`

`"<"1,2,3">"("-"1) = 3`

On enrichie la structure des suites périodiques en adjoignant à chaque suite, une mesure, une taille qui est nécessairement un multiple de la période minimale et qui correspond à la taille de l'expression. On note cette suite périodique mesurée par la liste de ses valeurs sur une mesure mise entre parenthèse `()`. Par exemple `(1,2,1,2)` désignera le signal `1,2,1,2,1,2,1,2...`, avec une mesure (période de référence) de `4` alors que la période minimale est de `2`. La suite périodique mesurée `(1,2,1,2)` se distingue de `(1,2,1,2,1,2)` par la mesure de `4` pour l'un et de `6` pour l'autre. Les suites périodiques sans mesure sont notées entre crochets `"<>"`. Les suites périodiques avec mesure sont notées entre parenthèse `( )`. Cette distinction est importante pour le dénombrement. Si les valeurs sont quantifiés et bornés, par exemple si les valeurs sont entières et bornés et forment un ensemble de `K` valeurs possibles, alors le nombre de suites périodiques de période fondamentale égale à `n` est compliqué à calculer, mais le nombre de suites périodiques mesurées de longueur `n` est exactement `K^n`.

On enrichie encore la structure des suites périodiques en adjoignant à chaque suite une fréquence d'échantillonnage comme un tempo, que l'on met en premier séparé par le symbôle `"|"`. Ainsi `(F | x, y, z)` désigne une succession de valeurs à des instants précis ; à l'instant `0` la valeur est `x`, à l'instant `1"/"F` la valeur est `y`, à l'instant `2"/"F` la valeur est `z`. Et le signal est périodique, c'est à dire que à l'instant `3"/"F` la valeur est à nouveau `x`, à l'instant `4"/"F` la valeur est à nouveau `y`, etc.. Chaque valeur est espacée d'un intervalle de temps `1"/"F`.

On accède à la valeur de la fréquence et à la valeur de la mesure du signal par les appels aux attributs `sf"Freq"` et `sf"Mesure"` comme dans un langage de programmation orienté objet. Par exemple, posons :

`S = (4|2,0,4)`

C'est une suite fréquencée à `4` hertz et mesurée sur `3` échantillons. Nous avons `S"."sf"Freq""="5` et `S"."sf"Mesure""=" 3` et :

`S(0)"="2` à l'instant `0`
`S(1)"="0` à l'instant `0.25 sf"s"`
`S(2)"="4` à l'instant `0.5 sf"s"`
`S(3)"="2` à l'instant `0.75 sf"s"`
`S("-"1)"="4` à l'instant `-0.25 sf"s"` etc..

6.3) Échantillonnage

Étant donné un signal `s(t)``t` représente le temps. On définit l'opération d'échantillonnage de fréquence `F` de `N` échantillons, comme suivant. L'échantillonnage produit une suite de `N` valeurs de signal espacée par intervalle de temps `1"/"F` et commençant à l'instant zéro. On nomme cette suite par `S` majuscule, ce qui s'écrit :

`S = "Echantillonnage"(s,F,N)`

`S = (F| s(0), s(1/F) , s(2/F), s(3/F),..., s((N"-"1)/F))`

Le signal `s` évolue en fonction du temps que l'on nomme `t`. De même, la suite `S` représente l'évolution du signal à des instants discrets désignées par un indice que l'on nomme `h`. C'est le paramètre `F` qui détermine l'intervalle de temps entre chaque valeur de la suite qui est `1"/"F`, et donc qui détermine le lien entre le temps `t` et l'indice entier `h` qui est :

`t=h/F`

L'échantillonnage se présente comme suit :

`S =  (S(0), S(1), S(2), S(3)..., S(N"-"1))`

`S(0)` : Valeur du signal à l'indice `h=0` c'est à dire à l'instant `0`.
`S(1)`
: Valeur du signal à l'indice `h=1` c'est à dire à l'instant `1"/"F`.
`S(2)`
: Valeur du signal à l'indice `h=2` c'est à dire à l'instant `2 "/"F`.
`S(h)`
: Valeur du signal à l'indice `h` c'est à dire à l'instant `h"/"F`.
`S(N"-"1)`
: Valeur du signal à l'indice `h=N"-"1` c'est à dire à l'instant `(N"-"1)"/"F`.

`S(0) =s(0)`
`S(1) =s(1"/"F)`
`S(2) =s(2"/"F)`
`S(h) =s(h"/"F)`
`S(N"-"1) =s((N"-"1)"/"F)`

`T =N/F`

`h` : Numéro de l'échantillon en commençant par zéro.
`N`
: Nombre d'échantillons.
`T` : Durée de l'échantillonnage.
`h"/"F` : instant de mesure de l'échantillon d'indice `h`.

La suite fréquencée résultant de l'échantillonnage posssède les caractéristiques supplémentaires suivantes. Elle possède un indice entier `h` variant de `0` à `N"-"1`, qui dénote l'évolution discrète de `S(h)`, et qui correpond au paramètre de temps `t=h"/"F` réel qui dénote l'évolution du signal `s(t)`.

7) Les nombres complexes

Un nombre complexe `z` est un vecteur dans le plan vectoriel de base `1,i`. L'axe des réels `RR` s'appelle l'axe des abscisses, et l'axe des imaginaires `iRR` s'appelle l'axe des ordonnées. Le symétrique de `z` selon l'axe des abscisses s'appelle le conjugué de `z` et se note `barz`. Ce plan vectoriel s'identifie au corps des complexes `CC`. Ainsi quelque soit un complexe `z` nous avons toujours :

`z+barz in RR`

`z-barz in iRR`

`|z| = sqrt(zbarz)`

Un nombre complexe `z` de partie réel `x` et de partie imaginaire `y` se note `z=x"+"iy`. Ce sont ses coordonnées cartésiennes :

`z=sf"Re"(z) +isf"Im"(z) =x+iy`

`x= sf"Re"(z) = (z+barz)/2`

`iy= isf"Im"(z) = (z-barz)/2`

`barz = x-iy`               `bar(u+v)=baru+barv`

Un nombre complexe `z` de norme `a ` et d'argument `alpha` se note `z = a e^(i alpha)`. Ce sont ses coordonnées polaires `[a,alpha]`.

`z=[|z|,sf"arg"(z)]=[a,alpha] = a e^(i alpha) = a cos(alpha) + i a sin(alpha)`

`a = |z| = sqrt(x^2+y^2)`

`alpha = sf"arg"(z) = 2 arctan(y/(x+|z|))`

`bar(z) = [a,-alpha] = a e^(- i alpha)`               `bar(uv)=baru barv`

Et nous avons la règle de produit suivante :

`[a,A][b,B] = [ab,A+B]`

` ae^(iA)be^(iB)= ab e^(i(A+B))`

Et nous avons :

`[1,0] = 1`
`[1,pi"/"2] = i`
`[1,pi] = "-"1`
`[1,2pi"/"3] = "-"i`
`[1,2pi] = 1`

`[a, alpha + 2pi] = [a,alpha]`

`[1,"-"pi"/"2] = "-"i`
`bar i = "-"i=[1,"-"pi"/"2]`
`1"/"i = "-"i`

Multiplier un complexe par `i` revient à augmenter son argument d'un quart de tour soit de `pi"/"2` radian. De même, multiplier un complexe par `-i` revient à diminuer son argument d'un quart de tour c'est à dire d'ajouter à l'argument `-pi"/"2` radian.

8) Le spino et la sinusoïde

Une sinusoïde non constante `s"←"t` est caractérisée par une amplitude `a "∈"R^("+"**)`, une phase `α "∈" [0,2pi[`, et une vitesse angulaire `omega "∈" R^("+"**)`. La fréquence de la sinusoïde est `omega"/"2pi` :

`s ← t`

`(omega,a,alpha) in [0,oo["×"[0,oo["×"[0,2pi[`

`s = asin(α "+" omegat)`

Un spino non constant `z"←"t` est caractérisé par une amplitude `a "∈"R^("+"**)`, une phase `α "∈" [0,2pi[`, et une vitesse angulaire `omega"∈"R^**` dont le signe indique le sens de rotation. La fréquence du spino est `omega"/"2pi` :

`z←t`

`(omega,a,alpha) in R^**"×"[0,oo["×"[0,2pi[`

`z = [a,α"+"omega t] = a e^(i (alpha + omegat)) = acos( alpha"+"omega t) +a i sin( alpha"+"omega t)`

L'amplitude et la phase initiale sont regroupées en un nombre complexe appelé pôle, et noté de façon polaire `p=[a,α]` :

`p=[a,α] =  acos( alpha) + i a sin(alpha)`

`z = [a,α"+"omega t] = [a,α][1, omega t] = p e^( i omegat) = p (cos( omega t) + i sin( omega t))`

Un spino est un signal complexe de norme constante et dont l'argument tourne à une vitesse angulaire constante `omega`. C'est un vecteur qui tourne dans le plan à une vitesse angulaire constante `omega`, ou à une fréquence `omega"/"2pi` constante. Avec cette description, le spino constitue un objet géométrique plus simple que la sinusoïde. Et il y a deux sortes de spino dans le plan ; les spinos positifs qui tournent dans le sens trigonométrique, et les spinos négatif qui tournent dans le sens inverse c'est à dire qui tournent dans le sens des aiguilles d'une montre. C'est le signe de la vitesse angulaire `omega` ou de la fréquence `omega"/"2pi` qui détermine cela.

Pour obtenir une sinusoïde, il faut ajouter un spino tournant dans un sens et son conjugué tournant dans l'autre sens. Et d'une manière plus générale, la somme de deux spinos de même amplitude mais tournant dans des sens opposés va produire une sinusoïde sur un axe central du plan complexe.

Etant donné une sinusoïde `s"←"t` :

`s = asin(α "+" omegat)`

Etant donné un spino `z"←"t` ayant les mêmes paramètres (amplitude et phase) que ceux de la sinusoïde `s`. Nous avons :

`sf"Re"(z) = 1/2 (z+bar(z)) = acos(alpha"+"omega t)`

` sf"Im"(z) = 1/(2i) (z-barz) = asin (alpha"+"omega t)`

Une règle à se souvenire, pour transformer un cosinus en un sinus, est : Le cosinus est un sinus dans lequel la phase est avancée d'un quart de tour, c'est à dire de `pi"/"2` radian,  `cos( x) = sin(x"+" pi"/"2)`. Pour avancer l'argument d'un complex `z` d'un quart de tour, on le multiplie par `i`. Et pour reculer l'argument d'un complex `z` d'un quart de tour, on le multiplie par `-i`. On en conclut deux façons de décomposer la sinusoïde `s` :

`s = sf"Re"("-"iz) = ("-"i z + ibarz)/2`

`s = sf"Im"(z) = (z- barz) /(2i)`

Et on pourra vérifier que cela est bien égale car `1"/"i = "-"i`.

Le spino est jugé plus simple que la sinusoïde. Toute sinusoïde se décompose en sommes de deux spinos conjugués. Tout signal périodique se décompose en somme de sinusoïdes. On en conlcut que tout signal `s"←"t` de période `2pi"/"omega` se décompose en somme de spinos :

`s = sum_(n=-oo)^(+oo) p_n e^(i(n omegat)) = sum_(n=-oo)^(+oo) [a_n,alpha_n] [1, n omegat]`

`omega` est égale à `2pi` divisé par la période du signal `s`. Et où `p_n=[a_n,alpha_n]` est un nombre complexe, appelé pôle, regroupant l'amplitude et la phase du spino de vitesse angulaire `n omega`.

Une sinusoïde est un objet compliqué à appréhender, alors qu'un spino est plus simple, c'est un vecteur tournant dans le plan avec une vitesse angulaire constante. C'est pourquoi le spino est considéré comme plus fondamental que la sinusoïde. Et toutes sinusoïdes s'obtient en ajoutant deux spinos conjugués l'un de l'autre.

9) La transformée de Fourier discrète (TFD)

La transformée de Fourier discrète peut être abordée comme un outils mathématique, une propriété remarquable sur les `N`-uplet de nombres complexes. Considérons la suite `S` suivante :

`S = (S(0) S(1), S(2), ..., S(N"-"1))`

La transformée de Fourier discrète de cette suite se note `sf"TFD"(S)`. Et on la note comme la suite `hatS=sf"TFD"(S)` :

`hatS = (hatS(0), hatS(1), hatS(2),..., hatS(N"-"1))`

La TFD est définie comme suit :

`AA n "∈" {0..N"-"1},`  `hatS(n) = 1/ sqrt(N) sum_(h=0)^(N"-"1)S(h)e^(2πi (n t)/N)`    

10) Les propriétés de la TFD

Nous allons démontrer que `AA k "∈" {0..N},  sf"TFD"^2(S)(k)=S(N"-"k)` et donc que `sf"TFD"^4(S)=S`. Mais, tout d'abord on utilisera la notation polaire des nombres complexes telle que `[a,alpha] = ae^(ialpha)` pour une meilleur visibilité. La définition de la TFD devient :

`AA n "∈" {0..N"-"1},  hatS(n) = 1/ sqrt(N) sum_(h=0)^(N"-"1)S(h)[1,2π (n h)/N]`    

On nomme `hathatS = TFD(hatS)`. Nous avons donc :

`hathatS = (hathatS(0), hathatS(1), hathatS(2),..., hathatS(N"-"1))`

On utilise les indices `h,n,k` respectivement pour les suites `S,hatS, hathatS`, de telle sorte que les éléments de ces listes sont désignés par les expressions suivantes :

`S(h) , hatS(n), hathatS(k)`    avec    `(h,n,k)"∈"{0..N"-"1}`

L'expression `sum_h` signifie `sum_(h=0)^(N-1)`, de même pour les indices `n` et `k`.

On développe `hathatS = TFD^2(S)` comme suit :

`AA n "∈" {0..N"-"1},`

` hathatS(k) = 1/ sqrt(N) sum_(n=0)^(N"-"1)hatS(n)[1,2π (k n)/N]`   et    `hatS(n) = 1/sqrt(N) sum_(h=0)^(N"-"1) S(h)[1,2π (n h)/N]`

` hathatS(k) = 1/ sqrt(N) sum_(n=0)^(N"-"1)(1/sqrt(N) sum_(h=0)^(N"-"1) S(h)[1,2π (n h)/N])[1,2π (k n )/N]`

` hathatS(k) = 1/N sum_n sum_h S(h) [1,2π (n h)/N][1,2π (k n )/N]`

` hathatS(k) = 1/N sum_n sum_h S(h) [1,2π (n h + n k)/N]`

` hathatS(k) = 1/N sum_h sum_n S(h) [1,2π (h + k)/N]^n`

` hathatS(k) = 1/N sum_h S(h) sum_n [1,2π (h + k)/N]^n`

On calcul la série géométrique `sum_n [1,2π (h"+" k)/N]^n`. Deux cas peuvent se produirent :

i) Cas où `h = N"-"k`

Dans ce cas `(h"+" k)/N` est entier, et donc `[1,2π (h"+" k)/N]=1`. La série géométrique vaut `N`.

ii) Cas où `h != N"-"k`

`sum_n [1,2π (h"+" k)/N]^n= ([1,2π (h + k)/N]^N-1)/([1,2π (h + k)/N]-1) = 0`

Car `[1,2π (h"+" k)/N]^N = [1,2π (h"+" k)] = 1`, car `h` et `k` sont entiers.

iii) Synthèse

On regroupe les deux cas. La série géométrique vaut :

`sum_n [1,2π (h + k)/N]^n = N(:h"="N"-"k:)`

où le symbole de Kronecker `delta_(N"-"k)^h` et noté de façon explicite par le symbole `(:h"="N"-"k:)`, qui vaut `0` si `h"≠"N"-"k`, et qui vaut `1` si `h"="N"-"k`.

` hathatS(k) = 1/N sum_h S(t) N (:h"="N"-"k:)`

` hathatS(k) =sum_h S(t) (:h"="N"-"k:)`

` hathatS(k) = S(N"-"k)`

11) Suite finie et suite périodique

Le `N`-uplets `S` de nombres complexes peut être interprété comme une suite périodique de période indiciaire `N`.

`AA h "∈" NN,  S(h"+"N)=S(h)`

On remarque que la transformation de Fourier discrète s'applique de la même façon à un `N`-uplet, qu' à une suite périodique de période `N` pour délors produire une suite périodique de période `N`. En effet, les termes de la somme sont de la forme :

`n|-> [1,2pi (h n)/N]`

`n+N|-> [1,2pi (hn + hN)/N] = [1,2pi (hn)/N + 2pi h] = [1,2pi (h n)/N]`

Et donc ils ont tous au plus une période indiciaire `N`. Leur somme possède donc également au plus une période indiciaire `N`.

12) La TFD inverse

La transformée de Fourier discrète inverse de `S` se note `sf"TFD"^-1(S)` . Et comme nous avons `sf"TFD"^4(S)"="S` , elle est aussi égale à `sf"TFD"^-1(S)"="sf"TFD"^3(S)`.

De la propriété `AA k "∈" {0..N},  sf"TFD"^2(S)(k)=S(N"-"k)`, on déduit :

`sf"TFD"^3(S)(k)=sf"TFD"(S)(N"-"k)`

Et comme les `N`-uplets `S`, `sf"TFD"(S)`, `sf"TFD"^2(S)`, `sf"TFD"^3(S)` sont des suites périodiques de période indiciaire `N`, nous avons :

`sf"TFD"^-1(S)(k)= sf"TFD"(S)("-"k)`

La transformation inverse se calcule donc presque pareillement que la transformation, elle s'obtient en changeant simplement le signe dans l'expression exponentielle. On la note comme la suite `hatS=sf"TFD"(S)`, ou simplement `tildeS"="sf"TFD"^-1(S)`.

`tildeS = (tildeS(0), tildeS(1), tildeS(2),..., tildeS(N"-"1))`

La TFD inverse se défini comme suit :

`AA n "∈" {0..N"-"1},  tildeS(n) = 1/sqrt(N) sum_(k=0)^(N"-"1) S(k)e^(-2πi (n k)/N)`     

Avant d'expliquer la signification des termes de la suite `sf"TFD"(S)` lorsque `S` est un échantillonnage, une suite périodique mesurée, nous commençons par décrire une technique simple d'interpolation en fréquence.

13) L'interpolation en fréquence

Le principe de cette interpolation consiste à déterminer les harmoniques du signal grace à la TFD, pour ainsi pouvoir calculer la valeur du signal à tout instant `t`. La mise en oeuvre de cette interpolation est simple : On effectue la TFD sur un échantillonnage `S`. Puis sur la suite obtenue `sf"TFD"(S)`, on effectue un remplissage par des zéros, dit "zéro padding", en insérant un nombre constant de zéros entre chaque terme de la suite `sf"TFD"(S)`. On obtient ainsi une suite plus grande qui correspond à un pas plus fin de fréquence. Puis on effectue la TFD inverse sur cette suite agrandie en précision en pas de fréquence pour obtenir une suite agrandie en précision en pas de temps, offrant ainsi un échantillonnage plus précis.

Reprenons en détail. On échantillonne un signal périodique de période `T` ne comprenant pas de fréquence supérieur à `F_"max"`, sur une période `T` et en prenant `N` échantillons. Autrement dit, on échantillonne le signal à la fréquence `N"/"T`. On obtient une suite `S` de `N` échantillons.

Le théorème de l'échantillonnage nous assure qu'il n'y a pas de perte d'information si `2F_"max" ⩽ N"/"T`.

Puis on calcule la TFD de `S`. On complète la suite obtenue `sf"TFD"(S)` en insérant après chacune de ses valeurs, `n` zéros en même nombre, comme par exemple :

`(1,2,3) -> (1,0,0,2,0,0,3,0,0)`

Cela change le nombre d'échantillons passant de `N` à `(1"+"n)N`. On a ainsi changer d'échelle en ne gardant que les seuls composantes de fréquences du signal telles qu'elles nous ont été dévoilées par la TFD. Il ne reste alors plus qu'à prendre la TFD inverse pour obtenir le signal initial interpolé en fréquence avec une définition plus grande de `(1"+"n)N` intervalles de temps sur la prériode `T`, c'est à dire avec une fréquence d'échantillonnage plus grande égale à `(1"+"n)N"/"T`.

Cette interpollation n'est pas une approximation. Le calcul est exacte s'il n'existe pas de composante de fréquence supérieures à la demi fréquence de l'échantillonnage initial `N"/"(2T)`. Et c'est justement cette condition qui explique pourquoi les termes rajoutés dans la suite `sf"TFD"(S)` sont nuls.

Cette méthode de remplissage par des zéros dite de "zéro padding" permet de recalculer le signal initial avec un échantillonnage plus fin de `(1"+"n)N` échantillons, c'est à dire avec une fréquence d'échantillonnage plus grande égale à `(1"+"n)N"/"T`.

14) TFD d'un échantillon

Étant donné un signal `s"←"t``t` représente le temps en seconde. On effectue un échantillonnage de fréquence `F` de `N` échantillons, c'est à dire que l'on produit une suite de `N` valeurs de signal espacée par intervalle de temps `1"/"F` et commençant à l'instant zéro. On nomme cette suite mesurée et fréquencée, par `S`, ce qui s'écrit :

`S = "Echantillonnage"(s,F,N)`

`S = (F | S(0), S(1), S(2),..., S(N"-"1))`

---- 28 mars 2021 ----

`AA k "∈" {0..N"-"1},  S(h) = s(h/F)`

La suite est rendu périodique en la répétant artificiellement à chaque intervalle de temps `T=N"/"F`. Le signal `s(t)` est également rendu périodique en le répétant artificiellement à l'identique à chaque intervalle de temps `T`. Le signal périodisé `s` est de période `T`. Nous avons `s(t) = s(t mod T)` pour tout `t` réel. La suite périodisée `S` est de période indiciaire `N`. Nous avons `S(h) = S(h mod N) ` pour tout `k` entier. Et on passe de l'un à l'autre par la propriété suivante : `AA k "∈" {0..N"-"1},  S(h) = s(h/F)`. De telle sorte que la fréquence du signal correspond à `F` fois la fréquence indiciaire de la suite.

La TFD de `S` produit une suite `hatS = (S(0), S(1), S(2),..., S(N"-"1))`

Et la TFD inverse appliquée à la suite `hatS` redonne la suite `S` ce qui s'écrit

`S(t) = 1/sqrt(N) sum_(n=0)^(N"-"1)hatS(n)e^(-2πi n/N t)`   

` S(t) = 1/ sqrt(N) sum_(t=0)^(N"-"1)hatS(n)[1,2π n/N t]`   

` S(t) = (hatS(0))/sqrt(N) + (hatS(1))/sqrt(N) [1,2π 1/N t] + (hatS(2))/sqrt(N) [1,2π 2/N t] + (hatS(3))/sqrt(N) [1,2π 3/N t] +...+ (hatS(N"-"1))/sqrt(N) [1,2π (N"-"1)/N t]`

Le signale périodisé est ainsi décomposé en une somme de spinos de fréquences indiciaires respectives `0,1/N,2/N,3/N,...,(N"-"1)/N` et de pôles respectifs `(hatS(0))/sqrt(N), (hatS(1))/sqrt(N), (hatS(2))/sqrt(N) , (hatS(3))/sqrt(N) ,...,(hatS(N"-"1))/sqrt(N)`.

---- 28 mars 2021 ----

Si le signal est réel alors :

` sf"Re"(S(t)) = 1/ sqrt(N) sum_(t=0)^(N"-"1)hatS(n) cos(2π n/N t)`   

` sf"Re"(S(t)) = (hatS(0))/sqrt(N) + (hatS(1))/sqrt(N) cos(2pi1/Nt) + (hatS(2))/sqrt(N) cos(2pi2/Nt) + (hatS(3))/sqrt(N) cos(2pi3/Nt) +...+(hatS(N))/sqrt(N) cos(2pi t)`

Le signale périodisé s(t) = S(Fest ainsi décomposé en une somme de cosinus de fréquence respective `0,1/N,2/N,3/N,...,(N"-"1)/N` et de pôle respectifs `(hatS(0))/sqrt(N), (hatS(1))/sqrt(N), (hatS(2))/sqrt(N) , (hatS(3))/sqrt(N) ,...,(hatS(N"-"1))/sqrt(N)`.

On rapelle que `sin(x)=cos(x-pi/2)` ce qui correspond à un déphasage en moins d'un quart de tour. Ce quart de tour s'opère sur les pôles en les multipliant par `-i`. Et donc Le signale périodisé est décomposé en une somme de sinus de fréquence respective `0,1/N,2/N,3/N,...,(N"-"1)/N` et de pôle respectifs `-i(hatS(0))/sqrt(N), -i(hatS(1))/sqrt(N), -i(hatS(2))/sqrt(N) , -i(hatS(3))/sqrt(N) ,...,-i(hatS(N"-"1))/sqrt(N)`.

` sf"Re"(S(t)) = (hatS(0))/sqrt(N) - i (hatS(1))/sqrt(N) sin(2pi1/Nt) - i(hatS(2))/sqrt(N) sin(2pi2/Nt) - i (hatS(3))/sqrt(N) sin(2pi3/Nt) +...+(hatS(N))/sqrt(N) cos(2pi t)`

On en conclut que `-i hatS(n)/sqrt(N)` sont les pôles du signal périodisé `s`. Et n indique le numéro de l'harmonique de fréquence `

Le n-ième harmonique du signal périodisé s est de fréquence `n/N` et de pôle `-i hatS(n)/sqrt(N)`

---- 28 mars 2021 ----

 

La suite est rendu périodique en la répétant à chaque intervalle de temps `T=N"/"F`. Le signal `s(h)` est également rendu périodique en le répétant à l'identique à chaque intervalle de temps `T`.

Le signal périodisé `s` est de période `T`. Nous avons `f(t) = f(t mod T)` pour tout `t` réel. La suite périodisée `S` est de période `N`. Nous avons `S(h) = S(h mod N)` pour tout `n` entier. Néanmoins cette artifice n'interviendra pas dans la suite des calculs. C'est juste une façon de mémoriser les suites finies comme décrite au chapitre 3.1 en considérant qu'elles se répétent indéfiniment.

 

 

F. Castanié "Panorama des Méthodes en Traitement du Signal", cours, 1998

15) La transformer de Fourier

 

 


15) Système linéaire et invariant dans le temps

Le média qui transporte le signal constitue un système possédant une entrée sur laquelle est imposé un signal, et une sortie qui restitue le signal modifié après la traversé du média.

Deux propriétés qui sont couramment rencontrées dans ces systèmes sont la linéarité et l'invariance dans le temps.

Un système possèdant ces deux propriétés est appelé un filtre.

 

 

 

 

 

 

 

 

 

 

 

16) La transformée en Z

La transformée en Z s'applique à une suites infinies de nombres complexes, pour produire une fonction complexe. Considérons la suite `s` finie suivante :

`s = (s(0) s(1), s(2), ...)`

La transformée en Z de cette suite se note `tilde s = sf"Z"(s)`. C'est une fonction de `CC-> CC` qui se définie comme suit :

`AA z "∈" CC, tilde s(z) = sum_(h=0)^(N"-"1)s(h)z^-h`     

Et la transformée inverse permet de recalculer la suite `s` à partir de la fonction `S` comme suit :

`AA n "∈" NN, s(n) = 1/(2pi i) oint_CC tilde s(z)z^(n-1) dz`     

 

Linéarité : `tilde (as_1 + bs_2)(z) = a tilde s_1(z) +b tilde s_2(z)`

Retard temporel : `tilde (k->s(k"-"n)) = z->z^-n tilde s(z)`

Avance temporelle : `tilde (k->s(k"+"n)) = z->z^k (tilde s(z) - sum_(k=0)^(i-1)s(k)z^-k)`

 

 

 

 


 

3) De la nature des signaux

Le signal électrique se transforme en un signal sonore par le biais d'un interface appelé haut-parleur, qui est un composant électrique linéaire passif. Il opère une transformation linéaire sur le signal. Cela consiste a appliquer un spectre d'absorbtion sur le signal, qui a pour effet, pour chaque harmonique du signal, de multiplier son pôle par un complexe de norme inférieur ou égale à 1 qui est une fonction de la fréquence de l'harmonique en question, et qui va réduir son amplitude et modifier sa phase.

Dans un cas simplifié, le haut-parleur se comporte comme une résistance `R` et le signal est supposé d'impédance nulle. Le signal électrique impose son voltage `U(t)` au borne du haut-parleur exprimé en volt (noté `"V"`). Le courant qui circule `I(t)` s'exprime en ampère (noté `"A"`) c'est à dire en Coulomb par seconde (noté `"C/s"`). La loi de Joule affirme que :

`U(t) = R I(t)`

La résistance `R` s'exprime en ohm (noté `"Ω"`). La puissance électrique instantanée absorbée par le haut parleur `P(t)` est égale à :

`P(t)=I(t) U(t)`

La puissance s'exprime en joule par seconde (noté `"J/s"`) c'est à dire en watt (noté `"W"`). Nous avons donc :

`P(t) = U(t)^2"/"R`

On en déduit que la puissance est proportionnelle au carré du signal. Cette propriétée est une conséquence de la linéarité du système électrique.

Une grandeur physique dont le carré est proportionnel à une puissance est appelée grandeur de champ. Ainsi la valeur du signal est une grandeur de champ et non une grandeur de puissance.

Une fraction de cette énergie est transformée en chaleur, le reste est transformée en signal sonore. Ce signal sonore est une pression exprimée en pascal. La linéarité est toujours présente, et on peut décomposer tout son comme une somme de sons sinusoïdaux purs. Toutes les règles précédentes s'appliquent, seul les unités ont changées, passant du potentiel électrique exprimé en volt à une pression exprimée en pascal.


4) Le bel

La loi de Weber-Fechner affirme que la sensation varie proportionnellement au logarithme de l'excitation :

`sf"Sensation" = k ln(sf"Excitation")`

Mais la base du logarithme qui correspond au facteur de proportionnalité `k` reste une inconnue.

L'expérience nous montre que la sensation physiologique du volume sonore double lorsque la puissance (la quantité d'énergie transportée par seconde) du signal sonore est multipliée par `10`. Le chiffre est évidement approximatif et le fait que ce chiffre soit égale à `10` n'est qu'une pure coïncidence, fruit de l'expérimentation.

" En pratique, cela signifie que si un chef d'orchestre veut doubler la sensation du volume sonore, il devra multiplier le nombre de musiciens par 10 " Fred Borzeix

De ces deux constats, Alexander Graham Bell (3 mars 1847 à Édimbourg en Écosse - 2 août 1922 à Baddeck au Canada), ingénieur britannique d'origine écossaise naturalisé canadien en 1882, (connu pour l'invention du téléphone), définie une unité qui porte son nom, le bel (noté `"B"`), mesurant la variation de la puissance sonore correspondant au doublement de la sensation physiologique du volume sonore :

`v = log(P_2/P_1)`

`v` : variation exprimée en bel.
`P1`: puissance du signal en entrée exprimée en watt.
`P2` : puissance du signal en sortie exprimée en watt.
`log` : Logarithme en base `10`.

Une variation d'un bel correspond au doublement de la sensation physiologique du volume sonore, et cela correspond à une augmentation par multiplication par `10` de la puissance du signal. Une diminution d'un bel correspond à une division par 2 de la sensation physiologique du volume sonore, et cela correspond à une division par 10 de la puissance du signal.

La puissance étant proportionnel au carré du signal, le bel se définie également avec un facteur 2 en fonction de la variation de la valeur du signal :

`v = 2 log(U_2/U_1)`

`v` : variation exprimée en bel
`U_1`: valeur du signal en entré exprimée en volt
`U_2` : valeur du signal en sorti exprimée en volt
`log` : Logarithme en base `10`

Pour doubler la sensation sonore, c'est à dire augmenter d'un bel, il faut multiplier par `10` la puissance du signal exprimée en watt, c'est à dire multiplier par `10^(1/2) = 3.16` la valeur du signal exprimée en volt.

Dans la pratique on utilise le décibel (noté `"dB"`), `1"/"10` bel. L'échelle étant logarithmique, une variation d'un décibel correpond à la multiplication de la puissance par `10^(1"/"10) = 1.26` et correspond à la mutliplication du signal par `10^(1"/"20) = 1.12`

`x = 10 log(P_2/P_1)`
`x = 20 log(U_2/U_1)`

`x` : variation exprimée en décibel
`P1`: puissance du signal en entré exprimée en watt
`P2` : puissance du signal en sorti exprimée en watt
`U1`: valeur du signal en entré exprimée en volt
`U2` : valeur du signal en sorti exprimée en volt
`log` : Logarithme en base `10`

Le décibel coincïde à peu près à la plus petite variation discernable par l'oreille humaine. `10 "dB" = 1 "B"`

Le bel et le décibel sont des échelles logarithmiques c'est à dire qu'ils représentent une notation additive pour des variations multiplicatives de la puissance du signal ou de la valeur du signal :

Facteur multiplicatif
de la puissance
Facteur multiplicatif
du signal
`10 "B"`
`10^10`
`10 000 000 000`
`10^(10/2)`
`100 000`
`5 "B"`
`10^5`
`100 000`
`10^(5/2)`
`320`
`2 "B"`
`10^2`
`100`
`10^(2/2)`
`10`
`1 "B"`
`10`
`10`
`10^(1/2)`
`3.2`
`6 "dB"`
`10^(6/10)`
`4`
`10^(6/20)`
`2`
`5 "dB"`
`10^(5/10)`
`3.2`
`10^(5/20)`
`1.8`
`2 "dB"`
`10^(2/10)`
`1.6`
`10^(2/20)`
`1.3`
`1 "dB"`
`10^(1/10)`
`1.3`
`10^(1/20)`
`1.1`
`0`
`1`
`1`
`1`
`1`
`-1 "dB"`
`10^(-1/10)`
`0.79`
`10^(-1/20) `
`0.89`
`-2 "dB"`
`10^(-2/10)`
`0.63`
`10^(-2/20)`
`0.79`
`-5 "dB"`
`10^(-5/10) `
`0.32`
`10^(-5/20)`
`0.56`
`-6 "dB"`
`10^(-6/10)`
`0.25`
`10^(6/20)`
`0.5`
`-1 "B"`
`10^(-1)`
`0.1`
`10^(-1/2)`
`0.32`
`-2 "B"`
`10^(-2)`
`0.01`
`10^(-2/2)`
`0.1`
`-5 "B"`
`10^(-5)`
`0.000 01`
`10^(-5/2)`
`0.0032`
`-10 "B"`
`10^(-10)`
`0.000 000 000 1`
`10^(-10/2)`
`0.000 01`

Les variations s'ajoutent et les facteurs multiplicatifs se multiplient. Par exemple, ajouter `"+"1 "dB"`, puis `"+"5 "dB"`, puis `"+"1 "B"` correspond à une augmentation de `1 "dB" + 5 "dB" + 10 "dB" = 16 "dB"`. Et cela correspond aussi à la multiplication de la puissance par `1.3 × 3.2 × 10 = 41.6`, et cela correspond aussi à la multiplication du signal par `1.1 × 1.8 × 3.2 = 6.4`

Ajouter `1 "B"` correspond à multiplier la puissance par `10` ou à multiplier le signal par `10^(1/2)`. Ajouter `1 "dB"` correspond à multiplier la puissance par `10^(1/10)` ou à multiplier le signal par `10^(1/20)`. Diminuer de `1 "B"` correspond à diviser la puissance par `10` ou à diviser le signal par `10^(1/2)`. Diminuer de `1 "dB"` correspond à diviser la puissance par `10^(1/10)` ou à diviser le signal par `10^(1/20)`

On remarquera que la multiplication par deux du signal correspond à une variation de `"+"20 log(2) "dB"` c'est à dire à peu près à une variation de `"+"6 "dB"`.

5. Le néper

Une autre unité, le néper (noté Np), est utilisée en dehors de toutes considération physiologique pour exprimer le logarithme néperien d'un rapport de même espèce. On choisie la base néperienne du logarithme, c'est la base e, car elle est la seule a présenter les propriétés mathématiques remarquables suivantes :

ln(ex)=x
d(ex)/dx=ex
d(ln(x))/dx=1/x

Plus précisement, le néper est utilisé pour exprimer un rapport de signal dans une echelle logarithmique néperienne, tandis que le bel est utilisé pour exprimer un rapport de puissance dans une echelle logaritmique de base 10. Et d'autre part nous savons que dans un système linéaire, le rapport de puissance est égale au carré du rapport de signal.

Une variation de +1 B désigne une multiplication par 10 de la puissance, et donc désigne une multiplication par sqrt(10) du signal.

Une variation de +1 Np désigne une multiplication du signal par e=2.718, et donc désigne une multiplication par e2=7.389 de la puissance.

Un changement de système d'unités de base ne modifie pas les rapports puisque ceux-ci sont sans unités, et donc ne modifie pas le néper ni le bel.

x = ln(U2/U1)

x : variation exprimée en neper
U1: valeur du signal en entré exprimée en volt
U2 : valeur du signal en sorti exprimée en volt
ln : Logarithme néperien

Le rapport de puissance étant égale au carré du rapport de signal, un néper est proche d'un bel. Nous avons :

1 Np = 0.869 B

Le doublement de la sensation physiologique du volume sonore est une notion trés subjective donc difficilement appréhendable objectivement. Et on peut se demander si la valeur du doublement de cette sensation ne correspondrait pas en faite au néper, ce qui donnerait une explication mathématique à ce critère physiologique.

6. Le décibel Sound Pressure Level (dBSPL) et le décibel Sound Intensity Level (dBSIL)

Le décibel peut être défini de façon absolue en fixant la valeur du signal ou de la puissance correspondant à zéro décibel, sachant que dans un système linéaire la puissance est proportionnelle au carré du signal.

On rend l'unité absolue en spécifiant la valeur au dénominateur du rapport. Par exemple on notera B(1mW) l'unité d'une puissance en bel relative à 1 milliwatt :

x B(1mW) = log(x/1mW)

x : Niveau d'énergie dans une echelle logarithmique.
log : Logarithme en base 10.
mW : Unité, le milli watt.
B(1mW) : Unité, le bel relatif à 1 milli watt.


-4 B(10mW) -3 B(1mW) 1 µW
-3 B(10mW) -2 B(1mW) 0.01 mW
-2 B(10mW) -1 B(1mW) 0.1 mW
-1 B(10mW) 0 B(1mW) 1 mW
0 B(10mW) 1 B(1mW) 10 mW
1 B(10mW) 2 B(1mW) 100 mW
2 B(10mW) 3 B(1mW) 1 W

Le signal sonore se manifeste dans l'air sous forme d'un champ de pression. La pression est exprimée en pascal (noté Pa). C'est une force par unité de surface : Pa = N/m² = kg/(m*s²). La puissance qui traverse un élément de surface s'appelle l'intensité du son, et est proportionnelle au carré du signal de pression. L'intensité du son s'exprime en W/m²

On fixe le zéro dBSPL à 20 micro pascal. Et on fixe le zéro dBSIL à 1 pico watt par mètre carré.

Le facteur de proportionnalité entre le carré du signal de pression et l'intensité du son dépend du milieu. Mais le plus souvent, le dBSPL sera équivalent au dBSIL.

Le fonctionnement simultané de dix instruments équivalents, multiplie par 10 l'énergie acoustique reçue par les tympans. La puissance est ainsi multiplier par 10 et le niveau sonore est augmenté d'un bel. cela correspond à un doublement de la sensation auditive. Le bruit est ressenti comme deux fois plus fort. Il ne faut pas confondre la puissance acoustique exprimée en watt et le niveau de la sensation sonore exprimée en bel ou en décibel.

7. Domaine des fréquences et amplitudes audibles


8. Sommation de plusieurs signaux

Lorsque trois signaux s'ajoutent nous obtenons l'équation suivante :

S(t) = S1(t) + S2(t) + S3(t)

S1(t) : valeur du premier signal à l'instant t, exprimée en volt.
S2(t) : valeur du second signal à l'instant t, exprimée en volt.
S3(t) : valeur du troisième signal à l'instant t, exprimée en volt.
S(t) : valeur du signal résultant à l'instant t, exprimée en volt.

Leurs puissances instantanée (proportionelles au carré du signal) ne s'ajoutent pas à cause des produits croisées :

P(t) = k*(S1(t) + S2(t) + S3(t))2
P(t) = k*(S1(t)2 + S2(t)2 + S3(t)2 + 2*S1(t)*S2(t) + 2S1(t)*S3(t) + 2*S2(t)*S3(t))
P(t) = P1(t) + P2(t) + P13(t) + 2*k*(S1(t)*S2(t) + S1(t)*S3(t) + S2(t)*S3(t))

P1(t) : puissance instantané du premier signal à l'instant t, exprimée en watt.
P2(t) : puissance instantané du second signal à l'instant t, exprimée en watt.
P3(t) : puissance instantané du troisième signal à l'instant t, exprimée en watt.
P(t) : puissance instantané du signal résultant à l'instant t, exprimée en watt.

Mais si les signaux sont indépendants, en intégrant sur un intervalle de temps suffisament grand t = 0..T, les produits croisés auront une intégrale nulle (moyenne nulle). Les puissances intégrées divisées par T constituent les puisssances moyennes. Donc si les signaux sont indépendants, leurs puissances moyennes s'ajoutent :

P1 = int(P1(t), t=0..T) / T
P2 = int(P2(t), t=0..T) / T
P3 = int(P3(t), t=0..T) / T
P   = int( P(t), t=0..T) / T

P = P1 + P2 + P3

P1 : puissance moyenne du premier signal exprimée en watt.
P2
: puissance moyenne du second signal exprimée en watt.
P3
: puissance moyenne du troisième signal exprimée en watt.
P : puissance moyenne du signal résultant exprimée en watt.

Les niveaux de puissance des signaux temporisés sur un période T sont exprimés en bell et s'obtiennent en prenant le logarithme en base 10 de la puissance moyenne sur la période T, relativement à une puissance de référence que l'on peut fixer à 1W par exemple :

L1 = log(P1 / 1W)                  P1 = 10L1 W
L2 = log(P2 / 1W)                  P2 = 10L2 W
L3 = log(P3 / 1W)                  P3 = 10L3 W

L = log(P / 1W)

L = log((P1+P2+P3) / 1W)

L = log( 10L1 + 10L2 + 10L3 )

L1 : niveau de puissance du premier signal, et exprimée en bel au dessus de 1 watt.
L2 : niveau de puissance du second son, et exprimée en bel au dessus de 1 watt..
L3 : niveau de puissance du troisième son, et exprimée en bel au dessus de 1 watt..
L : niveau de puissance du signale résultant, et exprimée en bel au dessus de 1 watt.

Noter que si on ajoute deux sons dont la différence dépasse 10 dB, le niveau sonore résultant est pratiquement égal au plus grand des deux. Autrement dit, la superposition d'un son de 80 dB et d'un autre son de 90 dB, et s'ils sont indépendant (pas de frange d'interférence) alors le son résultant est encore approximativement de 90 dB.


 

Sommaire
Suivant