L'électromagnétisme a révolutionné notre vision de la matière, de l'espace et du temps. Il a permis à la mécanique d'intégrer la relativité. Nous vivons sous l'ère de l'électromagnétisme. Et il est naturel de partir d'un signal de nature électromagnétique, et plus particulièrement d'un signale électrique, afin de le transformer en des signaux d'autres natures.
La base de l'électromagnétisme repose sur la propriété fondamentale de linéarité. C'est pourquoi la première étape, dans l'étude des signaux, est de comprendre la propriété de linéarité.
Pour expliquer cette propriété simplement et concrètement, nous allons l'appliquer à un circuit électronique.
Dans la plus grande généralité, un circuit électronique est un composant multipolaire c'est à dire un ensemble de pôles liés électroniquement. Chaque pôle correspond à un point du circuit où peut être raccordé un file électrique.
Bien que l'électromagnétisme soit par nature un phénomène relativiste, vu de façon macroscopique, les situations se décrivent à l'aide d'un champ supplémentaire dit "magnétique", et se subdivisent toujours en deux catégories, classique et relativiste. La situation est classique c'est à dire non relativiste, si les vitesses des charges électriques, pour leur partie déterminant les flux macroscopique d'électricité, et les vitesses des référentiels considérés, sont négligeables devant la vitesse de la lumière `c`.
L'action à distance entre les charges électriques s'opère par le biais d'un champ électromagnétique se déplaçant à la vitesse `c` tel une onde, mais qui est déphasée par le guide d'onde qui la transmet.
Pour chaque couple de pôles, il existe une différence de potentiel électrique appelée tension qui évolue au cours du temps. Et si nous raccordons ce couple de pôle, alors il existera également une quantité de charge éléctrique transmise appelée intensité et qui évolura au cours du temps.
Le circuit est linéaire sur l'ensemble de ses pôles. Cela signifie que le potentiel obéit au principe de superposition, à savoir que si deux configurations de potentiels sur ces pôles sont valident alors la configuration constituée de leur sommes ou de n'importe qu'elle de leur combinaison linéaire, est aussi valide.
Le principe de superposition pour les champs affirme que les champs s'ajoutent de façons linéaire sans s'altérer mutuellement. Autrement dit, il n'y a pas d'interaction entre champs.
Et cela s'applique aussi aux flux d'électricité, les champs provenant des flux d'électricité. Ainsi pour un circuit électronique donné, ses flux d'électricités et son champ électromagnétique obéissent au principe de superposition, à savoir que si deux configurations sont valident alors la configuration constituée de leur sommes ou de n'importe qu'elle de leur combinaison linéaire, est aussi valide.
La linéarité est limitée à un domaine de signaux (amplitudes, fréquences). Le circuit est concidéré linéaire dans un domaine de signaux (amplitudes, fréquences), et en dehors de ce domaine le circuit ne garanti plus cette propriété. C'est le domaine de linéarité, ou encore de domaine où le principe de superposition s'applique.
Un circuit électronique s'appelle également un composants électroniques multipolaires. Il peut se subdiviser en plusieurs composants électroniques multipolaires. La définition d'un composant électronique multipolaire pose une difficulté analogue à la définition d'une particule en physique, du fait de la nature récursive de sa définition. Un circuit est linéaire lorsque ses composants sont linéaires et lorsque le circuit qui les compose est lui-même linéaire.
Il existe des circuits électroniques plus simple où la circulation des charges électriques se réduit approximativement à des seuls circuits filaires. On parlera alors d'électrocinétique discrète en opposition à l'électrocinétique continue.
On se propose d'établir un ensemble de lois modélisant les circuits électroniques linéaires, d'une manière la plus générale possible, mais suffisament simple pour être largement promut, en procédant à de justes approximations pertinentes au regard de la contrainte de linéarité.
Le nabla, désigné par le symbole `nabla`, désigne l'opérateur différentiel vectoriel suivant :
`nabla = ((del/(delx)),(del/(dely)),(del/(delz)))`
D'une manière générale, le champ électromagnétique est régis par 6 lois : La force de Lorentz , la conservation de la charge électrique, et les 4 lois de Marwells : le théorème de Gauss, la loi de Faraday, l'absence de charge magnétique, et l'équation de Maxwell-Ampère :
Force de Lorentz : Une charge électrique `q`, se déplaçant à la vitesse `vecv`, placé dans un champs électromagnétique `vecE`, `vecB`, subit la force de Lorentz suivante :
`vecf = q(vecE + vecv "∧" vecB)`
Conservation de la charge électrique : Le champ de courant électrique `vec j` est un flux :
`nabla"⋅" vecj + (delrho)/(delt) = 0`
Théorème de Gauss : Le champ électrique est un flux dont les sources sont les charges électriques. D'où le champ électrique `vecE` et lié au champ de densité de charge `rho` par l'équation locale suivante :
`nabla "⋅" vecE = rho/epsilon_0`
Loi de Faraday : La variation dans le temps du champ magnétique `vecB` crée un champ électrique `vecE` selon l'équation locale suivante :
`nabla "∧" vecE = - (del vecB)/(del t)`
L'absence de charge magnétique : Le champ magnétique est un flux comme l'est le champ électrique mais dont les sources sont les charges magnétique. Et comme il n'existe pas de charge magnétique, le champ magnétique `vecB` est dit à flux conservatif c'est dire vérifie l'équation locale suivante :
`nabla "⋅" vecB = 0`
Équation de Maxwell-Ampère : Le courant `vecj` crée un champ magnétique, et la variation dans le temps du champ électrique `vec E` crée un champ magnétique qui s'ajoute pour produire le champ `vecB` :
`c^2 nabla "∧" vecB = (vecj)/epsilon_0 + (del vecE)/(del t)`
4) Modèle linéaire discret
Les courants sont confinés dans des files conducteurs caractérisés par une résistance par unité de longueur pouvant être considérée nulle dans certain cas. Puis on considère 6 sortes de composants, la résistance, la capacité, la self, le transformateur, la diode, et la triode linéaire.
---- 12 octobre 2019 ----
Dans la matière, on considère que seuls les électrons libres créent les courants.
On modélise des conducteurs comme des guides électriques homogènes possédant une mobilité des charges `µ` et une densitée d'électron libre `n`.
Puis pour introduire les semi-conducteurs, on perfectionne le modèle en randant `µ` et `n` dépendant du champ électrique présent, mais toujours de façon à ce que le composant reste linéaire.
On considère des lampes radios comprenant trois types de composant, la cathode, la grille, et la plaque, de fonctionnement toujours linéaire.
On considèrera aussi plus simplement, des composants tripolaires linéaires données.
Les charges électriques opèrent un mouvement d'ensemble qui se traduit par un champ de courant électrique et par un champ de potentiel électrique. Et si le modèle n'obéït qu'à ces lois alors il est forcement linéaire.
---- 12 octobre 2019 ----
Un composant électronique avec 4 pôles est appelé un quadripôle. Et les pôles sont groupés comme suit : les pôles dans cet ordre `1` et `2` forment la porte d'entrée, et les pôles dans cet ordre `3` et `4` forment la porte de sortie.
La connexion entre deux composants nécessite au moins deux canaux conducteurs d'électricité pour pouvoir former un circuit, sinon il ne peut y avoir échange d'énergie, le circuit électrique devant être fermé. Et il ne peut y avoir échange d'information s'il n'y a pas un échange d'énergie. La transmission d'un bit d'information nécessite la transmission d'une quantité d'énergie nécessairement non nulle. (Par ailleurs la mécanique quantique fait que cet énergie ne peut pas être arbitrairement faible, car cela entraine une incertitude sur l'énergie nécessairement aussi faible, et selon le principe d'incertitude de Heisenberg, cela entraine alors une incertitude sur le temps de transmission arbitrairement grande.)
---- 2 octobre 2019 ----
On décide arbitrairement d'un sens de la connection, en attribuant une qualité de sortie à un couple de pôles d'un composants multipolaire, et en attribuant une qualité d'entrée à un couple de pôles d'un autre composant. Et on dit qu'une sortie du premier composant est raccordée à une entré du second composant. Une entré ou une sortie d'un composant sont deux pôles, quelconques du composant.
La connection entre deux composants utilise deux fils conducteurs. L'information est transmise d'un composant à l'autre par un signal électrique. La valeur de ce signal électrique, à un instant `t`, est la différence de potentiel ou tension électrique entre les deux pôles de sortie, à l' instant `t`. Ce signale parcours le guide constitué des `2` fils conducteurs, et dans le cas non relativiste, on considère qu'il parcours le guide de façon instantané en occasionnant le cas échéant un déphasage.
Si les fréquences utilisées sont d'une longueur d'onde d'un ordre largement supérieur à la longueur des fils conducteurs alors le signal n'est pas déphasé le long du guide et reste le même.
Pour déterminer le signe du signal, on numérote les deux pôles de sortie `1` et `2`, et également les deux pôle d'entrée `1` et `2`, et on adopte la convention suivante : Le signal est égale au potentiel électrique du pôle n°`2` moins le potentiel electrique du pôle n°`1`.
Il y a deux montages possibles ; un montage droit, et un montage inversé.
Le montage inversé va opérer sur le signal transmis, un changement de signe, qui correspond à un déphasage d'un demi-tours sur toutes les fréquences :
Par abus de langage, on identifie le signal au circuit qui le crée, en sachant que toute connexion va modifier ce circuit et donc modifier ce signal. On appel signal d'entré, la tension (ou différence de potentiel) entre le pôle n°`2` et le pôle n°`1` de l'entré du composant, et signal de sortie, la différence de potentiel entre le pôle n°`2` et le pôle n°`1` de la sortie du composant.
Prenons un circuit, dénomé composant `X`, et choisissons arbitrairement une entré et une sortie, soit `4` pôles non nécessairement distincts. Nous pouvons délors parler sans ambiguité du signal d'entrée `U` et du signal de sortie `V` du composant `X`.
Néanmoins cette distinction est purement formelle, et le circuit est un graphe plus général sur lequel s'applique les lois de Kirchhoff, loi de conservation de l'énergie et loi de conservation de la charge électrique.
Un signal est une fonction réel du temps. Le signal se décompose en une sommes de signaux sinusoïdaux. Cette décomposition est-elle de pure forme ou dévoile-t-elle la structure profonde du signal électromagnétique ? :
Une réelle division aboutie aux quantas d'énergie du signal caractérisés chacun par une fréquence `1"/"T`, une énergie `h"/"T`, et une relation d'incertitude fréquence-énergie `DeltaE DeltaT⩾h"/"(4pi)`. Et où `h` est la constante de Plank.
Période `T` Fréquence `1"/"T` Energie `h"/"T` Relation d'incertitude `DeltaE DeltaT⩾h"/"(4pi)` Constante de Plank `h = 6.626 070 04 × 10^-34 J s^-1`
De l'infinitude, nous rencontrons la même difficulté que pour l'étude des probabilités. Et comme nous l'avons vu, Une méthode radicale pour contourner cette difficulté consiste à remplacer l'infini par un grand nombre. Dans l'électronique linéaire tout peut être vu de façon périodique. C'est ainsi que l'on considère un nombre arbitrairement grand, une méga période `T`, qui n'est utilisé ici que pour démontrer le modèle.
Un signal périodique quelconque `S`, de période `T`, se décompose en une somme infinie de ses harmoniques entiers `0, 1, 2, 3, 4,...` appelée série des harmoniques ou série de Fourier du célèbre mathématicien français Joseph Fourier (Auxerre 1768 - Paris 1830). Chaque harmonique est un signal sinusoïdal. L'harmonique `0` correspond à la composante continue de fréquence nulle. L'harmonique `n>0` correspond à la composante de fréquence `n"/"T`.
`S(t)=a_0 + sum_(n=1)^(n=oo) a_n sin(n/T + varphi_n )`
Valeur Définition Domaine `S(t)`Valeur du signal à l'instant `t`, exprimée en voltes. `S(t)"∈"RR` `t`Temps exprimé en secondes. `t"∈"RR` `a_0`Composante continue du signal, c'est l'harmonique `0`. `a_0"∈"RR` `n/T`Fréquence de l'harmonique `n` exprimée en hertz (tours par seconde). `n"∈"NN"*"` `a_n`Amplitude de l'harmonique `n` exprimée en voltes. `a_n"∈"RR^"+"` `varphi_n`Phase de l'harmonique `n` exprimée en tours. `varphi_n"∈"[0,1[`
Et par soucis d'alléger l'écriture, afin d'éviter d'écrire des `2pi` partout, on utilise un sinus qui opère par convention sur des tours et non sur des radians. Autrement dit :
`sin(x) = sin_"tour"(x) = sin_"radian"(2pix) = 2pix-(2pix)^3/(3!) +(2pix)^5/(5!) + O(x^7)`
De même, on utilisera un nombre `xi = e^(2pi)` comme base exponentielle :
`xi^x = 2pix + (2pix)^2/(2!) + (2pix)^3/(3!) + O(x^4)`
La somme infinie des harmoniques est en faite tronquée car il ne peut pas y avoir de fréquence arbitrairement grande dans un système physique. Qui dit fréquene infinice, dit énergie infinie. On pose donc une borne de fréquence `N"/"T` qui nous assure qu'aucune fréquence supérieur n'existe dans le système.
Donc un signal périodique quelconque `S`, de période `T`, se décompose en une somme finie de ses harmoniques entiers `0, 1, 2, ..., N` appelée série des harmoniques :
`S(t)=a_0 + sum_(n=1)^(n=N) a_n sin(n/T + varphi_n )`
Avant d'aller plus loin, il convient d'étudier ce qu'est un signal sinusoïdal.
Si vous ajouter plusieurs signaux sinusoïdaux de même fréquence vous obtiendrait encore un signal sinusoïdal de même fréquence. Car une nouvelle fréquence ne peut pas se créé ex nihilo dans un processus linéaire.
Un signal sinusoïdal `S` possède trois paramètres que sont sa fréquence `w`, son amplitude `a` et sa phase `varphi`, ce qui permet à chaque instant `t` de calculer sa phase instantanée qui, exprimée en tours, est un nombre compris entre `0` et `1`.
`wt"+"varphi` modulo `1`
C'est pourquoi il est judicieux de représenter le signal sinusoïdal par un couple `(w,[a,varphi])` composé d'un nombre réel positif `w` désignant sa fréquence et d'un nombre complexe en représentation polaire `[a,varphi]` désignant son amplitude `a` et sa phase `varphi` exprimée en tours.
`[a,varphi]=a e^(2pi varphi)`
`[a,varphi]=a xi^(i varphi)`
Le signal est défini par :
`S(t)=asin(wt + varphi)`
L'ajout de deux signaux sinusoïdaux de même fréquence produit un signal sinusoïdal de même fréquence, mais l'amplitude et la phase reste complexe à déterminer.
`a_1sin(wt+varphi_1) + a_2sin(wt+varphi_2) = a_3sin(wt+varphi_3)`
Le résultat de ce calcul est assez surprenant, il se résume en l'ajout de deux nombres complexes :
`[a_1,varphi_1] + [a_2,varphi_2] = [a_3,varphi_3] `
`a_1 xi^(i varphi_1) + a_2xi^(i varphi_2) = a_3xi^(i varphi_3) `
La dérivée du signal se note conventionellement avec un point au dessus :
`dot S(t) = d/(dt)S(t)`
`dot S(t) = wa cos(wt"+"varphi) `
`dot S(t) = w a sin(wt"+"varphi"+"1/4) `
`dot S(t) = w S(t"+"1/4)`
Donc, dériver un signal sinusoïdal consiste à ajouter `1"/"4` de tour à la phase et à multiplier l'amplitude par la fréquence.
Etant donné un signal `S` périodique, de période `T`. Le signal `S` se développe en une série de fonctions harmoniques :
`S(t)= a_0/2+sum_(n=1)^(n=oo)(a_ncos(n/T t)+b_n sin(n/T t))`
`a_n = 2/T oint S(t)cos(n/T t)dt`
`b_n = 2/T oint S(t)sin(n/T t)dt`
L'intégrale est notée avec un cercle pour signifier que l'intégrale intégre sur une période `T` c'est à dire de `t"="c` à `t"="c"+"T` pour n'importe quel valeur de `c`.
Le signal `S` se développe en une série de fonctions harmoniques complexes comme suit :
`S(t)= sum_(n=-oo)^(n=+oo) c_n xi^(i n/T t)`
`c_n = 1/T oint S(t)xi^(- i n/T t)dt`
Et nous avons :
`a_n =c_n +c_-n`
`b_n = i(c_n - c_-n)`
`c_n = (a_n-ib_n)"/"2`
`c_-n = (a_n+ib_n)"/"2`
`a_n cos(n/T t)+b_n sin(n/T t) = A_n sin(n/T t +varphi_n)`
`a_n sin(n/T t + 1/4)+b_n sin(n/T t) = A_n sin(n/T t +varphi_n)`
`[a_n, 1"/"4] + [b_n, 0] = [A_n,varphi_n]``[A_n,varphi_n] = [a_n, 1"/"4] + [b_n, 0]`
`A_n cos(varphi_n) + i A_n sin(varphi_n) = a_n cos(1"/"4) + i a_n sin(1"/"4) + b_n`
`A_n cos(varphi_n) + i A_n sin(varphi_n) = b_n + i a_n`
`A_n norm (cos(varphi_n) + i A_n sin(varphi_n)) = norm(b_n + i a_n)``A_n = norm(b_n + i a_n)`
`A_n = sqrt(b_n^2 + a_n^2)`
`sin(varphi_n) = a_n/sqrt(b_n^2 + a_n^2)`
`cos(varphi_n) = b_n/sqrt(b_n^2 + a_n^2)`
`S(t)= a_0/2+sum_(n=1)^(n=oo) A_n sin(n/T t + varphi_n)`
---- 2 Mars 2018 ----
Néanmoins la structure du plan complexe `CC` offre une plus grande richesse mathématique et le signal se prolonge dans un signal complexe en en constituant sa partie imaginaire, et où la partie réel correspond à la dérivé du signal.
Le signal complexe corrspondant est définie par :
`Z(t)=[a,wt"+"varphi]`
`Z(t) = ae^(i2pi(wt+varphi))`
`Z(t) = acos(wt+varphi) + i asin(wt+varphi)`
`Z(t) = dot S(t) + i (S(t))/w`
Vous remarquerez que cette expression se développe en un produit, le produit d'un signal normé de fréquence `w` par un complexe représentant l'amplitude et la phase `[a,varphi]` :
`Z(t) = [1,wt][a,varphi]`
`Z(t) = (e^(i2piwt)) (ae^(i2pi varphi))`
Les signaux sont des vecteurs d'un espace vectoriel de dimension infini appellé espace de Hilbert, qui porte le nom du célèbre mathématicien allemand David Hilbert (1862-1943). Cet espace de fonctions est munis d'un produit scalaire. Le produit scalaire de deux signaux `U` et `V` est définie par :
`U"⋅"V = oint U(t)V(t)dt`
L'intégrale est notée avec un cercle pour signifier que l'intégrale intégre, soit sur une période `T` dans le cas de signaux périodiques de période `T` c'est à dire de `t=c` à `t=c"+"T` pour n'importe quel valeur de `c`, ou au passage à la limite lorsque `T` tend vers `oo`, sur tout l'axe des temps c'est à dire de `t= "-"oo` à `t= "+"oo`,
On note `(:i=j:)` pour désigner l'entier `0` lorsque `i"≠"j` et l'entier `1` lorsque `i=j`.
Dans cet espace vectoriel de fonctions, une suites de fonctions `f_1, f_2, f_3,...` constitue une base orthonormée si et seulement si nous avons :
`AA(i,j)"∈"NN, f_i"⋅"f_j = (:i"="j:)`
Le signal peut se décomposer en une sommes de signaux sinusoïdaux de fréquence entière, c'est à dire en une série de Fourrier.
----- 1 mars 2018 -----
Un signal sinusoïdal `X` est caractérisé par trois réels, `w, a, p`, que sont la fréquence `w"⩾"0`, l'amplitude `a"⩾"0` et la phase `p"∈"]"-"1"/"2,1"/"2]`:
`X(t) = asin(2pi(wt + p))`
Valeur Définition `X(t)`Valeur du signal à l'instant `t`, exprimée en voltes. `t`Temps exprimé en secondes. `w`Fréquence du signal exprimé en hertz (tours par seconde). `a`Amplitude exprimée en voltes (valeur maximal du signal). `p`Phase exprimée en tours.
Le facteur `2pi`est placé dans la fonction sinus afin d'exprimer la fréqence `w` en hertz (tours par seconde), le temps `t` en secondes, et la phases `p` en tours. Le signal possède une unité selon sa nature, le plus souvent il sagira d'un signal électrique exprimé en voltes. La période exprimée en seconde s'obtient en prenant l'inverse de la fréquence exprimée en hertz.
Les nombres complexes constitue une structure plus riche dans laquel la définition du signal sinusoïdal peut se déployer et exploiter des propriétés remarquables. Le signal réel `X(t)` se plonge dans un signal complexe `Z(t) = X(t)+iY(t)` comme étant sa partie réel.
----- 1 Mars 2018 -----
X(t) = Re( a*e2*PI*I*(w*t+p) ) Potentiel électrique.
Y(t) = Im( a*e2*PI*I*(w*t+p) ) = I*d(X(t))/dt Courant de déplacement imaginaire.
Z(t) = X(t) + Y(t)
On sépare dans l'expression complexe du signal, un paramètre complexe constant, et un signal étalon Sw(t) de fréquence w, d'amplitude 1 et de phase nulle :
Z(t) = a*e2*PI*I*(w*t+p)
Z(t) = a * e2*PI*I*p * e2*PI*I*w*t
Z(t) = a * e2*PI*I*p * Sw(t)
Et en adoptant la notation polaire [a,p] des nombres complexes de norme a et de phase p, exprimé en tours, nous obtenons :
Z(t) = [a,p] * Sw(t)
Tout signal sinusoïdal est ainsi caractèrisé par une fréquence w et une amplitude complex [a,p].
1.1.3 Le point de fonctionnement
On appel point de fonctionnement, noté (U,V), la valeur du signal d'entré U et du signal de sortie V lorsque aucun élément extérieur n'est connecté. Souvent les relations affines sont exprimées par rapport au point de fonctionnement.
Le signal d'entré est imposé en le connectant à une sortie d'impédance beaucoup plus faible d'un circuit générant le signal désiré. Lorsque on impose un signal d'entré égale à U + U1, on dit que l'on ajoute au signal d'entré U de fonctionement, la composante U1.
1.1.4 La linéarité
La linéarité se caractérise comme suit : Etant donné le point de fonctionnement (U,V), quelque soit des signaux sinusoïdaux U1, U2 et un facteur multiplicatif k, nous avons les trois propriétés suivantes:
Cela est equivalent à la définition du gain d'un composant.
1.1.5 La définition du gain
Lorsque l'on ajoute au signal de fonctionnement U de l'entré du composant, un signal de fréquence w et d'amplitude complexe [a1, p1], le signal de sortie V est modifié par l'ajout d'un signal de fréquence w et d'amplitude complexe [a2, p2] tel que :
[a2, p2] = [A, P]*[a1, p1] = [A* a1, P + p1]
Complexe Définition [a1, p1]Amplitude complexe du signale sinusuïdal de fréquence w, s'ajoutant au signal entré du composant. [A, P]Gain du composant pour la fréquence w. [a2, p2]Amplitude complexe du signale sinusuïdal de fréquence w, s'ajoutant au signal de sortie du composant.
Du fait de la linéarité vue précédement, le gain g = [A,P] ne dépend que de la fréquence w. Il existe un gain différent pour chaque fréquence. L'ensemble de ces gains est appelé fonction de gain et est noté g(w).
1.1.6 La relation affine
Supposons que le signal d'entré soit A, et le signal de sortie soit B. Il s'agit d'un point de fonctionnement (A,B), et si le composant n'est connecté à aucun autre, il s'agit du point de fonctionnement à vide ou par défaut. Supposons de plus que ce point de fonctionnement soit dans le domaine de linéarité. C'est à dire que le circuit est linéaire pour les signaux mis en jeux présentement. Si ce n'était pas le cas on ajouterait un signal pour déplacer le point de fonctionnement dans un domaine de linéarité, comme suivant :
Lorsque nous disons que l'on ajoute un signal S au signal d'entré A, cela signifie que l'on connecte sur l'entré du composant, la sortie d'un autre composant indépendant qui va déplacer le point de fonctionnement de notre composant, et que la mesure du signal d'entré sera bien égale à A + S . Mais sachez déja que le signal généré par ce composant correcteur, lorsque celui-ci n'est pas connecté, est différent de S. En final, on intègre ce composant correcteur dans le circuit initiale de notre composant, et on obtient un nouveau composant avec un point de fonctionement à vide se situant dans le domaine de linéarité.
Un signal A est une fonction qui appliqué au temps t, exprimé en secondes, donne une valeur du signal exprimée en voltes. Le signal d'entré est une fonction A. Le signal de sortie est une autre fonction B :
La fonction qui transforme le signal d'entré A en le signal de sortie B est appelé fonction de transfère. C'est une fonction de fonction, F, qui appliqué à un signal quelconque S, donne un autre signal F(S). F ne dépend pas du temps : F(A) = B. Et nous pouvons écrire F(A)(t) qui désigne la valeur du signal de sortie à l'instant t, si le signale d'entré est A, et qui est la valeur du signal B à l'instant t.
Donc à chaque quadruplet de pôles, 2 pôles pour l'entré et 2 pôles pour la sortie, correspond une fonction de fonction, dite fonction de transfère F.
Pour être plus précis, la fonction de transfère n'est pas linéaire au sense stricte mais affine, c'est à dire qu'elle procède préalablement par une translation dans l'espace des signaux, comme vous l'aurait remarqué dans la description faite de la manifestation de la linéarité. Et pour définir cette translation, nous ne choisissons pas nécessairement comme signal de départ le signal identiquement nulle, car ce signal d'entré n'est pas toujours dans le domaine de linéarité. Nous définissons le plus souvent cette translation à partir du point de fonctionnement à vide, C'est à dire à partir d'un signal, A, dans le domaine de linéarité, qui existe par defaut lorsque rien n'est connecté au composant ni sur l'entré ni sur la sortie.
Une translation est apriorie indépendante de son point de départ, mais lorsque la linéarité ne sera que approchée et non plus exacte, cette translation sera approchée également et deviendra dépendante de sa position initiale. La translation est caractérisée par deux signaux (A, B) tel que F(A)=B et qui correspond au point de fonctionnement à vide. La partie strictement linéaire de la fonction de transfère F, est noté f. La fonction de transfère f est entièrement déterminé par la fonction de gain ( w-->g(w) ). La fonction de transfère F est entièrement déterminé par le point de fonctionnement (A,B) et par la fonction de gain ( w-->g(w) ).
Quelques soit deux signaux sinusoïdaux U1, U2 et un réel k. Les signaux sinusoïdaux se mettent sous la forme :
U1(t) = [a1,p1]*Sw1(t) = z1* Sw1(t)
U2(t) = [a2,p2]*Sw2(t) = z2* Sw2(t)
où a1 correspond à l'amplitude et p1 la phase et w1 la fréquence du signaux U1, et de même pour le signaux U2. On simplifie l'écriture en opérant directement sur les signaux et fonctions du temps :
U1 = z1* Sw1
U2 = z2* Sw2
La partie linéaire de la fonction de transfère, noté f , appliqué à un signale sinusoïdale
f(U1) = g(w1)*z1*Sw1
f(U2) = g(w2)*z2*Sw2
Les trois propriétés de linéarité de la fonction de transfert sont présentés dans ce tableau. Quelque soit les complex z1, z2, les réels positifs w1, w2, et le réel k, nous avons :
Signal d'entré
|
Signal d'entré développé |
Signal de sortie
|
Signal de sortie développé |
A |
A |
B |
B |
A + U1 |
A + z1*Sw1 |
B + f(U1) |
B + g(w1)*z1*Sw1 |
A + k*U1 |
A + k*z1*Sw1 |
B + k*f(U1) |
B + g(w1)*k*z1*Sw1 |
A + U1 + U2 |
A + z1*Sw1+ z2*Sw2 |
B + f(U1) + f(U2) |
B + g(w1)*k*z1*Sw1+ g(w2)*k*z2*Sw2 |
Lorsque le signal X et une somme discrète de signaux sinusoïdaux tel que :
X = z1*Sw1 + z2*Sw2 + z3*Sw3 + ....
f(X) = g(w1)*a1*Sw1 + g(w2)*a2*Sw2 + g(w3)*a3*Sw3 + ....
Il s'en suit que l'on peut compléter le tableau par :
Signal d'entré
|
Signal d'entré développé |
Signal de sortie
|
Signal de sortie développé |
A - A |
0 |
B - f(A) |
B - g(w1)*a1*Sw1- g(w2)*a2*Sw2 - g(w3)*a3*Sw3+ .... |
A - A + X |
z1*Sw1+ z2*Sw2+ z3*Sw3+ .... |
B - f(A) + f(X) |
B - g(w1)*a1*Sw1- g(w2)*a2*Sw2 - g(w3)*a3*Sw3+ .... + g(w1)*z1*Sw1+ g(o2)*z2*Sw2 + g(o3)*z3*Sw3+ .... |
Quelque soit un signal S, nous avons :
F(A + S) = B + f(S)
et f est linéaire, c'est à dire pour tous signal U1,U2 et tout réels k1, k2 nous avons
f(k1*U1 + k2*U2) = k1*f(U1) + k2*f(U2).
Quelque soit un signal X, nous avons :
F(X) = B - f(A) + f(X).
Le vecteur de translation est :
V0 = B - f(A).
La fonction de transfère est définie par les trois valeurs (A, V0, f) où (A,B, f) selon les goûts. A désigne le signal d'entré à vide. V0 = A-f(B) désigne la translation. Et f désigne la partie linéaire de la fonction de transfère. Pour tous signal X on a
F(X) = V0 + f(X).
La linéarité va nous permettre de simplifier le problème en le ramenant au cas particulier de signaux sinusoïdaux pures. Tous signaux est une somme de signaux sinusoïdaux pures. Un tel signal sinusoïdal est caractérisé complètement par sa fréquence, par son amplitude et sa phase, ces deux dernières valeurs étant regroupées en une valeur complexe dont la norme correspond à l'amplitude et l'argument correspond à la phase.
Fresnel a découvert comment représenter un signal sinusoïdale par un nombre complexe, appelé vecteur de fresnels. Et Fourrier a montrer que tous signaux se décomposaient en une somme unique de signaux sinusoïdaux. Voila pourquoi l'étude de la linéarité passe par une première étape que constitue l'étude des nombres complexes.
Appliqué à un signal électrique sinusoïdale, z1=p1*Rq1 représente le signal d'entré, z2=p2*Rq2 représente le gain d'un circuit, et z3 = z1*z2 = (p1*p2)*R(q1+q2) représente le signal de sortie. Mais dans le cas générale il y a une composante affine, une translation supplémentaire z0, et le signal de sortie vaut z3 = z0 + z1*z2, et si le point de foncionnement (0,z0) n'est pas dans le domaine de linéarité, alors on choisit une autre origine A et B = (z0 + A*z2). Le signal de sortie est alors z3 = B + (z1-A)*z2
Conjugué...
f( U + [a1, p1] * S(t) ) = V + [a2, p2] * S(t)
2.3. Le spectre du signal (transformée de Fourier)
Du fait de la linéarité, on peut décomposer le signal en une sommes de signaux sinusoïdaux pures. On obtient le spectre du signal. C'est une fonction qui donne pour chaque fréquence, une valeur complexe dont la norme correspond à l'amplitude et l'argument correspond à la phase.
Le terme de spectre provient de l'optique, où les différentes fréquences pures contenues dans la lumière blanche sont séparées par l'intermediaire d'un prisme en une image oblongue et évanescente reproduisant les couleurs de l'arc-en-ciel. Si on analyse finement le spectre d'une lumière, on remarquera la présences de raies claires et de raies sombres qui correspondent aux fréquences d'émission et d'absorbtion des atomes.
Pour chaque fréquence w, le rapport du signale de sortie sur le signale d'entré est appelé gain. On obtient le spectre de gain. C'est une fonction qui donne le gain pour chaque fréquence w. Le gain est une valeur complexe, sa norme correspond à l'augmentation d'amplitude et son argument correspond au déphasage.
Le spectre du signal entrant se combine avec les différents spectres de gain qu'il traverse pour donner le spectre du signal sortant. Il s'agit d'un calcul parallèle identique pour toutes les fréquences. Aussi nous faisons le calcul pour une fréquence particulière w, sachant que pour obtenir le résultat final il faudra sommer les résultats pour chaque fréquences distinctes, c'est à dire reconstituer le signal à partir de son spectre.
2.5 La sommation discrète ou continue.
Dans la réalité physique il n'existe probablement pas de signaux sinusoïdaux pure. Cela signifie que les valeurs de tels signaux sont nulles, ou plus exactement, sont infiniment petit, et que la sommation n'est pas discrète mais continue, c'est à dire couvre un nombre infiniment grand de valeurs qui sont toutes des éléments différentiels infiniment petit. Mais en l'état de nos hypothèses, nous pouvons sans problème continuer à supposer des sommations discrètes.
2.6 La loi d'Ohm (U = Z*I) et la loi de Kirschoff (I1+I2+I3 = 0) en notation complexe
Les lois d'Ohm et de Kirshoff sont transcrites en notation complexe pour décrire les courants sinusoïdaux pure. Elles nous permettent de calculer le comportement des circuits, de calculer les gains. On applique la loi d'ohm à tous les circuits fermée (à toutes les boucles), et on applique la loi de Kirshoff à tous les noeuds.
Un signal électrique U0 possède une impédance Z0. Cette donnée que l'on ne perçois pas immédiatement, caractérise le générateur qui produit le signal U0. L'impédance est une valeur complexe, sa norme correspond à la résistance du générateur, et son argument correspond au déphasage.
Pour un signal de sortie, l'impédance correspond à sa faiblesse, à sa propention à être réduit. Plus son impédance sera haute, plus il sera facilement annulé par un court-circuit. Plus l'impédance sera basse, au contraire plus il sera fort et se maintiendra face au court-circuit.
C'est parce que l'on identifie le signal de sortie au circuit qui le produit, que l'on parle d'impédance du signal. En toute rigueur on parlera d'impédance entre deux points d'un circuit, et ceci indépendament du fait que cela soit une entré ou une sortie.
Lorsque l'on applique un signal d'entré U0 d'impédance Z0 sur un composant d'impédance Z1, la loi d'Ohm nous permet de calculer précisement l'alteration du signal. Voici la construction shématique :
Le générateur U0 désigné par un cercle, produit le signale U0 avec une impédance nulle. Puis mis en serie avec un composant d'impédance Z0, il forme un générateur produisant le signal U0 d' impédance Z0.
Le signal U0 d'impédance Z0 est altéré lorsque on le connecte au composant d'impédance Z1 comme sur le shéma. En appliquant la loi d'Ohm (où I désigne l'intensité du circuit) : Z0*I + Z1*I = U0, on montre facilement que le signal résultant aux bornes de Z1 est égale à U1 = U0*Z1/(Z0+Z1) et qu'il possède une impédance égale à Z0*Z1/(Z0+Z1). Les deux shémas suivant sont donc équivalent :
2.7 La puissance ( P = Reel(U*conjugué(I))/2 )
La puissance dépensé est égale à la demie partie réel du produit de la tension avec le conjugué de l'intensité. La puissance réactive qui représente la puissance d'emmagasinement interne et de réstitution de l'énergie, est égale à la demie partie imaginaire du produit de la tension avec le conjugué de l'intensité.
...expliquer la théorie de l'énergie
Pour que le transfère d'énergie soit optimum lors d'une connection, il faut que les deux impédances de sortie et d'entré soient égales en norme.
...à revoir
2.8 La transduction
Nous entendons par appareil transducteur, un appareil qui transfome, par exemple, un signal électrique en un signal sonore, tel qu'un haut-parleur. La nature du signale change. Et qu'est-ce qui est commun aux deux signaux électrique et sonore, et qui est transmi à travers l'appareil transducteur ? C'est l'énergie. En effet l'energie est commune à tous les signaux. C'est pourquoi nous allons calculer la puissance, la quantité d'énergie transmise par unité de temps.
L'appareil transducteur oppose au signal sinusoïdal U0 et d'impédance Z0, une résistance Z1. La loi d'Ohm en notation complexe permet de déterminer l'intensité I qui traverse Z1 : I = U0/(Z0+Z1), ainsi que le signal altéré aux borne de Z1 qui est égale à U1 = Z1*I = U0*Z1/(Z0+Z1). La puissance consommée dans l'appareil transducteur est :
P = Reel( U1*conjugué(I) ) / 2
P = ( Z1*I*conjugué(I) + conjugué(Z1*I)*I ) / 4
P = ( Z1*I*conjugué(I) + conjugué(Z1)*conjugué(I)*I ) /
4
P = ( I*conjugué(I)*(Z1 + conjugué(Z1) ) / 4
P = Norme(I)^2 * Reel( Z1) / 2
P = Norme(U0/(Z0+Z1))^2 * Reel( Z1) ) / 2
P = Norme(U0)^2 / Norm(Z0+Z1)^2 * Reel( Z1)/2
La puissance P est donc proportionelle à Norme(U0)^2. Autrement dit, la puissance consommée est proportionnelle au carré de l'amplitude du signal U0 (mais pour chaque fréquence le facteur de proportionnalité diffère). Lorsque l'appareil transducteur est de bonne qualité, que le rendement est bon et est constant, un pourcentage constant de la puissance consommée est restitué sous la forme voulue, ici en puissance sonore, nous pouvons dire lorsque toutes ces conditions sont remplies, que la puissance sonore produite est proportionnelle au carré du signal d'entré.
2.9 Le signal sonore
Le signal sonore est une pression exprimé en Pascal. La linéarité est toujours présentes, et on peut décomposer tout son comme une somme de sons sinusoïdaux purs. Toutes les règles précédentes s'appliquent, seul les unités ont changées, passant du potentiel électrique exprimé en voltes à la pression exprimée en Pascals, passant de l'intensité électrique exprimée en Ampères (Coulomb/s) au débit exprimé en Kg/s.
A.Kolmogorov, S. Fomine, "Elements de la théorie des fonctions et de l'analyse fonctionnelle" Moscou 1977