Transformation de Laplace

En mathématiques, la transformation de Laplace est une transformation intégrale qui, à une fonction f — définie sur les réels positifs et à valeurs réelles —, associe une nouvelle fonction F — définie sur les complexes et à valeurs complexes — dite transformée de Laplace de f.

L'intérêt de la transformation de Laplace vient de la conjonction des deux faits suivants :

  1. De nombreuses opérations courantes sur la fonction originale f se traduisent par une opération algébrique sur la transformée F. Par exemple, la transformée de la dérivée f ′ {\displaystyle f'} est la fonction p ↦ p F ( p ) − f ( 0 ) . {\displaystyle p\mapsto p\,F(p)-f(0).} De même, la transformée de t ↦ f ( t − τ ) {\displaystyle t\mapsto f(t-\tau )} est la fonction p ↦ e − p τ F ( p ) {\displaystyle p\mapsto e^{-p\tau }F(p)}  ;
  2. Bien que n'étant pas à proprement parler injective, la transformation de Laplace est inversible — au sens qu'il est possible de retrouver (à un ensemble de mesure nulle près) la fonction originale f à partir de sa transformée F.

Ces deux points font de la transformée de Laplace un outil utile à la résolution d'équations différentielles : la méthode consiste à (1) transformer une équation différentielle sur la fonction f en une équation algébrique sur sa transformée F; (2) résoudre cette équation algébrique pour déterminer F; et (3) en déduire f par transformation de Laplace inverse. Dans ce type d'analyse, la transformation de Laplace est souvent interprétée comme un passage du domaine temporel (dans lequel les entrées et sorties sont des fonctions de la variable t représentant le temps) au domaine fréquentiel (la variable p = A e i θ {\displaystyle p=Ae^{i\theta }} pouvant s'interpréter comme une « fréquence complexe » d'amplitude | p | = A {\displaystyle |p|=A} et de phase a r g ( p ) = θ {\displaystyle \mathrm {arg} (p)=\theta } ).

La transformation de Laplace généralise la transformation de Fourier, également utilisée pour résoudre les équations différentielles. Contrairement à cette dernière, elle tient compte des conditions initiales et peut ainsi être utilisée en théorie des vibrations mécaniques ou en électricité dans l'étude des régimes forcés sans négliger le régime transitoire. Elle converge pour toutes les fonctions qui, pondérées par une exponentielle, admettent une transformée de Fourier ; par conséquent, les fonctions admettant une transformée de Fourier admettent toutes une transformée de Laplace, mais la réciproque n'est pas vraie. De manière générale, ses propriétés vis-à-vis de la dérivation permettent un traitement plus simple de certaines équations différentielles, et elle est de ce fait très utilisée en automatique.

La transformation de Laplace est également utile en théorie des probabilités, où elle peut être utilisée à la place de la fonction caractéristique pour caractériser la loi d'une variable aléatoire réelle. Cela s'avère particulièrement utile dans l'étude des subordinateurs.

La transformation de Laplace doit son nom à Pierre-Simon de Laplace, qui utilisa une notion proche en 1774 dans le cadre de ses travaux sur la théorie des probabilités.

Définition

En mathématiques et en particulier en analyse fonctionnelle, la transformée de Laplace monolatérale d'une fonction ƒ (éventuellement généralisée, telle que la « fonction de Dirac ») d'une variable réelle t, à support positif, est la fonction F de la variable complexe p, définie par :

F ( p ) = L { f } ( p ) = ∫ 0 − + ∞ e − p t f ( t ) d t . {\displaystyle \mathrm {F} (p)={\mathcal {L}}\{f\}(p)=\int _{0^{-}}^{+\infty }{\rm {e}}^{-pt}f(t)\,\mathrm {d} t.}

Plus précisément, cette formule est valide lorsque :

  1. Re(p) > α, où α est l'abscisse de convergence (définie plus bas), –∞ ≤ α ≤ +∞ ;
  2. et ƒ est une fonction localement intégrable à support positif, c'est-à-dire nulle en dehors de l'intervalle I = .

C'est un tel germe appelé ici, par abus de langage, une fonction généralisée à support positif, et la transformation de Laplace est injective appliquée à ces fonctions généralisées.

L'abscisse de convergence α se définit comme suit :

soit, pour un réel β, f β : t ↦ e − β t f ( t ) {\displaystyle f_{\beta }:t\mapsto {\rm {e}}^{-\beta t}f\left(t\right)} . Alors α est la borne inférieure dans R ¯ {\displaystyle {\overline {\mathbb {R} }}} de l'ensemble B des β pour lesquels ƒβ est une distribution tempérée (donc α = +∞ si B est vide).

La « fonction de Dirac » est de cette nature. Sa transformée de Laplace vaut 1 avec une abscisse de convergence de –∞.

Les propriétés de cette transformation lui confèrent une grande utilité dans l'analyse des systèmes dynamiques linéaires. La plus intéressante de ces propriétés est que l'intégration et la dérivation sont transformées en division et multiplication par p, de la même manière que le logarithme transforme la multiplication en addition. Elle permet ainsi de ramener la résolution des équations différentielles linéaires à coefficients constants à la résolution d'équations affines (dont les solutions sont des fonctions rationnelles de p).

Article détaillé : Application de la transformée de Laplace aux équations différentielles.

La transformation de Laplace est très utilisée par les ingénieurs pour résoudre des équations différentielles et déterminer la fonction de transfert d'un système linéaire. Par exemple, en électronique, contrairement à la décomposition de Fourier qui est utilisée pour la détermination du spectre d'un signal périodique ou même quelconque, elle tient compte de l'existence d'un régime transitoire précédant le régime permanent (exemple : la prise en compte de l'allure du signal avant et après la mise en marche d'un générateur de fréquence).

Il suffit en effet de transposer l'équation différentielle dans le domaine de Laplace pour obtenir une équation beaucoup plus simple à manipuler.

Par exemple, lors de l'étude d'une machine à courant continu :

e ( t ) = R ⋅ i ( t ) + L d i ( t ) d t {\displaystyle e(t)=\mathrm {R} \cdot i(t)+\mathrm {L} {\frac {\mathrm {d} i(t)}{\mathrm {d} t}}}

dans le domaine fréquentiel devient

E ( p ) = R ⋅ I ( p ) + p ⋅ L ⋅ I ( p ) {\displaystyle \mathrm {E} (p)=\mathrm {R} \cdot \mathrm {I} (p)+p\cdot \mathrm {L} \cdot \mathrm {I} (p)}

dans le domaine de Laplace. Ceci n'est valable qu'à conditions initiales nulles : i(0) = 0.

On a utilisé ici des propriétés de la transformation de Laplace, explicitées ci-dessous.

Remarque : la notation « s » (variable de Laplace) est souvent utilisée dans les pays anglo-saxons alors que la notation « p » est utilisée notamment en France et en Allemagne.

On définit aussi, dans les mêmes conditions que ci-dessus, la transformation de Laplace-Carson par :

ϕ ( p ) = p ∫ 0 − + ∞ e − p t f ( t ) d t {\displaystyle \phi (p)=p\int _{0^{-}}^{+\infty }{\rm {e}}^{-pt}f(t)\,\mathrm {d} t}

qui permet d'associer à toute fonction d'une variable t ↦ f ( t ) {\displaystyle t\mapsto f(t)} une fonction image p ↦ ϕ ( p ) {\displaystyle p\mapsto \phi (p)} .

Cette transformation est utilisée par certains ingénieurs car :

Valeur initiale

Si F ( p ) {\displaystyle F(p)} a une abscisse de convergence finie et si la limite dans le domaine temporel existe, alors :

lim t → 0 + f ( t ) = lim p ∈ R , p → + ∞ p F ( p ) {\displaystyle \lim _{t\to 0^{+}}f(t)=\lim _{p\in \mathbb {R} ,p\to +\infty }p\mathrm {F} (p)} .

(On notera que c'est la seule propriété où un 0+ apparaît pour la variable t {\displaystyle t} .)

Démonstration

Soit l = lim t → 0 + f ( t ) {\displaystyle l=\lim \limits _{t\rightarrow 0^{+}}f\left(t\right)} . On a lim t → 0 + Υ ( t ) = 1 {\displaystyle \lim _{t\to 0^{+}}\Upsilon (t)=1}  ; la transformée de Laplace de Υ {\displaystyle \Upsilon } est 1 p {\displaystyle {\frac {1}{p}}} , et lim p ∈ R , p → + ∞ p 1 p = 1 {\displaystyle \lim _{p\in \mathbb {R} ,p\to +\infty }p{\frac {1}{p}}=1} . En soustrayant l Υ ( t ) {\displaystyle l\Upsilon (t)} de f ( t ) {\displaystyle f(t)} , on est donc ramené au cas d'une fonction, de nouveau notée f, telle que lim t → 0 + f ( t ) = 0 {\displaystyle \lim \limits _{t\rightarrow 0^{+}}f\left(t\right)=0} .

Soit ε > 0 {\displaystyle \varepsilon >0} . Il existe par hypothèse η > 0 {\displaystyle \eta >0} tel que pour tout t tel que 0 < t < η {\displaystyle 0<t<\eta } , on a | f ( t ) | ≤ ε {\displaystyle \vert f(t)\vert \leq \varepsilon } . D'autre part,

p ∫ 0 + ∞ f ( t ) e − p t   d t = I 1 + I 2 {\displaystyle p\int _{0}^{+\infty }f(t){\rm {e}}^{-pt}~{\rm {d}}t=I_{1}+I_{2}}

avec

I 1 = p ∫ 0 η f ( t ) e − p t   d t ,   I 2 = p ∫ η + ∞ f ( t ) e − p t   d t . {\displaystyle I_{1}=p\int _{0}^{\eta }f(t){\rm {e}}^{-pt}~{\rm {d}}t,~I_{2}=p\int _{\eta }^{+\infty }f(t){\rm {e}}^{-pt}~{\rm {d}}t.}

Soit α {\displaystyle \alpha } un réel strictement supérieur à l'abscisse de convergence de F ( p ) {\displaystyle F(p)} et p ∈ R ,   p > α {\displaystyle p\in \mathbb {R} ,~p>\alpha } . On a

| I 2 | = | p ∫ η + ∞ f ( t ) e − ( p − α ) t e − α t   d t | ≤ p e − ( p − α ) η ∫ 0 + ∞ | f ( t ) | e − α t   d t {\displaystyle \left\vert I_{2}\right\vert =\left\vert p\int _{\eta }^{+\infty }f(t){\rm {e}}^{-\left(p-\alpha \right)t}{\rm {e}}^{-\alpha t}~{\rm {d}}t\right\vert \leq p{\rm {e}}^{-\left(p-\alpha \right)\eta }\int _{0}^{+\infty }\left\vert f\left(t\right)\right\vert {\rm {e}}^{-\alpha t}~{\rm {d}}t}

où l'intégrale de droite est convergente, donc I 2 → 0 {\displaystyle I_{2}\rightarrow 0} lorsque p → + ∞ {\displaystyle p\rightarrow +\infty } . Par conséquent, il existe un réel A > 0 {\displaystyle A>0} tel que | I 2 | ≤ ε {\displaystyle \left\vert I_{2}\right\vert \leq \varepsilon } dès que p ∈ R {\displaystyle p\in \mathbb {R} } et p > A {\displaystyle p>A} .

D'autre part,

| I 1 | ≤ p ε ∫ 0 η e − p t   d t = ε ( 1 − e − p η ) {\displaystyle \left\vert I_{1}\right\vert \leq p\varepsilon \int _{0}^{\eta }{\rm {e}}^{-pt}~{\rm {d}}t=\varepsilon \left(1-{\rm {e}}^{-p\eta }\right)}

et ce terme tend vers ε {\displaystyle \varepsilon } lorsque p → + ∞ {\displaystyle p\rightarrow +\infty } , donc il existe un réel B > 0 {\displaystyle B>0} tel que | I 1 | ≤ 2 ε {\displaystyle \left\vert I_{1}\right\vert \leq 2\varepsilon } dès que p ∈ R {\displaystyle p\in \mathbb {R} } et p > B {\displaystyle p>B} . Finalement, pour p ∈ R {\displaystyle p\in \mathbb {R} } et p > max ( A , B ) {\displaystyle p>\max(A,B)} on a

| p F ( p ) | ≤ 3 ε . {\displaystyle \left\vert pF\left(p\right)\right\vert \leq 3\varepsilon .}

Or, ε > 0 {\displaystyle \varepsilon >0} est arbitrairement petit, donc ce terme tend vers 0 lorsque p ∈ R {\displaystyle p\in \mathbb {R} } et p → + ∞ {\displaystyle p\rightarrow +\infty } .

Convolution

La transformation de Laplace change le produit de convolution en produit :

L { f ∗ g } = L { f } L { g } {\displaystyle {\mathcal {L}}\{f*g\}={\mathcal {L}}\{f\}{\mathcal {L}}\{g\}} .

Transformée de Laplace d'une fonction périodique

Si ƒ est une fonction nulle pour t < 0 et, pour t > 0, périodique de période T, alors pour R e ( p ) > 0 {\displaystyle Re\left(p\right)>0}

L { f } ( p ) = 1 1 − e − T p ∫ 0 T e − p t f ( t ) d t . {\displaystyle {\mathcal {L}}\{f\}(p)={\frac {1}{1-{\rm {e}}^{-Tp}}}\int _{0}^{T}{\rm {e}}^{-pt}f(t)\,\mathrm {d} t.} Démonstration

On utilise la relation de Chasles pour décomposer l'intégrale sur chaque période :

∫ 0 ∞ e − p t f ( t ) d t = ∫ 0 T e − p t f ( t ) d t + ∫ T 2 T e − p t f ( t ) d t + ∫ 2 T 3 T e − p t f ( t ) d t + … {\displaystyle \int _{0}^{\infty }{\rm {e}}^{-pt}f(t)\,\mathrm {d} t=\int _{0}^{T}{\rm {e}}^{-pt}f(t)\,\mathrm {d} t+\int _{T}^{2T}{\rm {e}}^{-pt}f(t)\,\mathrm {d} t+\int _{2T}^{3T}{\rm {e}}^{-pt}f(t)\,\mathrm {d} t+\ldots }

On fait un changement de variables pour ramener les intégrales sur

∫ 0 ∞ e − p t f ( t ) d t = ∫ 0 T e − p u f ( u ) d u + ∫ 0 T e − p ( u + T ) f ( u + T ) d u + ∫ 0 T e − p ( u + 2 T ) f ( u + 2 T ) d u + … {\displaystyle \int _{0}^{\infty }{\rm {e}}^{-pt}f(t)\,{\rm {d}}t=\int _{0}^{T}{\rm {e}}^{-pu}f(u)\,\mathrm {d} u+\int _{0}^{T}{\rm {e}}^{-p(u+T)}f(u+T)\,\mathrm {d} u+\int _{0}^{T}{\rm {e}}^{-p(u+2T)}f(u+2T)\,\mathrm {d} u+\ldots }

Comme ƒ est périodique, on peut simplifier les intégrales en

∫ 0 ∞ e − p t f ( t ) d t = ∫ 0 T e − p u f ( u ) d u + e − p T ∫ 0 T e − p u f ( u ) d u + e − 2 p T ∫ 0 T e − p u f ( u ) d u + … {\displaystyle \int _{0}^{\infty }{\rm {e}}^{-pt}f(t)\,\mathrm {d} t=\int _{0}^{T}{\rm {e}}^{-pu}f(u)\,\mathrm {d} u+{\rm {e}}^{-pT}\int _{0}^{T}{\rm {e}}^{-pu}f(u)\,\mathrm {d} u+{\rm {e}}^{-2pT}\int _{0}^{T}{\rm {e}}^{-pu}f(u)\,\mathrm {d} u+\ldots }

On regroupe les termes :

∫ 0 ∞ e − p t f ( t ) d t = ( 1 + e − p T + e − 2 p T + … ) ∫ 0 T e − p u f ( u ) d u . {\displaystyle \int _{0}^{\infty }{\rm {e}}^{-pt}f(t)\,\mathrm {d} t=\left(1+{\rm {e}}^{-pT}+{\rm {e}}^{-2pT}+\ldots \right)\int _{0}^{T}{\rm {e}}^{-pu}f(u)\,\mathrm {d} u.}

Cette série géométrique converge (car e–pT < 1). Il vient alors

L { f } ( p ) = 1 1 − e − T p ∫ 0 T e − p t f ( t ) d t . {\displaystyle {\mathcal {L}}\{f\}(p)={\frac {1}{1-{\rm {e}}^{-Tp}}}\int _{0}^{T}{\rm {e}}^{-pt}f(t)\,\mathrm {d} t.}

Développement de Heaviside

Si la valeur finale est une fraction rationnelle F(p)/G(p) telle que le degré de F est inférieur au degré de G, alors pour retrouver la valeur initiale, on décompose en éléments simples et on applique la linéarité.

Supposons que

G ( p ) = ( p − a 1 ) k 1 ⋯ ( p − a n ) k n {\displaystyle G(p)=(p-a_{1})^{k_{1}}\cdots (p-a_{n})^{k_{n}}}

Alors on peut écrire

F ( p ) G ( p ) = c 1 , 1 ( p − a 1 ) + ⋯ + c 1 , k 1 ( p − a 1 ) k 1 + ⋯ + c n , k n ( p − a n ) k n {\displaystyle {\frac {F(p)}{G(p)}}={\frac {c_{1,1}}{(p-a_{1})}}+\cdots +{\frac {c_{1,k_{1}}}{(p-a_{1})^{k_{1}}}}+\cdots +{\frac {c_{n,k_{n}}}{(p-a_{n})^{k_{n}}}}}

et alors

L − 1 ( F ( p ) G ( p ) ) ( t ) = L − 1 ( c 1 , 1 ( p − a 1 ) ) ( t ) + ⋯ + L − 1 ( c 1 , k 1 ( p − a 1 ) k 1 ) ( t ) + ⋯ + L − 1 ( c n , k n ( p − a n ) k n ) ( t ) = c 1 , 1 e a 1 t + ⋯ + c 1 , k 1 t k 1 − 1 ( k 1 − 1 ) ! e a 1 t + ⋯ + c n , k n t k n − 1 ( k n − 1 ) ! e a n t {\displaystyle {\begin{aligned}{\mathcal {L}}^{-1}\left({\frac {F(p)}{G(p)}}\right)(t)&={\mathcal {L}}^{-1}\left({\frac {c_{1,1}}{(p-a_{1})}}\right)(t)+\cdots +{\mathcal {L}}^{-1}\left({\frac {c_{1,k_{1}}}{(p-a_{1})^{k_{1}}}}\right)(t)+\cdots +{\mathcal {L}}^{-1}\left({\frac {c_{n,k_{n}}}{(p-a_{n})^{k_{n}}}}\right)(t)\\&=c_{1,1}\mathrm {e} ^{a_{1}t}+\cdots +c_{1,k_{1}}{\frac {t^{k_{1}-1}}{(k_{1}-1)!}}\mathrm {e} ^{a_{1}t}+\cdots +c_{n,k_{n}}{\frac {t^{k_{n}-1}}{(k_{n}-1)!}}\mathrm {e} ^{a_{n}t}\end{aligned}}}

Tableau résumé des propriétés de la transformation de Laplace

Propriétés de la transformée de Laplace unilatérale
Domaine temporel Domaine "p" Commentaires
Linéarité a f ( t ) + b g ( t ) {\displaystyle af(t)+bg(t)} a F ( p ) + b G ( p ) {\displaystyle a\mathrm {F} (p)+b\mathrm {G} (p)} Résulte des règles de base de l'intégration.
Dérivée de la transformée t f ( t ) {\displaystyle tf(t)} − F ′ ( p ) {\displaystyle -\mathrm {F} '(p)} F ′ {\displaystyle \mathrm {F} '} est la dérivée première de F.
Dérivées d'ordre n de la transformée t n f ( t ) {\displaystyle t^{n}f(t)} ( − 1 ) n F ( n ) ( p ) {\displaystyle (-1)^{n}\mathrm {F} ^{(n)}(p)} Forme plus générale, dérivée n-ième de F(p).
Dérivée première de la fonction dans le domaine temporel f ′ ( t ) {\displaystyle f'(t)} p F ( p ) − f ( 0 − ) {\displaystyle p\mathrm {F} (p)-f\left(0^{-}\right)} ƒ est supposée dérivable, et sa dérivée est supposée tendre vers 0 exponentiellement. Peut être obtenue par intégration par parties.
Dérivée seconde f ″ ( t ) {\displaystyle f''(t)} p 2 F ( p ) − p f ( 0 − ) − f ′ ( 0 − ) {\displaystyle p^{2}\mathrm {F} (p)-pf\left(0^{-}\right)-f'\left(0^{-}\right)} ƒ est supposée deux fois dérivable, avec dérivée seconde convergeant exponentiellement à l'infini.
Dérivée n-ième de ƒ f ( n ) ( t ) {\displaystyle f^{(n)}(t)} p n F ( p ) − p n − 1 f ( 0 − ) − ⋯ − f ( n − 1 ) ( 0 − ) {\displaystyle p^{n}\mathrm {F} (p)-p^{n-1}f\left(0^{-}\right)-\cdots -f^{(n-1)}\left(0^{-}\right)} ƒ est supposée n fois dérivable, avec une dérivée n-ième à convergence exponentielle à l'infini.
Intégration de la transformée de Laplace f ( t ) t {\displaystyle {\frac {f(t)}{t}}} ∫ p ∞ F ( σ ) d σ {\displaystyle \int _{p}^{\infty }\mathrm {F} (\sigma )\,\mathrm {d} \sigma }
Intégration ∫ 0 t f ( τ ) d τ = ( u ∗ f ) ( t ) {\displaystyle \int _{0}^{t}f(\tau )\,\mathrm {d} \tau =(u*f)(t)} 1 p F ( p ) {\displaystyle {1 \over p}\mathrm {F} (p)} u ( t ) {\displaystyle u(t)} est la fonction échelon de Heaviside. L'opérateur (u * f)(t) est le produit de convolution de u(t) et ƒ(t).
Dilatation échelle de temps f ( a t )   {\displaystyle f(at)\ } 1 | a | F ( p a ) {\displaystyle {\frac {1}{|a|}}\mathrm {F} \left({p \over a}\right)}
Décalage sur p e a t f ( t ) {\displaystyle {\rm {e}}^{at}f(t)} F ( p − a ) {\displaystyle \mathrm {F} (p-a)} Cette propriété est parfois connue sous le nom de Théorème de l'amortissement (ou Théorème de la modulation) avec a < 0 {\displaystyle a<0} .
Décalage domaine temporel f ( t − a ) u ( t − a ) {\displaystyle f(t-a)u(t-a)} e − a p F ( p ) {\displaystyle {\rm {e}}^{-ap}\mathrm {F} (p)} u(t) est la fonction échelon de Heaviside (step function).
Multiplication f ( t ) g ( t ) {\displaystyle f(t)g(t)} 1 2 π i lim T → ∞ ∫ c − i T c + i T F ( σ ) G ( p − σ ) d σ {\displaystyle {\frac {1}{2\pi {\rm {i}}}}\lim _{\mathrm {T} \to \infty }\int _{c-{\rm {i}}\mathrm {T} }^{c+{\rm {i}}\mathrm {T} }\mathrm {F} (\sigma )G(p-\sigma )\,\mathrm {d} \sigma } L'intégration est effectuée le long de la ligne verticale Re(σ) = c qui est entièrement située dans le rayon de convergence de F.
Produit de convolution ( f ∗ g ) ( t ) = ∫ 0 t f ( τ ) g ( t − τ ) d τ {\displaystyle (f*g)(t)=\int _{0}^{t}f(\tau )g(t-\tau )\,{\rm {d}}\tau } F ( p ) ⋅ G ( p ) {\displaystyle \mathrm {F} (p)\cdot \mathrm {G} (p)} ƒ(t) et g(t) sont étendues sur R {\displaystyle \mathbb {R} } pour la définition du produit de convolution.
Conjugaison complexe f ∗ ( t ) {\displaystyle f^{*}(t)} F ∗ ( p ∗ ) {\displaystyle \mathrm {F} ^{*}(p^{*})}
Fonction de corrélation f ( t ) ⋆ g ( t ) {\displaystyle f(t)\star g(t)} F ∗ ( − p ∗ ) ⋅ G ( p ) {\displaystyle \mathrm {F} ^{*}(-p^{*})\cdot \mathrm {G} (p)}
Fonction périodique f ( t ) {\displaystyle f(t)} 1 1 − e − T p ∫ 0 T e − p t f ( t ) d t {\displaystyle {\frac {1}{1-{\rm {e}}^{-\mathrm {T} p}}}\int _{0}^{\mathrm {T} }{\rm {e}}^{-pt}f(t)\,\mathrm {d} t} ƒ(t) est une fonction périodique de période T telle que f ( t ) = f ( t + T ) , ∀ t ≥ 0 {\displaystyle f(t)=f(t+\mathrm {T} ),\;\forall t\geq 0} . Ceci résulte de la propriété de décalage dans le domaine temporel et de la série géométrique.
 

Quelques transformées usuelles

La transformée de Laplace monolatérale n'est valide que pour des fonctions (éventuellement généralisées) à support positif. C'est pour cette raison que les fonctions temporelles de cette table sont multiples de (ou composées avec) Υ {\displaystyle \Upsilon } , fonction échelon unité (Heaviside).

Table des transformées de Laplace usuelles
Fonction Domaine temporel
x ( t ) = L − 1 { X ( p ) } {\displaystyle x(t)={\mathcal {L}}^{-1}\left\{\mathrm {X} (p)\right\}}
Transformée de Laplace
X ( p ) = L { x ( t ) } {\displaystyle \mathrm {X} (p)={\mathcal {L}}\left\{x(t)\right\}}
Région de convergence
1 Distribution de Dirac retardée δ ( t − τ )   {\displaystyle \delta (t-\tau )\ } e − τ p   {\displaystyle {\rm {e}}^{-\tau p}\ } ∀   p {\displaystyle \forall \ p\,}
1a Distribution de Dirac δ ( t )   {\displaystyle \delta (t)\ } 1   {\displaystyle 1\ } ∀   p {\displaystyle \forall \ p\,}
2 exponentielle-monôme retardée ( t − τ ) n n ! e − α ( t − τ ) ⋅ Υ ( t − τ ) {\displaystyle {\frac {(t-\tau )^{n}}{n!}}{\rm {e}}^{-\alpha (t-\tau )}\cdot \Upsilon (t-\tau )} e − τ p ( p + α ) n + 1 {\displaystyle {\frac {{\rm {e}}^{-\tau p}}{(p+\alpha )^{n+1}}}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
2a puissance n-ième t n n ! ⋅ Υ ( t ) {\displaystyle {t^{n} \over n!}\cdot \Upsilon (t)} 1 p n + 1 {\displaystyle {1 \over p^{n+1}}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
2a.1 puissance q-ième t q Γ ( q + 1 ) ⋅ Υ ( t ) {\displaystyle {t^{q} \over \Gamma (q+1)}\cdot \Upsilon (t)} 1 p q + 1 {\displaystyle {1 \over p^{q+1}}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
2a.2 échelon unité Υ ( t )   {\displaystyle \Upsilon (t)\ } 1 p {\displaystyle {1 \over p}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
2b échelon retardé Υ ( t − τ )   {\displaystyle \Upsilon (t-\tau )\ } e − τ p p {\displaystyle {{\rm {e}}^{-\tau p} \over p}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
2c rampe t ⋅ Υ ( t )   {\displaystyle t\cdot \Upsilon (t)\ } 1 p 2 {\displaystyle {\frac {1}{p^{2}}}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
2d exponentielle-monôme t n n ! e − α t ⋅ Υ ( t ) {\displaystyle {\frac {t^{n}}{n!}}{\rm {e}}^{-\alpha t}\cdot \Upsilon (t)} 1 ( p + α ) n + 1 {\displaystyle {\frac {1}{(p+\alpha )^{n+1}}}} Re ⁡ ( p ) > − α {\displaystyle \operatorname {Re} (p)>-\alpha \,}
2d.1 exponentielle e − α t ⋅ Υ ( t )   {\displaystyle {\rm {e}}^{-\alpha t}\cdot \Upsilon (t)\ } 1 p + α {\displaystyle {1 \over p+\alpha }} Re ⁡ ( p ) > − α   {\displaystyle \operatorname {Re} (p)>-\alpha \ }
3 approche exponentielle ( 1 − e − α t ) ⋅ Υ ( t )   {\displaystyle (1-{\rm {e}}^{-\alpha t})\cdot \Upsilon (t)\ } α p ( p + α ) {\displaystyle {\frac {\alpha }{p(p+\alpha )}}} Re ⁡ ( p ) > 0   {\displaystyle \operatorname {Re} (p)>0\ }
4 sinus sin ⁡ ( ω t ) ⋅ Υ ( t )   {\displaystyle \sin(\omega t)\cdot \Upsilon (t)\ } ω p 2 + ω 2 {\displaystyle {\omega \over p^{2}+\omega ^{2}}} Re ⁡ ( p ) > 0   {\displaystyle \operatorname {Re} (p)>0\ }
5 cosinus cos ⁡ ( ω t ) ⋅ Υ ( t )   {\displaystyle \cos(\omega t)\cdot \Upsilon (t)\ } p p 2 + ω 2 {\displaystyle {p \over p^{2}+\omega ^{2}}} Re ⁡ ( p ) > 0   {\displaystyle \operatorname {Re} (p)>0\ }
6 sinus hyperbolique sinh ⁡ ( α t ) ⋅ Υ ( t )   {\displaystyle \sinh(\alpha t)\cdot \Upsilon (t)\ } α p 2 − α 2 {\displaystyle {\alpha \over p^{2}-\alpha ^{2}}} Re ⁡ ( p ) > | α |   {\displaystyle \operatorname {Re} (p)>|\alpha |\ }
7 cosinus hyperbolique cosh ⁡ ( α t ) ⋅ Υ ( t )   {\displaystyle \cosh(\alpha t)\cdot \Upsilon (t)\ } p p 2 − α 2 {\displaystyle {p \over p^{2}-\alpha ^{2}}} Re ⁡ ( p ) > | α |   {\displaystyle \operatorname {Re} (p)>|\alpha |\ }
8 décroissance exponentielle
d'une onde sinusoidale
e − α t sin ⁡ ( ω t ) ⋅ Υ ( t )   {\displaystyle {\rm {e}}^{-\alpha t}\sin(\omega t)\cdot \Upsilon (t)\ } ω ( p + α ) 2 + ω 2 {\displaystyle {\omega \over (p+\alpha )^{2}+\omega ^{2}}} Re ⁡ ( p ) > − α   {\displaystyle \operatorname {Re} (p)>-\alpha \ }
9 décroissance exponentielle
d'une onde cosinusoidale
e − α t cos ⁡ ( ω t ) ⋅ Υ ( t )   {\displaystyle {\rm {e}}^{-\alpha t}\cos(\omega t)\cdot \Upsilon (t)\ } p + α ( p + α ) 2 + ω 2 {\displaystyle {p+\alpha \over (p+\alpha )^{2}+\omega ^{2}}} Re ⁡ ( p ) > − α   {\displaystyle \operatorname {Re} (p)>-\alpha \ }
10 n-ième racine t n ⋅ Υ ( t ) {\displaystyle {\sqrt{t}}\cdot \Upsilon (t)} p − ( n + 1 ) / n ⋅ Γ ( 1 + 1 n ) {\displaystyle p^{-(n+1)/n}\cdot \Gamma \left(1+{\frac {1}{n}}\right)} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
11 logarithme ln ⁡ ( t t 0 ) ⋅ Υ ( t ) {\displaystyle \ln \left({t \over t_{0}}\right)\cdot \Upsilon (t)} − t 0 p   {\displaystyle -{t_{0} \over p}\ } Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
12 fonction de Bessel
du premier type,
d'ordre n
J n ( ω t ) ⋅ Υ ( t ) {\displaystyle J_{n}(\omega t)\cdot \Upsilon (t)} ω n ( p + p 2 + ω 2 ) − n p 2 + ω 2 {\displaystyle {\frac {\omega ^{n}\left(p+{\sqrt {p^{2}+\omega ^{2}}}\right)^{-n}}{\sqrt {p^{2}+\omega ^{2}}}}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
( n > − 1 ) {\displaystyle (n>-1)\,}
13 fonction de Bessel modifiée
du premier type,
d'ordre n
I n ( ω t ) ⋅ Υ ( t ) {\displaystyle \mathrm {I} _{n}(\omega t)\cdot \Upsilon (t)} ω n ( p + p 2 − ω 2 ) − n p 2 − ω 2 {\displaystyle {\frac {\omega ^{n}\left(p+{\sqrt {p^{2}-\omega ^{2}}}\right)^{-n}}{\sqrt {p^{2}-\omega ^{2}}}}} Re ⁡ ( p ) > | ω | {\displaystyle \operatorname {Re} (p)>|\omega |\,}
( n > − 1 ) {\displaystyle (n>-1)\,}
14 fonction d'erreur e r f ( t ) ⋅ Υ ( t ) {\displaystyle \mathrm {erf} (t)\cdot \Upsilon (t)} e p 2 / 4 erfc ⁡ ( p / 2 ) p {\displaystyle {{\rm {e}}^{p^{2}/4}\operatorname {erfc} \left(p/2\right) \over p}} Re ⁡ ( p ) > 0 {\displaystyle \operatorname {Re} (p)>0\,}
Notes:
  • Υ ( t ) {\displaystyle \Upsilon (t)\,} représente la fonction de Heaviside.
  • δ ( t ) {\displaystyle \delta (t)\,} représente la fonction de Dirac.
  • Γ ( z ) {\displaystyle \Gamma (z)\,} est la fonction Gamma.
  • γ {\displaystyle \gamma \,} est la constante d'Euler-Mascheroni.
  • t {\displaystyle t\,} , est un nombre réel, il représente typiquement le temps,
    mais peut désigner n'importe quelle autre quantité.
  • p {\displaystyle p\,} est un nombre complexe.
  • q {\displaystyle q\,} est un nombre réel ( q + 1 > 0 {\displaystyle q+1>0} ).
  • α {\displaystyle \alpha \,} , β {\displaystyle \beta \,} , τ {\displaystyle \tau \,} , et ω {\displaystyle \omega \,} sont des nombres réels.
  • n {\displaystyle n\,} est un entier.
 

Exemple d'utilisation de la transformée de Laplace en électricité

On considère un circuit dit « R,C », constitué d'une résistance électrique de valeur R et d'un condensateur de capacité électrique C, placés en série. Dans tous les cas, on considère que le circuit n'est placé aux bornes d'un générateur idéal de tension délivrant une tension (en général) variable u(t) qu'à un instant choisi pour origine des dates, et que le condensateur est initialement déchargé.

On a ainsi respectivement pour la charge q(t) du condensateur et l'intensité dans le circuit i ( t ) ≡ d q d t {\displaystyle i\left(t\right)\equiv {\frac {{\rm {d}}q}{{\rm {d}}t}}} les conditions initiales suivantes :

q ( 0 − ) = 0 , i ( 0 − ) = 0. {\displaystyle q\left(0^{-}\right)=0,i\left(0^{-}\right)=0.}

Charge d'un condensateur par un échelon de tension

On applique la tension u(t) suivante :

u ( t ) = { 0 ,  si  t < 0 U 0 = c t e ,  si  t ≥ 0 , {\displaystyle u(t)={\begin{cases}0,{\text{ si }}t<0\\\mathrm {U} _{0}=cte,{\text{ si }}t\geq 0\end{cases}},}

et l'équation différentielle reliant la réponse q(t) à l'entrée u(t) est en appliquant les lois usuelles de l'électricité :

U 0 Υ ( t ) = R d q d t + q ( t ) C , {\displaystyle \mathrm {U} _{0}\Upsilon (t)=\mathrm {R} {\frac {\mathrm {d} q}{\mathrm {d} t}}+{\frac {q(t)}{\mathrm {C} }},}

soit encore en posant τ ≡ RC (cette quantité a la dimension d'une durée) et en divisant par R :

C U 0 τ Υ ( t ) = q ( t ) τ + d q d t . {\displaystyle {\frac {\mathrm {C} \mathrm {U} _{0}}{\tau }}\Upsilon (t)={\frac {q(t)}{\tau }}+{\frac {\mathrm {d} q}{\mathrm {d} t}}.}

On prend la transformée de Laplace membre à membre de cette dernière équation, en notant Q(p) la transformée de q(t) ; il vient, en prenant en compte le fait que q(0–) = 0 :

Q ( p ) = C U 0 1 τ p ( 1 τ + p ) , {\displaystyle \mathrm {Q} (p)=\mathrm {C} \mathrm {U} _{0}{\frac {\frac {1}{\tau }}{p\left({\frac {1}{\tau }}+p\right)}},}

ce qui peut aussi s'écrire sous la forme :

Q ( p ) = H ( p ) U ( p ) {\displaystyle \mathrm {Q} (p)=\mathrm {H} (p)\mathrm {U} (p)} , avec H ( p ) ≡ τ − 1 τ − 1 + p , {\displaystyle \mathrm {H} (p)\equiv {\frac {\tau ^{-1}}{\tau ^{-1}+p}},} la fonction de transfert du système RC, et U ( p ) = U 0 C p {\displaystyle \mathrm {U} (p)={\frac {\mathrm {U} _{0}\mathrm {C} }{p}}} la transformée de Laplace de l'entrée.

On peut aussitôt inverser cette équation en (on utilise l'entrée numéro 3 de la table ci-dessus avec α = 1/τ) :

q ( t ) = U 0 C ( 1 − e − t / τ ) Υ ( t ) . {\displaystyle q(t)=\mathrm {U} _{0}\mathrm {C} \left(1-{\rm {e}}^{-t/\tau }\right)\Upsilon (t).}

L'interprétation physique de cette solution est très simple : il y a superposition d'un régime transitoire

q t r a n s ( t ) = − U 0 C e − t / τ , {\displaystyle q_{\mathrm {trans} }\left(t\right)=-\mathrm {U} _{0}\mathrm {C} \,{\rm {e}}^{-t/\tau },}

qui décrit la charge progressive du condensateur, la quantité τ ≡ RC donnant l'échelle de temps (c'est un exemple de constante de temps d'un système), à un régime permanent

Q p e r m = U 0 C ≡ Q m {\displaystyle \mathrm {Q_{perm}} =\mathrm {U} _{0}\mathrm {C} \equiv \mathrm {Q_{m}} }

qui correspond à l'état du condensateur complètement chargé sous la tension continue U0. On montre aisément que le condensateur est à 90 % chargé (q = 0,90 Qm) au bout de la durée T = τ ln(10) ≈ 2,3025 τ.

Le terme (1–e–t/τ) est la fonction de transfert du système dans le domaine temporel.

On voit la facilité d'usage de la transformation de Laplace, qui permet de s'abstraire complètement de la résolution de l'équation différentielle dans l'espace des temps par un passage dans « l'espace p ». Par ailleurs, la prise en compte des conditions initiales est effectuée lors de la transformation.

Notes et références

Notes

  1. Bourlès 2010 (§12.3.4), Bourlès et Marinescu 2011, § 7.3.4.1.
  2. Denis-Papin et Kaufmann 1967.
  3. Jean-Étienne Rombaldi, Exercices et problèmes corrigés pour l'agrégation de mathématiques, De Boeck Supérieur, 2018 (lire en ligne), p. 193.
  4. Bourlès 2010, p. 356.
  5. (en) Milton Abramowitz et Irene Stegun, Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables (lire en ligne), chap. 29 (« Laplace Transforms »), p. 1020 : 29.2.4. et 29.2.5.
  6. (en) Milton Abramowitz et Irene Stegun, Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables (lire en ligne), chap. 29 (« Laplace Transforms »), p. 1020 : 29.1.1.
  7. Schwartz 1965, VI,2;2.
  8. André Desbiens, « Systèmes et commande linéaires GEL-2005. Chapitre 3 : Transformation de Laplace », sur Université Laval, p. 33.
  9. Bracewell 2000, Table 14.1, p. 385.
  10. En unité de charge de par la multiplication par C.

Références

Voir aussi

Articles connexes