Ecuación diferencial lineal

En matemáticas, se dice que una ecuación diferencial es lineal si lo es respecto a la función incógnita y sus derivadas. Puede ser lineal tanto una ecuación diferencial ordinaria (una sola variable independiente), como una ecuación en derivadas parciales (dos o más variables independientes). Se caracterizan por tener soluciones que se pueden obtener mediante combinaciones lineales de otras soluciones, formando así un espacio vectorial (en el caso homogéneo) o afín (no homogéneo), propiedad que no cumplen las ecuaciones diferenciales no lineales.

Definición

Una ecuación diferencial lineal tiene forma de:

F ( x , y , y , . . . , y ( n ) ) = 0 , {\displaystyle F(x,y,y',...,y^{(n)})=0,}

con F {\displaystyle F} lineal respecto a la función incógnita y {\displaystyle y} y sus derivadas y , . . . , y ( n ) {\displaystyle y',...,y^{(n)}} . Escrito de otra forma, se puede expresar como:

a 0 ( x ) y + a 1 ( x ) y + . . . + a n ( x ) y ( n ) = b ( x ) , {\displaystyle a_{0}(x)y+a_{1}(x)y'+...+a_{n}(x)y^{(n)}=b(x),}

donde los coeficientes a 0 ( x ) , . . . , a n ( x ) {\displaystyle a_{0}(x),...,a_{n}(x)} y b ( x ) {\displaystyle b(x)} son funciones diferenciales arbitrarias no necesariamente lineales, y y , . . . , y ( n ) {\displaystyle y',...,y^{(n)}} son las derivadas de la función incógnita y {\displaystyle y} en la variable x {\displaystyle x} . El orden de la ecuación diferencial viene dado por el mayor entero no negativo k n {\displaystyle k\leq n} tal que la función a k ( x ) {\displaystyle a_{k}(x)} no sea idénticamente nula. Si b ( x ) 0 {\displaystyle b(x)\equiv 0} , entonces la ecuación diferencial lineal se llama homogénea y en caso contrario no homogénea.

Introducción

Un operador lineal diferencial L se define como una aplicación que actúa sobre funciones diferenciables tal que L : C n ( [ a , b ] ) C ( [ a , b ] ) {\displaystyle L:C^{n}([a,b])\longrightarrow C([a,b])} , con [ a , b ] R {\displaystyle [a,b]\subset \mathbb {R} } , siendo

L [ y ] = a 0 y + a 1 y + . . . + a n y ( n ) , {\displaystyle L[y]=a_{0}y+a_{1}y'+...+a_{n}y^{(n)},}

o bien

L [ y ] = k = 0 n a k y ( k ) , {\displaystyle L[y]=\sum _{k=0}^{n}a_{k}y^{(k)},}

donde a 0 , . . . , a n C ( [ a , b ] ) {\displaystyle a_{0},...,a_{n}\in {C([a,b])}} y y , . . . , y ( n ) {\displaystyle y',...,y^{(n)}} son las derivadas sucesivas de y {\displaystyle y} .

Se llama lineal debido a que verifica que, para todo λ 1 , . . . , λ n R {\displaystyle \lambda _{1},...,\lambda _{n}\in \mathbb {R} }

L [ λ 1 y 1 + . . . + λ n y n ] = a n ( λ 1 y 1 + . . . + λ n y n ) ( n ) + . . . + a 1 ( λ 1 y 1 + . . . + λ n y n ) + a 0 ( λ 1 y 1 + . . . + λ n y n ) = ( a n λ 1 y 1 ( n ) + . . . + a n λ n y n ( n ) ) + . . . + ( a 1 λ 1 y 1 + . . . + a 1 λ n y n ) + ( a 0 λ 1 y 1 + . . . + a 0 λ n y n ) = λ 1 ( a 0 y 1 + a 1 y 1 + . . . + a n y 1 ( n ) ) + . . . + λ n ( a 0 y n + a 1 y n . . . + a n y n ( n ) ) = λ 1 L [ y 1 ] + . . . + λ n L [ y n ] . {\displaystyle {\begin{aligned}L[\lambda _{1}y_{1}+...+\lambda _{n}y_{n}]&=a_{n}(\lambda _{1}y_{1}+...+\lambda _{n}y_{n})^{(n)}+...+a_{1}(\lambda _{1}y_{1}+...+\lambda _{n}y_{n})'+a_{0}(\lambda _{1}y_{1}+...+\lambda _{n}y_{n})\\&=(a_{n}\lambda _{1}y_{1}^{(n)}+...+a_{n}\lambda _{n}y_{n}^{(n)})+...+(a_{1}\lambda _{1}y_{1}'+...+a_{1}\lambda _{n}y_{n}')+(a_{0}\lambda _{1}y_{1}+...+a_{0}\lambda _{n}y_{n})\\&=\lambda _{1}(a_{0}y_{1}+a_{1}y_{1}'+...+a_{n}y_{1}^{(n)})+...+\lambda _{n}(a_{0}y_{n}+a_{1}y_{n}'...+a_{n}y_{n}^{(n)})\\&=\lambda _{1}L[y_{1}]+...+\lambda _{n}L[y_{n}].\end{aligned}}}


Estructura del espacio de soluciones

Si f ( t ) {\displaystyle f(t)} es idénticamente nula la ecuación se denomina homogénea. La solución general de la ecuación homogénea viene dada por todas las combinaciones lineales de tantas soluciones linealmente independientes como el orden de dicha ecuación; es decir, que sus soluciones forman un espacio vectorial de dimensión n {\displaystyle n} . Para comprobar la independencia lineal de un conjunto de n {\displaystyle n} soluciones podemos calcular su wronskiano. Si el wronskiano no se anula en el intervalo de definición de las soluciones, estas son linealmente independientes.

Si f ( t ) 0 {\displaystyle f(t)\neq 0} la ecuación se denomina no homogénea. La solución general de la ecuación no homogénea viene dada por

x g ( t ) = x p ( t ) + x g h ( t ) {\displaystyle \,x_{g}(t)=x_{p}(t)+x_{gh}(t)} ,

donde x g h ( t ) {\displaystyle x_{gh}(t)} es la solución general de la ecuación homogénea asociada e x p ( t ) {\displaystyle x_{p}(t)} es una solución particular a la ecuación no homogénea. Es decir, que sus soluciones forman un espacio afín de dimensión n {\displaystyle n} .

En el caso de la solución particular, existen varios métodos para encontrarla, entre ellos, el método de variación de los parámetros.

Si fijamos ciertas condiciones iniciales, tenemos garantizada la existencia y unicidad de solución local por el Teorema de Picard-Lindelöf siempre que las funciones a k {\displaystyle a_{k}} y f ( t ) {\displaystyle f(t)} sean continuas y acotadas en un entorno de los valores iniciales. Si, además, tenemos que a k {\displaystyle a_{k}} y f {\displaystyle f} son continuas y acotadas en todo el espacio, tendriamos garantizada la existencia y unicidad global de las soluciones en todo el espacio.

Ecuación lineal de primer orden

Las Ecuaciones diferenciales de primer orden se caracterizan por ser de la forma:

y ( x ) + f ( x ) y ( x ) = g ( x ) , {\displaystyle y'(x)+f(x)y(x)=g(x),}

donde g {\displaystyle g} y f {\displaystyle f} son funciones continuas en un intervalo cerrado [ a , b ] R {\displaystyle [a,b]\subseteq \mathbb {R} } .

La solución de esta ecuación con dato inicial y ( x 0 ) = y 0 {\displaystyle y(x_{0})=y_{0}} viene dada por:

y ( x ) = e x 0 x f ( t ) d t [ y ( x 0 ) + x 0 x g ( s ) e x 0 s f ( t ) d t d s ] . {\displaystyle y(x)=e^{-\int _{x_{0}}^{x}f(t)dt}\left[y(x_{0})+\int _{x_{0}}^{x}g(s)e^{\int _{x_{0}}^{s}f(t)dt}ds\right].}


Resolución detallada

La idea consiste en encontrar una función w ( x ) {\displaystyle w(x)} que nos permita transformar

y ( x ) w ( x ) + y ( x ) f ( x ) w ( x ) {\displaystyle y'(x)w(x)+y(x)f(x)w(x)}

en la derivada de un producto.

Para ello se necesita que w ( x ) = f ( x ) w ( x ) {\displaystyle w'(x)=f(x)w(x)} . Sea w ( x ) := e x 0 x f ( t ) d t , {\displaystyle w(x):=e^{\int _{x_{0}}^{x}f(t)dt},} entonces w ( x ) = f ( x ) e x 0 x f ( t ) d t . {\displaystyle w'(x)=f(x)e^{\int _{x_{0}}^{x}f(t)dt}.}

Se multiplica la ecuación diferencial por w ( x ) {\displaystyle w(x)} :

y ( x ) e x 0 x f ( t ) d t + f ( x ) y ( x ) e x 0 x f ( t ) d t = g ( x ) e x 0 x f ( t ) d t . {\displaystyle y'(x)e^{\int _{x_{0}}^{x}f(t)dt}+f(x)y(x)e^{\int _{x_{0}}^{x}f(t)dt}=g(x)e^{\int _{x_{0}}^{x}f(t)dt}.}

Además, la derivada de ( y ( x ) e x 0 x f ( t ) d t ) {\displaystyle (y(x)e^{\int _{x_{0}}^{x}f(t)dt})'} viene dada por:

( y ( x ) e x 0 x f ( t ) d t ) = y ( x ) e x 0 x f ( t ) d t + y ( x ) f ( x ) e x 0 x f ( t ) d t . {\displaystyle {({y(x)e^{\int _{x_{0}}^{x}f(t)dt}})'}=y'(x)e^{\int _{x_{0}}^{x}f(t)dt}+y(x)f(x)e^{\int _{x_{0}}^{x}f(t)dt}.}

Las dos últimas ecuaciones equivalen a:

( y ( x ) e x 0 x f ( t ) d t ) = g ( x ) e x 0 x f ( t ) d t {\displaystyle {({y(x)e^{\int _{x_{0}}^{x}f(t)dt}})'}=g(x)e^{\int _{x_{0}}^{x}f(t)dt}}

x 0 x ( y ( s ) e x 0 s f ( t ) d t ) d s = x 0 x g ( s ) e x 0 s f ( t ) d t d s {\displaystyle \Leftrightarrow {\int _{x_{0}}^{x}{({y(s)e^{\int _{x_{0}}^{s}f(t)dt}})'}ds}={\int _{x_{0}}^{x}{g(s)e^{\int _{x_{0}}^{s}f(t)dt}}ds}}

y ( x ) e x 0 x f ( t ) d t y ( x 0 ) = x 0 x g ( s ) e x 0 s f ( t ) d t d s . {\displaystyle \Leftrightarrow {y(x)e^{\int _{x_{0}}^{x}f(t)dt}-y(x_{0})}={\int _{x_{0}}^{x}{g(s)e^{\int _{x_{0}}^{s}f(t)dt}}ds}.}

Finalmente,

y ( x ) = e x 0 x f ( t ) d t [ y ( x 0 ) + x 0 x g ( s ) e x 0 s f ( t ) d t d s ] . {\displaystyle y(x)=e^{-\int _{x_{0}}^{x}f(t)dt}\left[y(x_{0})+{\int _{x_{0}}^{x}{g(s)e^{\int _{x_{0}}^{s}f(t)dt}}ds}\right].}

Ejemplo

Dada la siguiente ecuación:

{ y ( x ) + 1 x y ( x ) = 3 x , y ( 2 ) = 3 , {\displaystyle {\begin{cases}y'(x)+{\frac {1}{x}}y(x)=3x,\\y(2)=3,\end{cases}}}

donde x > 0 {\displaystyle x>0} . Se define g ( x ) = 3 x {\displaystyle g(x)=3x} y f ( x ) = 1 x {\displaystyle f(x)={\frac {1}{x}}} que son funciones continuas para x > 0 {\displaystyle x>0} .

Sustituyendo f y g en la ecuación de la parte anterior se obtiene (nótese que x > 0 {\displaystyle x>0} ):

y ( x ) = e 2 x 1 t d t ( 2 x 3 s e 2 s 1 t d t d s + 3 ) = e ln ( x ) + ln ( 2 ) ( 2 x 3 s e ln ( s ) ln ( 2 ) d s + 3 ) = 2 x ( 2 x 3 s 2 1 2 d s + 3 ) = 2 x ( 1 2 ( x 3 2 3 ) + 3 ) = x 2 2 x . {\displaystyle {\begin{aligned}y(x)&=e^{-\int _{2}^{x}{\frac {1}{t}}dt}({\int _{2}^{x}{3se^{\int _{2}^{s}{\frac {1}{t}}dt}}ds}+3)\\&=e^{-\ln(x)+\ln(2)}({\int _{2}^{x}{3se^{\ln(s)-\ln(2)}}ds}+3)\\&={\frac {2}{x}}({\int _{2}^{x}3s^{2}{\frac {1}{2}}ds}+3)\\&={\frac {2}{x}}({\frac {1}{2}}(x^{3}-2^{3})+3)\\&=x^{2}-{\frac {2}{x}}.\end{aligned}}}


Existencia y unicidad de soluciones de PVI lineales de orden n

Podemos escribir toda ecuación diferencial de orden n {\displaystyle n} como un sistema de orden 1 {\displaystyle 1} y dimensión n {\displaystyle n} . Definimos x i = x ( i 1 ) {\displaystyle x_{i}=x^{(i-1)}} para i = 1 , , n {\displaystyle i=1,\dots ,n} de tal manera que queda la relación x i = x i 1 {\displaystyle x_{i}=x'_{i-1}} .

Soluciones de la EDO x'-x+t=0

Además, x n = x ( n 1 ) x n = x ( n ) = r ( t ) i = 1 n a i 1 ( t ) x i ( t ) . {\displaystyle x_{n}=x^{(n-1)}\Longrightarrow x'_{n}=x^{(n)}=r(t)-\sum _{i=1}^{n}a_{i-1}(t)x_{i}(t).}


Escrito en forma matricial:

( x 1 x 2 x n 1 x n ) = A ( t ) ( x 1 x 2 x n 1 x n ) + b {\displaystyle {\begin{pmatrix}x'_{1}\\x'_{2}\\\vdots \\x'_{n-1}\\x'_{n}\\\end{pmatrix}}=A(t){\begin{pmatrix}x_{1}\\x_{2}\\\vdots \\x_{n-1}\\x_{n}\\\end{pmatrix}}+b} ,



donde A ( t ) = ( 0 1 0 0 0 0 0 1 0 0 0 0 0 0 1 a 0 ( t ) a 1 ( t ) a 2 ( t ) a n 2 ( t ) a n 1 ( t ) ) {\displaystyle A(t)={\begin{pmatrix}0&1&0&0&\dots &0\\0&0&1&0&\dots &0\\\vdots &\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &0&1\\-a_{0}(t)&-a_{1}(t)&-a_{2}(t)&\dots &-a_{n-2}(t)&-a_{n-1}(t)\\\end{pmatrix}}} es una matriz de dimensiones n × n {\displaystyle n\times n} , y b = ( 0 0 r ( t ) ) {\displaystyle b={\begin{pmatrix}0\\\vdots \\0\\r(t)\\\end{pmatrix}}} es el vector columna cuyo única componente no nula es r ( t ) {\displaystyle r(t)} .

Si expresamos f ( t , x ) = A ( t ) x + b {\displaystyle f(t,{\textbf {x}})=A(t){\textbf {x}}+b} con x = ( x 1 x n ) {\displaystyle {\textbf {x}}={\begin{pmatrix}x_{1}\\\vdots \\x_{n}\\\end{pmatrix}}} , el sistema se puede escribir como x = f ( t , x ) {\displaystyle x'=f(t,{\textbf {x}})} . La función f {\displaystyle f} es continua respecto a las dos variables.

Puesto que f {\displaystyle f} es una función continua en sus dos variables, para poder llegar a aplicar el Teorema de Picard-Lindelöf, faltaría comprobar que es Lipschitz respecto a x {\displaystyle x} (uniformemente en t {\displaystyle t} ). En lo que sigue, usaremos la norma euclídea de un vector, denotada como v = j = 1 n v j 2 {\displaystyle \|{\textbf {v}}\|={\sqrt {\sum _{j=1}^{n}v_{j}^{2}}}} , donde v j {\displaystyle v_{j}} , para j = 1 , . . . , n {\displaystyle j=1,...,n} , son las componentes del vector v {\displaystyle {\textbf {v}}} . Sean x , x ^ R n {\displaystyle {\textbf {x}},{\hat {\textbf {x}}}\in \mathbb {R} ^{n}} ,

f ( t , x ^ ) f ( t , x ) = A ( t ) x ^ A ( t ) x = ( x ^ 2 x ^ n j = 1 n a j 1 x ^ j ) ( x 2 x n j = 1 n a j 1 x j ) = ( x ^ 2 x 2 x ^ n x n j = 1 n a j 1 ( x ^ j x j ) ) {\displaystyle \|f(t,{\hat {\textbf {x}}})-f(t,{\textbf {x}})\|=\|A(t){\hat {\textbf {x}}}-A(t){\textbf {x}}\|={\begin{Vmatrix}{\begin{pmatrix}{\hat {x}}_{2}\\\vdots \\{\hat {x}}_{n}\\\sum _{j=1}^{n}-a_{j-1}{\hat {x}}_{j}\\\end{pmatrix}}-{\begin{pmatrix}x_{2}\\\vdots \\x_{n}\\\sum _{j=1}^{n}-a_{j-1}x_{j}\\\end{pmatrix}}\end{Vmatrix}}={\begin{Vmatrix}{\begin{pmatrix}{\hat {x}}_{2}-x_{2}\\\vdots \\{\hat {x}}_{n}-x_{n}\\\sum _{j=1}^{n}-a_{j-1}({\hat {x}}_{j}-x_{j})\\\end{pmatrix}}\end{Vmatrix}}} .

Sea M = max i [ 0 , n 1 ] , t [ a , b ] | a i ( t ) | {\displaystyle M=\max _{i\in [0,{n-1}],t\in [a,b]}\left\vert a_{i}(t)\right\vert } ,

( x ^ 2 x 2 x ^ n x n j = 1 n a j 1 ( x ^ j x j ) ) ( x ^ 2 x 2 x ^ n x n 0 ) + ( 0 0 j = 1 n a j 1 ( x ^ j x j ) ) ( x ^ 2 x 2 x ^ n x n 0 ) + j = 1 n ( 0 0 a j 1 ( x ^ j x j ) ) x ^ x + j = 1 n | a j 1 | | x ^ j x j | x ^ x + j = 1 n M | x ^ j x j | ( 1 + n M ) x ^ x . {\displaystyle {\begin{aligned}{\begin{Vmatrix}{\begin{pmatrix}{\hat {x}}_{2}-x_{2}\\\vdots \\{\hat {x}}_{n}-x_{n}\\\sum _{j=1}^{n}-a_{j-1}({\hat {x}}_{j}-x_{j})\\\end{pmatrix}}\end{Vmatrix}}&\leq {\begin{Vmatrix}{\begin{pmatrix}{\hat {x}}_{2}-x_{2}\\\vdots \\{\hat {x}}_{n}-x_{n}\\0\\\end{pmatrix}}\end{Vmatrix}}+{\begin{Vmatrix}{\begin{pmatrix}0\\\vdots \\0\\\sum _{j=1}^{n}-a_{j-1}({\hat {x}}_{j}-x_{j})\\\end{pmatrix}}\end{Vmatrix}}\leq {\begin{Vmatrix}{\begin{pmatrix}{\hat {x}}_{2}-x_{2}\\\vdots \\{\hat {x}}_{n}-x_{n}\\0\\\end{pmatrix}}\end{Vmatrix}}+\sum _{j=1}^{n}{\begin{Vmatrix}{\begin{pmatrix}0\\\vdots \\0\\-a_{j-1}({\hat {x}}_{j}-x_{j})\\\end{pmatrix}}\end{Vmatrix}}\\&\leq \|{\hat {\textbf {x}}}-{\textbf {x}}\|+\sum _{j=1}^{n}|a_{j-1}||{\hat {x}}_{j}-x_{j}|\leq \|{\hat {\textbf {x}}}-{\textbf {x}}\|+\sum _{j=1}^{n}M|{\hat {x}}_{j}-x_{j}|\leq (1+nM)\|{\hat {\textbf {x}}}-{\textbf {x}}\|.\end{aligned}}}


Obtenemos f ( t , x ^ ) f ( t , x ) ( 1 + n M ) x ^ x {\displaystyle \|f(t,{\hat {\textbf {x}}})-f(t,{\textbf {x}})\|\leq (1+nM)\|{\hat {\textbf {x}}}-{\textbf {x}}\|} ,

por lo que f {\displaystyle f} tiene constante de Lipschitz K = ( 1 + n M ) {\displaystyle K=(1+nM)} t [ a , b ] R {\displaystyle \forall t\in [a,b]\subset \mathbb {R} } .

Puesto que se cumplen las hipótesis del Teorema de Picard-Lindelöf, queda demostrado que hay una única solución x {\displaystyle {\textbf {x}}} del sistema con datos iniciales x i ( t 0 ) = ξ i {\displaystyle x_{i}(t_{0})=\xi _{i}} , i = 1 , , n {\displaystyle i=1,\dots ,n} , dados en un punto t 0 [ a , b ] {\displaystyle t_{0}\in [a,b]} .

Si x C 1 ( [ a , b ] ; R n ) {\displaystyle {\textbf {x}}\in C^{1}([a,b];\mathbb {R} ^{n})} , entonces:

x n 1 = x n C 1 ( [ a , b ] ; R ) ,  y por tanto  x n 1 C 2 ( [ a , b ] ; R ) , x n 2 = x n 1 C 2 ( [ a , b ] ; R ) ,  y por tanto  x n 2 C 2 ( [ a , b ] ; R ) , x 1 = x 2 C n 1 ( [ a , b ] ; R ) ,  y por tanto  x 1 C n ( [ a , b ] ; R ) . {\displaystyle {\begin{aligned}x_{n-1}'&=x_{n}\in C^{1}([a,b];\mathbb {R} ),&&{\text{ y por tanto }}x_{n-1}\in C^{2}([a,b];\mathbb {R} ),\\x_{n-2}'&=x_{n-1}\in C^{2}([a,b];\mathbb {R} ),&&{\text{ y por tanto }}x_{n-2}\in C^{2}([a,b];\mathbb {R} ),\\&\;\;\vdots &&\\x_{1}'&=x_{2}\in C^{n-1}([a,b];\mathbb {R} ),&&{\text{ y por tanto }}x_{1}\in C^{n}([a,b];\mathbb {R} ).\end{aligned}}}

Por otra parte,

x 1 ( n ) ( t ) = x 2 ( n 1 ) ( t ) = = x n ( t ) = r ( t ) i = 1 n a i 1 ( t ) x i ( t ) = r ( t ) i = 1 n a i 1 ( t ) x 1 ( i 1 ) ( t ) ; {\displaystyle x_{1}^{(n)}(t)=x_{2}^{(n-1)}(t)=\cdots =x_{n}'(t)=r(t)-\sum _{i=1}^{n}a_{i-1}(t)x_{i}(t)=r(t)-\sum _{i=1}^{n}a_{i-1}(t)x_{1}^{(i-1)}(t);} es decir x 1 ( n ) ( t ) + i = 1 n a i 1 ( t ) x 1 ( i 1 ) ( t ) = r ( t ) , {\displaystyle x_{1}^{(n)}(t)+\sum _{i=1}^{n}a_{i-1}(t)x_{1}^{(i-1)}(t)=r(t),} luego x 1 {\displaystyle x_{1}} es solución de la ecuación. Además, x 1 i ( t 0 ) = ξ i + 1 {\displaystyle x_{1}^{i}(t_{0})=\xi _{i+1}} , i = 0 , , n 1 {\displaystyle i=0,\dots ,n-1} , y por tanto x 1 {\displaystyle x_{1}} es la solución (única) del problema de valor inicial con datos x i ( t 0 ) = ξ i + 1 {\displaystyle x^{i}(t_{0})=\xi _{i+1}} , i = 0 , , n 1 {\displaystyle i=0,\dots ,n-1} para la ecuación diferencial lineal.

Ejemplo

Sea el problema de valores iniciales:

{ x ( 4 ) + 3 x sin ( t ) x + 8 x = t 2 , x ( 0 ) = 0 , x ( 0 ) = 2 , x ( 0 ) = 3 , x ( 0 ) = 4. {\displaystyle {\begin{cases}x^{(4)}+3x''-\sin(t)x'+8x=t^{2},\\x(0)=0,x'(0)=2,x''(0)=3,x'''(0)=4.\end{cases}}}

Vamos a transformarlo en un sistema de ecuaciones:

{ x 1 = x   x 1 = x = x 2 , x 2 = x x 2 = x = x 3 , x 3 = x x 3 = x = x 4 , x 4 = x x 4 = x ( 4 ) = 8 x + sin ( t ) x 3 x + t 2 = 8 x 1 + sin ( t ) x 2 3 x 3 + t 2 , {\displaystyle {\begin{cases}x_{1}=x\,\Longrightarrow \ x'_{1}=x'=x_{2},\\x_{2}=x'\Longrightarrow x'_{2}=x''=x_{3},\\x_{3}=x''\Longrightarrow x'_{3}=x'''=x_{4},\\x_{4}=x'''\Longrightarrow x'_{4}=x^{(4)}=-8x+\sin(t)x'-3x''+t^{2}=-8x_{1}+\sin(t)x_{2}-3x_{3}+t^{2},\end{cases}}}

con condiciones iniciales: x 1 ( 0 ) = 1 ,   x 2 ( 0 ) = 2 ,   x 3 ( 0 ) = 3 x 4 ( 0 ) = 4. {\displaystyle x_{1}(0)=1,\ x_{2}(0)=2,\ x_{3}(0)=3\,x_{4}(0)=4.}

Sea x = ( x 1 x 2 x 3 x 4 ) , {\displaystyle {\textbf {x}}={\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\\x_{4}\end{pmatrix}},} podemos escribir el sistema como:

x = A x + b {\displaystyle {\textbf {x}}'=A{\textbf {x}}+b} , donde A es la matriz A = ( 0 1 0 0 0 0 1 0 0 0 0 1 8 sin ( t ) 3 0 ) {\displaystyle A={\begin{pmatrix}0&1&0&0\\0&0&1&0\\0&0&0&1\\-8&\sin(t)&-3&0\end{pmatrix}}} , b es el vector vector b = ( 0 0 0 t 2 ) {\displaystyle b={\begin{pmatrix}0\\0\\0\\t^{2}\end{pmatrix}}} y las condiciones iniciales son x ( 0 ) = ( 1 2 3 4 ) {\displaystyle {\textbf {x}}(0)={\begin{pmatrix}1\\2\\3\\4\end{pmatrix}}} .

Ahora, aplicando el método anteriormente descrito:

Sea M = max i [ 0 , n 1 ] t [ a , b ] | a i ( t ) | = 8 {\displaystyle M=\max _{i\in [0,{n-1}]t\in [a,b]}\left\vert a_{i}(t)\right\vert =8} .

En este caso:

f ( t , x ^ ) f ( t , x ) = A ( t ) x ^ A ( t ) x 33 x ^ x {\displaystyle \|f(t,{\hat {\textbf {x}}})-f(t,{\textbf {x}})\|=\|A(t){\hat {\textbf {x}}}-A(t){\textbf {x}}\|\;\leq 33\|{\hat {\textbf {x}}}-{\textbf {x}}\|} por lo que hay unicidad y existencia de soluciones para dicho PVI.

Ecuaciones con coeficientes constantes

La resolución de ecuaciones y sistemas de ecuaciones diferenciales se simplifica mucho si las ecuaciones son de coeficientes constantes.

En el caso de una ecuación de primer orden la búsqueda de un factor integrante nos lleva en la mayoría de los casos a una ecuación en derivadas parciales.

Si la ecuación es de orden superior, a no ser que sea una ecuación de Euler o similar, tendremos que proponer una solución que no viene dada, en general, por funciones elementales. En estos casos los métodos preferidos (sin contar el cálculo numérico) son los que emplean series de potencias o series de Fourier.

En el caso de los sistemas, si la matriz del sistema es de coeficientes constantes podemos resolver el sistema usando el método de los valores propios ya que en ese caso la matriz resultante de la reducción de la ecuación a un sistema de primer orden es constante. Otro método consiste en calcular la exponencial de la matriz del sistema.

Para calcular la solución de una ecuación diferencial primero resolvemos el problema homogéneo y después el no homogéneo ya sea mediante el método de variación de las constantes o el método de los coeficientes indeterminados.

Resolución mediante exponenciales

Una ecuación lineal homogénea con coeficientes constantes es de la forma:

x ( n ) ( t ) + a n 1 x ( n 1 ) ( t ) + + a 0 x ( t ) = 0 {\displaystyle x^{(n)}(t)+a_{n-1}x^{(n-1)}(t)+\dots +a_{0}x(t)=0}

Como la ecuación solo depende constantes y de ella misma es intuitivo pensar que una buena solución sería de la forma exponencial con un parámetro, es decir proponemos que la solución sea de la forma x ( t ) = e λ t {\displaystyle x(t)=e^{\lambda t}} .

Derivando y sustituyendo en la ecuación general llegamos a λ n e λ t + a n 1 λ n 1 e λ t + + a 0   e λ t = 0 {\displaystyle \lambda ^{n}e^{\lambda t}+a_{n-1}\lambda ^{n-1}e^{\lambda t}++a_{0}\ e^{\lambda t}=0} , que sacando factor común resulta ( λ n + a n 1 λ n 1 + + a 0 ) e λ t = 0 {\displaystyle (\lambda ^{n}+a_{n-1}\lambda ^{n-1}+\dots +a_{0})e^{\lambda t}=0} .

Por las propiedades de la exponencial lo anterior se anula si y solo el polinomio anterior se anula.

Luego para cada valor de λ {\displaystyle \lambda } tendremos información para crear una solución asociada a dicho valor.

Dependiendo de la naturaleza de λ {\displaystyle \lambda } y su multiplicidad distinguimos los siguientes casos:

Raíz real única: En este caso la solución para un valor λ {\displaystyle \lambda } concreto viene dada directamente por x λ ( t ) = e λ t {\displaystyle x_{\lambda }(t)=e^{\lambda t}} .

Raíz real de multiplicidad j {\displaystyle j} : En este caso no podemos expresar la solución como antes, ya que si lo hacemos tendríamos información redundante.

En este caso las soluciones para un valor de λ {\displaystyle \lambda } se construyen multiplicando la función exponencial por t {\displaystyle t} como sigue: x λ , 1 ( t ) = e λ t ,   x λ , 2 ( t ) = t e λ t ,     ,   x λ , j ( t ) = t j 1 e λ t {\displaystyle x_{\lambda ,1}(t)=e^{\lambda t},\ x_{\lambda ,2}(t)=te^{\lambda t},\ \dots \ ,\ x_{\lambda ,j}(t)=t^{j-1}e^{\lambda t}}

La solución es la combinación lineal de las anteriores: x λ ( t ) = i = 1 j c ~ i x λ , i ( t ) {\displaystyle x_{\lambda }(t)=\sum _{i=1}^{j}{\tilde {c}}_{i}x_{\lambda ,i}(t)}

Raíces complejas: Hay que tener en cuenta que siempre vienen en parejas de números conjugados.

En este caso usamos distinguimos la parte real y la imaginaria de la raíz y posteriormente usamos la fórmula de Euler y añadiendo constantes.

x λ ( t ) = e λ t = e [ R e ( λ ) + i I m ( λ ) ] t = e R e ( λ ) t e i I m ( λ ) t = e R e ( λ ) t   [ c 1 cos ( I m ( λ ) ) + c 2 i sen ( I m ( λ ) ) ] {\displaystyle x_{\lambda }(t)=e^{\lambda t}=e^{[Re(\lambda )+iIm(\lambda )]t}=e^{Re(\lambda )t}e^{iIm(\lambda )t}=e^{Re(\lambda )t}\ [c_{1}\cos(Im(\lambda ))+c_{2}i\operatorname {sen}(Im(\lambda ))]}

Raíces complejas con multiplicidad: Se trata de manera similar al caso real con multiplicidad.

La solución homogénea vendrá dada por una combinación lineal de las soluciones desarrolladas anteriormente. Es decir, x ( t ) = i = 1 c i x λ i ( t ) {\displaystyle x(t)=\sum _{i=1}c_{i}x_{\lambda _{i}}(t)}

Resolución mediante paso al sistema equivalente

Una ecuación diferencial lineal de orden n {\displaystyle n} puede resolverse convirtiéndola en un sistema de n {\displaystyle n} ecuaciones diferenciales de primer orden. Para hacer esto se definen las n {\displaystyle n} funciones incógnita auxiliares dadas por: x k ( t ) := x ( k ) ( t )   con   0 k n 1 {\displaystyle x_{k}^{*}(t):=x^{(k)}(t)\ {\text{con}}\ 0\leq k\leq n-1} . Puesto que x k = x k + 1   con   0 k n 2 {\displaystyle {x_{k}^{*}}'=x_{k+1}^{*}\ {\text{con}}\ 0\leq k\leq n-2} , si tenemos en cuenta que x n 1 ( t ) = x ( n ) ( t ) {\displaystyle {x_{n-1}^{*}}'(t)=x^{(n)}(t)} , entonces podemos reescribir la ecuación como x n 1 ( t ) := a n 1 ( t ) x n 1 ( t ) a 0 ( t ) x 0 ( t ) + f ( t ) . {\displaystyle {x_{n-1}^{*}}'(t):=-a_{n-1}(t)x_{n-1}^{*}(t)-\dots -a_{0}(t)x_{0}^{*}(t)+f(t).} El sistema de ecuaciones diferenciales puede escribirse en forma matricial como:

[ x 0 ( t ) x 1 ( t ) x n 1 ( t ) ] = [ 0 1 0 0 0 0 1 0 a 0 ( t ) a 1 ( t ) a 2 ( t ) a n 1 ( t ) ] [ x 0 ( t ) x 1 ( t ) x n 1 ( t ) ] + [ 0 0 f ( t ) ] {\displaystyle {\begin{bmatrix}{x_{0}^{*}}'(t)\\{x_{1}^{*}}'(t)\\\dots \\{x_{n-1}^{*}}'(t)\end{bmatrix}}={\begin{bmatrix}0&1&0&\dots &0\\0&0&1&\dots &0\\\dots &&&\dots \\-a_{0}(t)&-a_{1}(t)&-a_{2}(t)&\dots &-a_{n-1}(t)\end{bmatrix}}{\begin{bmatrix}{x_{0}^{*}}(t)\\{x_{1}^{*}}(t)\\\dots \\{x_{n-1}^{*}}(t)\end{bmatrix}}+{\begin{bmatrix}{0}\\{0}\\\dots \\{f(t)}\end{bmatrix}}} .

De nuevo, debemos resolver primero el sistema homogéneo y después el no homogéneo. Véase como se resuelven en la página de sistemas de ecuaciones diferenciales.

En el caso de que la ecuación sea de coeficientes constantes el sistema tendrá la forma:

[ x 0 ( t ) x 1 ( t ) x n 1 ( t ) ] = [ 0 1 0 0 0 0 1 0 a 0 a 1 a 2 a n 1 ] [ x 0 ( t ) x 1 ( t ) x n 1 ( t ) ] {\displaystyle {\begin{bmatrix}{x_{0}^{*}}'(t)\\{x_{1}^{*}}'(t)\\\dots \\{x_{n-1}^{*}}'(t)\end{bmatrix}}={\begin{bmatrix}0&1&0&\dots &0\\0&0&1&\dots &0\\\dots &&&\dots \\-a_{0}&-a_{1}&-a_{2}&\dots &-a_{n-1}\end{bmatrix}}{\begin{bmatrix}{x_{0}^{*}}(t)\\{x_{1}^{*}}(t)\\\dots \\{x_{n-1}^{*}}(t)\end{bmatrix}}} ,

que escribimos como X ( t ) = A X ( t ) {\displaystyle X^{'}(t)=AX(t)} . La utilidad de este método consiste en que la primera coordenada del vector solución será la solución de la ecuación.

Relación entre ambos métodos de resolución y observaciones

Dada la ecuación lineal de orden n {\displaystyle n} homogénea de coeficientes constantes: x ( n ) ( t ) + a n 1 x ( n 1 ) ( t ) + + a 0 x ( t ) = 0 {\displaystyle x^{(n)}(t)+a_{n-1}x^{(n-1)}(t)+\dots +a_{0}x(t)=0} es fácil ver que su sistema equivalente tiene como polinomio característico asociado ( λ n + a n 1 λ n 1 + + a 0 ) = 0 {\displaystyle (\lambda ^{n}+a_{n-1}\lambda ^{n-1}+\cdots +a_{0})=0} . Usando el método de los autovalores y autovectores para resolver sistemas de ecuaciones con coeficientes constantes, obtenemos que la solución es de la forma: j = 1 c j x λ k ( t ) v k {\displaystyle \sum _{j=1}c_{j}x_{\lambda _{k}}(t){\overrightarrow {v_{k}}}} , donde x λ k {\displaystyle x_{\lambda _{k}}} es la solución generada a partir del autovalor λ k {\displaystyle \lambda _{k}} de la manera antes explicada, y v k {\displaystyle {\overrightarrow {v_{k}}}} los autovectores asociados a los autovalores anteriores.

Por otro lado, volviendo a la ecuación lineal, si empleamos el método de proponer soluciones exponenciales, obtendremos ( λ n + a n 1 λ n 1 + + a 0 ) e λ t = 0 {\displaystyle (\lambda ^{n}+a_{n-1}\lambda ^{n-1}+\cdots +a_{0})e^{\lambda t}=0} . Como e λ t {\displaystyle e^{\lambda t}} no se anula nunca, necesariamente ( λ n + a n 1 λ n 1 + + a 0 ) = 0 {\displaystyle (\lambda ^{n}+a_{n-1}\lambda ^{n-1}+\cdots +a_{0})=0} . Observamos que nos queda la misma expresión que el polinomio característico asociado al sistema, luego los autovalores obtenidos anteriormente serán las soluciones de esta misma ecuación. Luego si tenemos una solución X ( t ) = ( x ( t ) , x ( t ) , x ( t ) , . . . , x ( n 1 ) ( t ) ) {\displaystyle X(t)=(x(t),x'(t),x''(t),...,x^{(n-1)}(t))} del sistema, entonces x ( t ) {\displaystyle x(t)} es la misma solución esencialmente que la obtenida proponiendo como soluciones funciones exponenciales.

Obsérvese que la solución al sistema matricial se obtiene como combinación lineal de soluciones: X ( t ) = k = 1 c k X k {\displaystyle X(t)=\sum _{k=1}c_{k}X_{k}} .

Cada una de dichas soluciones X k {\displaystyle X_{k}} es un vector que se construye como el producto de cierta función f k {\displaystyle f_{k}} (asociada a cierto autovalor λ k {\displaystyle \lambda _{k}} ) con el autovector asociado v k {\displaystyle {\overrightarrow {v_{k}}}} . Es decir, X k = f k v k {\displaystyle X_{k}=f_{k}{\overrightarrow {v_{k}}}} . Si la primera coordenada de v k {\displaystyle {\overrightarrow {v_{k}}}} es nula también lo será la de X k {\displaystyle X_{k}} , pero recordemos que si la primera coordenada de X k {\displaystyle X_{k}} es nula, también lo serán las demás puesto que la coordenada i {\displaystyle i} -ésima es la derivada de la coordenada anterior. Luego X k {\displaystyle X_{k}} será el vector nulo, y por tanto linealmente dependiente del resto de soluciones X j {\displaystyle X_{j}} . Si los autovectores son linealmente dependientes las funciones asociadas también lo serán. Luego es importante que los autovectores formen una base.

Ejemplos

Ejemplo de resolución mediante exponenciales

Para este ejemplo usaremos el oscilador armónico sin entrar en la interpretación física.

Nuestra primera ecuación será: x + k m x = 0 ; w 2 = k m {\displaystyle x''+{\frac {k}{m}}x=0;\quad w^{2}={\frac {k}{m}}} .

Con k , m , w {\displaystyle k,m,w} constantes. Intentaremos soluciones de la forma x ( t ) = e α t {\displaystyle x(t)=e^{\alpha t}} que al introducirlo en la EDO nos queda α 2 + w 2 = 0 α = ± i w {\displaystyle \alpha ^{2}+w^{2}=0\Rightarrow \alpha =\pm iw} . La solución queda de la forma x ( t ) = c 1 e ± i w {\displaystyle x(t)=c_{1}e^{\pm iw}} que escribiéndolo en su desarrollo en senos y cosenos y ajustando las constantes obtenemos: x ( t ) = c 1 c o s ( w t ) + c 2 s e n ( w t ) {\displaystyle x(t)=c_{1}cos(wt)+c_{2}sen(wt)} .

Nuestra siguiente ecuación en este ejemplo es:

x + v m x + k m x = 0 ; v = c t e > 0 ; 2 p = v m {\displaystyle x''+{\frac {v}{m}}x+{\frac {k}{m}}x=0;\quad v=cte>0;\quad 2p={\frac {v}{m}}}

La solución será de la forma x ( t ) = e λ t {\displaystyle x(t)=e^{\lambda t}} que al sustituirla en la EDO nos da la ecuación de segundo grado λ 2 + 2 p λ + w 2 {\displaystyle \lambda ^{2}+2p\lambda +w^{2}} . El resultado de la ecuación dependerá de λ ± = p ± p 2 w 2 {\displaystyle \lambda _{\pm }=-p\pm {\sqrt {p^{2}-w^{2}}}} permitiéndonos separar en distintos casos:

  • Dos raíces reales: ( p 2 > w 2 ) {\displaystyle (p^{2}>w^{2})}

La solución será de la forma: x ( t ) = c 1 e ( p + p 2 w 2 ) t + c 2 e ( p p 2 w 2 ) t {\displaystyle x(t)=c_{1}e^{(-p+{\sqrt {p^{2}-w^{2}}})t}+c_{2}e^{(-p-{\sqrt {p^{2}-w^{2}}})t}}

  • Una raíz real doble: ( p 2 = w 2 ) {\displaystyle (p^{2}=w^{2})}

La solución será de la forma: x ( t ) = c 1 e p t + c 2 t e p t {\displaystyle x(t)=c_{1}e^{-pt}+c_{2}te^{-pt}}

  • Dos raíces complejas: ( p 2 < w 2 ) {\displaystyle (p^{2}<w^{2})}

La solución será de la forma: x ( t ) = c 1 e ( p ± i w 2 p 2 ) t {\displaystyle x(t)=c_{1}e^{(-p\pm i{\sqrt {w^{2}-p^{2}}})t}} que haciendo el mismo desarrollo en senos y cosenos de antes os queda x ( t ) = e p t ( c 1 c o s ( ( w 2 p 2 ) t ) + c 2 s e n ( ( w 2 p 2 ) t ) ) {\displaystyle x(t)=e^{-pt}(c_{1}cos(({\sqrt {w^{2}-p^{2}}})t)+c_{2}sen(({\sqrt {w^{2}-p^{2}}})t))}

Finalmente atenderemos a la ecuación no homogénea con unos términos concretos, los trigonométricos:

x + v m x + k m x = F 0 c o s ( β t ) {\displaystyle x''+{\frac {v}{m}}x+{\frac {k}{m}}x=F_{0}cos(\beta t)}

Dividiremos esta resolución en distintos apartados según el valor que le demos a las constantes:

  • v = 0 , β w {\displaystyle v=0,\beta \neq w} : Como solución al problema homogéneo tendremos x h ( t ) = c 1 c o s ( w t ) + c 2 s e n ( w t ) {\displaystyle x_{h}(t)=c_{1}cos(wt)+c_{2}sen(wt)} obtenida anteriormente. hora debemos encontrar una particular empleando el método de variación de parámetros haciendo que x p ( t ) = A c o s ( β t ) + B s e n ( β t ) {\displaystyle x_{p}(t)=Acos(\beta t)+Bsen(\beta t)} y que cumpla la ecuación F 0 c o s ( β t ) = x p + w 2 x p {\displaystyle F_{0}cos(\beta t)=x_{p}''+w^{2}x_{p}} . Obtenemos los parámetros A = F 0 w 2 β 2 ; B = 0 {\displaystyle A={\frac {F_{0}}{w^{2}-\beta ^{2}}};\quad B=0} que nos darán como solución al problema completo (el no homogéneo) x g ( t ) = x h ( t ) + x p ( t ) = c 1 c o s ( w t ) + c 2 s e n ( w t ) + F 0 w 2 β 2 c o s ( β t ) {\displaystyle x_{g}(t)=x_{h}(t)+x_{p}(t)=c_{1}cos(wt)+c_{2}sen(wt)+{\frac {F_{0}}{w^{2}-\beta ^{2}}}cos(\beta t)} .
  • v = 0 , β = w {\displaystyle v=0,\beta =w} : La resolución es de forma muy similar a la anterior, tendremos la misma solución al problema no homogéneo y usaremos el método de los parámetros para hallar la solución particular. Así obtendremos A = 0 ; B = F 0 2 w {\displaystyle A=0;\quad B={\frac {F_{0}}{2w}}} y la solución general por tanto: x g ( t ) = c 1 c o s ( w t ) + c 2 s e n ( w t ) + F 0 2 w t s e n ( w t ) {\displaystyle x_{g}(t)=c_{1}cos(wt)+c_{2}sen(wt)+{\frac {F_{0}}{2w}}tsen(wt)} .
  • v 0 {\displaystyle v\neq 0} : Mismo procedimiento que en los casos anteriores. En esta ocasión los parámetros son más complicados: A = F 0 ( w 2 β 2 ) ( w 2 β 2 ) 2 + 4 β 2 p 2 ; B = 2 F 0 β p ( w 2 β 2 ) + 4 β p 2 {\displaystyle A={\frac {F_{0}(w^{2}-\beta ^{2})}{\sqrt {(w^{2}-\beta ^{2})^{2}+4\beta ^{2}p^{2}}}};\quad B={\frac {2F_{0}\beta p}{(w^{2}-\beta ^{2})+4\beta p^{2}}}} . En este caso para la solución general deberemos tener en cuneta que tipo de solución tenemos al problema homogéneo. Pongamos que estamos en el caso de dos raíces reales dobles, entonces la solución general será: x g ( t ) = c 1 e p t + c 2 t e p t + F 0 ( w 2 β 2 ) ( w 2 β 2 ) 2 + 4 β 2 p 2 c o s ( β t ) + 2 F 0 β p ( w 2 β 2 ) + 4 β p 2 s e n ( β t ) {\displaystyle x_{g}(t)=c_{1}e^{-pt}+c_{2}te^{-pt}+{\frac {F_{0}(w^{2}-\beta ^{2})}{\sqrt {(w^{2}-\beta ^{2})^{2}+4\beta ^{2}p^{2}}}}cos(\beta t)+{\frac {2F_{0}\beta p}{(w^{2}-\beta ^{2})+4\beta p^{2}}}sen(\beta t)} .

Ejemplo de resolución mediante paso al sistema equivalente

  • Ejemplo donde el polinomio característico tiene dos raíces reales distintas

Dada la ecuación de segundo orden: d 2 x d t 2 + d x d t 2 x = 0 {\displaystyle {\frac {d^{2}x}{dt^{2}}}+{\frac {dx}{dt}}-2x=0} , tenemos que la matriz asociada es A = [ 0 1 2 1 ] {\displaystyle A={\begin{bmatrix}0&1\\2&-1\\\end{bmatrix}}} . El polinomio característico es | A λ I | = λ 2 + λ 2 {\displaystyle |A-\lambda I|=\lambda ^{2}+\lambda -2} . Las raíces de este polinomio son λ 1 = 2 ,   λ 2 = 1 {\displaystyle \lambda _{1}=-2,\ \lambda _{2}=1} y sus autovectores son, respectivamente, v 1 = [ 1 / 2 1 ] ,   v 2 = [ 1 1 ] . {\displaystyle {\overrightarrow {v_{1}}}={\begin{bmatrix}1/2\\-1\end{bmatrix}},\ {\overrightarrow {v_{2}}}={\begin{bmatrix}1\\1\end{bmatrix}}.} Por tanto la solución del sistema será [ x ( t ) x ( t ) ] = c 1   e 2 t [ 1 / 2 1 ] + c 2   e t [ 1 1 ] {\displaystyle {\begin{bmatrix}x(t)\\x'(t)\end{bmatrix}}=c_{1}\ e^{-2t}{\begin{bmatrix}1/2\\-1\end{bmatrix}}+c_{2}\ e^{t}{\begin{bmatrix}1\\1\end{bmatrix}}} , y la solución buscada sería x ( t ) = 1 2 c 1 e 2 t + c 2 e t {\displaystyle x(t)={\frac {1}{2}}c_{1}e^{-2t}+c_{2}e^{t}} . Además, x ( t ) = c 1 e 2 t + c 2 e t {\displaystyle x'(t)=-c_{1}e^{-2t}+c_{2}e^{t}} .

  • Ejemplo donde el polinomio característico tiene una raíz real doble

Dada la ecuación de segundo orden: d 2 x d t 2 + 2 d x d t + x = 0 {\displaystyle {\frac {d^{2}x}{dt^{2}}}+-2{\frac {dx}{dt}}+x=0} , tenemos que la matriz asociada es A = [ 0 1 1 2 ] {\displaystyle A={\begin{bmatrix}0&1\\-1&2\\\end{bmatrix}}} . El polinomio característico es | A λ I | = λ 2 2 λ + 1 {\displaystyle |A-\lambda I|=\lambda ^{2}-2\lambda +1} . La raíz de este polinomio es una raíz real doble λ = 1 {\displaystyle \lambda =1} . El autovector asociado es v = [ 1 1 ] {\displaystyle {\overrightarrow {v}}={\begin{bmatrix}1\\1\end{bmatrix}}} . La solución del sistema será [ x ( t ) x ( t ) ] = c 1   e t [ 1 1 ] + c 2 (   t e t [ 1 1 ] +   e t [ 1 0 ] ) {\displaystyle {\begin{bmatrix}x(t)\\x'(t)\end{bmatrix}}=c_{1}\ e^{t}{\begin{bmatrix}1\\1\end{bmatrix}}+c_{2}(\ te^{t}{\begin{bmatrix}1\\1\end{bmatrix}}+\ e^{t}{\begin{bmatrix}-1\\0\end{bmatrix}})} , y la solución buscada sería x ( t ) = c 1 e t + c 2 ( t e t e t ) {\displaystyle x(t)=c_{1}e^{t}+c_{2}(te^{t}-e^{t})} .

  • Ejemplo donde el polinomio característico tiene dos raíces complejas conjugadas

Dada la ecuación de segundo orden: d 2 x d t 2 + x = 0 {\displaystyle {\frac {d^{2}x}{dt^{2}}}+x=0} , tenemos que la matriz asociada es A = [ 0 1 1 0 ] {\displaystyle A={\begin{bmatrix}0&1\\-1&0\\\end{bmatrix}}} . El polinomio característico es | A λ I | = λ 2 + 1 {\displaystyle |A-\lambda I|=\lambda ^{2}+1} . Las raíces de este polinomio son dos raíces complejas conjugadas λ ± = ± i {\displaystyle \lambda _{\pm }=\pm i} . Los autovectores asociados son v + = [ i 1 ] ,   v = [ i 1 ] {\displaystyle {\overrightarrow {v_{+}}}={\begin{bmatrix}i\\-1\end{bmatrix}},\ {\overrightarrow {v_{-}}}={\begin{bmatrix}i\\1\end{bmatrix}}} . Por lo que la solución del sistema sería [ x ( t ) x ( t ) ] = c 1   e i t [ i 1 ] + c 2   e i t [ i 1 ] {\displaystyle {\begin{bmatrix}x(t)\\x'(t)\end{bmatrix}}=c_{1}\ e^{it}{\begin{bmatrix}i\\-1\end{bmatrix}}+c_{2}\ e^{-it}{\begin{bmatrix}i\\1\end{bmatrix}}} . La solución buscada sería x ( t ) = i c 1 e i t + i c 2 e i t = i ( c 1 e i t + c 2 e i t ) = i [ ( c 1 + c 2 ) cos ( t ) + ( c 1 c 2 ) sen ( t ) ] {\displaystyle x(t)=ic_{1}e^{it}+ic_{2}e^{-it}=i(c_{1}e^{it}+c_{2}e^{-it})=i[(c_{1}+c_{2})\cos(t)+(c_{1}-c_{2})\operatorname {sen}(t)]} .

Tomando c 1 = c 2 = i 2 {\displaystyle c_{1}=c_{2}={\frac {-i}{2}}} se obtiene la solución x 1 ( t ) = cos ( t ) {\displaystyle x_{1}(t)=\cos(t)} , y tomando c 1 = c 2 = i 2 {\displaystyle c_{1}=-c_{2}={\frac {-i}{2}}} la solución, linealmente independiente de la anterior, x 2 ( t ) = sen ( t ) {\displaystyle x_{2}(t)=\operatorname {sen}(t)} . Cualquier combinación lineal de estas, x ( t ) = k 1 sen ( t ) + k 2 cos ( t ) , {\displaystyle x(t)=k_{1}\operatorname {sen}(t)+k_{2}\cos(t),} será también solución.

Referencias

Bibliografía

  • Zill, Dennis G. (2006). Ecuaciones diferenciales con aplicaciones (2ª edición). Grupo Editorial Iberoamérica. 
  • Aranda Iriarte, José Ignacio (2008). Apuntes de ecuaciones diferenciales I. Universidad Complutense de Madrid. Archivado desde el original el 15 de febrero de 2017. Consultado el 4 de abril de 2016. 
  • Birkhoff, Garrett; Rota, Gian-Carlo (1978). Ordinary Differential Equations. John Wiley and Sons, Inc. ISBN 0-471-07411-X. 
  • Blanchard, P.; Devaney, R.L. (2012). Differential equations. Cengage Learning. 
  • Gershenfeld, Neil (1999). The Nature of Mathematical Modeling. Cambridge University Press. ISBN 978-0-521-57095-4. 
  • Robinson, James C. (2004). An Introduction to Ordinary Differential Equations. Cambridge University Press. ISBN 0-521-82650-0. 
  • Simmons, G.F. (2016). Differential equations with applications and historical notes. CRC Press. 
  • Teschl, G. (2012). Ordinary equations and dynamical systems. American Mathematical Society. ISBN 978-0-8218-8328-0. 
  • Hubbard, J.H.; West, B.H. (2013). Differential equations: A dynamical systems approach. Springer. 
  • Gil, O. (1999). Curso introductorio a las ecuaciones diferenciales. Facultad de ingeniería de la Universidad de la República de Uruguay. 

Véase también

Enlaces externos

  • Soluciones exactas de Ecuaciones Diferenciales Ordinarias
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q1129902
  • Identificadores
  • BNF: 12138522v (data)
  • GND: 4206889-7
  • LCCN: sh85037903
  • NKC: ph192875
  • NLI: 987007553019005171
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q1129902