Límites y exponenciales de matrices (excluyendo programa ECG)

Límites y exponenciales de matrices (excluyendo programa ECG)
Límites y exponenciales de matrices (excluyendo programa ECG)
-

Los candidatos dirigidos a las tres parisinas deben trabajar prioritariamente los conceptos extracurriculares. Este artículo te invita a descubrir los límites y exponenciales de las matrices, que ya han aparecido en varios temas de competición, para ayudarte a comprenderlos mejor si te enfrentas a este tema un día de competición. También te permitirá realizar el vínculo con la noción de densidad de un conjunto.

Límites de la matriz

Establecemos un número entero (pinmathbb N^*).

Recordatorios

El producto escalar canónico en (mathcal M_p(mathbb R)), también llamado producto escalar de Frobenius, se define por
[forall A,Binmathcal M_p(mathbb R), quad langle A,Brangle = text{Tr}({}^tAB)]

Además, si anotamos (A=(a_{i,j})) y (B=(b_{i,j})), tenemos: (langle A,Brangle =displaystyle sum_{i=1}^psum_{j=1}^p a_{i,j}b_{i,j}).

Luego podemos definir la norma en (mathcal M_p(mathbb R)) asociada con este producto escalar:
[forall Ainmathcal M_p(mathbb R), quad |A| = sqrt{text{Tr}({}^tAA)} = displaystyle sqrt{sum_{i=1}^psum_{j=1}^p a_{i,j}^2}]

Atención : en ocasiones el sujeto puede introducir otra norma en (mathcal M_p(mathbb R)). Por ejemplo, si escribimos (A=(a_{i,j})), las fórmulas (|A|_infty=max_{1leq i,jleq p}| a_{ i,j}|), o incluso (|A|_1=sum_{i=1}^psum_{j=1}^p |a_{i,j}|) definen otros dos normas en (mathcal M_p(mathbb R)).

Para este artículo tomaremos la norma de Frobenius. ¡Pero el día de una competición hay que saber adaptarse a las normas del enunciado!

Dos definiciones del límite de una secuencia de matrices

Daremos aquí las dos definiciones principales de la noción de límite de matrices, que probablemente vendrán dadas por el enunciado en un tema de competencia. Demostraremos que en realidad son equivalentes.

Arreglamos ((A_n)_{ninmathbb N}) una secuencia de matrices de (mathcal M_p(mathbb R)) y (A) una matriz de (mathcal M_p ( mathbbR)).

Versión 1 (la de HEC 2007)

Decimos que ((A_n)) converge a (A) cuando (lim_{nto+infty}|A_n-A|=0).

En esta versión, debemos entender claramente qué tiende (|A_n-A|) hacia 0. La norma de una diferencia puede interpretarse como la “distancia” entre estos dos elementos (incluso si la noción de distancia entre matrices no es muy intuitivo).

Por lo tanto, estamos diciendo que cuanto mayor es (n), más “cercanos” están (A_n) y (A).

Versión 2 (la de EDHEC 2014)

Establecemos (A_n=(a_{i,j}^{(n)})) y (A=(a_{i,j})). Decimos que ((A_n)) converge a (A) cuando para todo ((i,j)in{1,dots,p}^2), la secuencia ((a_ {i,j}^{(n)})_{ninmathbb N}) converge a (a_{i,j}).

En esta versión, decimos que una secuencia de matrices ((A_n)) converge cuando cada uno de los coeficientes de la secuencia tiene un límite finito cuando (nto+infty). Y el límite de la secuencia es entonces la matriz que se obtiene agrupando todos los límites de los coeficientes en una matriz (A).

Tenga en cuenta que en la segunda versión, está bastante claro que el límite de una matriz, si existe, es único. De hecho, si tuviéramos dos matrices límite distintas, esto contradiría la unicidad del límite en (mathbb R).

Estas dos definiciones son de hecho equivalentes.

Demostremos esto por doble implicación.

((Leftarrow)) Supongamos que para todo ((i,j)in{1,dots,p}^2), (lim_{nto+infty} a_{i ,j}^{(n)} = a_{i,j}).

Entonces para todo ((i,j)in{1,dots,p}^2), (lim_{nto+infty} (a_{i,j}^{(n) }-a_{i,j})=0), entonces:
[|A_n-A|=left(sum_{i=1}^psum_{j=1}^p(a_{i,j}^{(n)}-a_{i,j})^2right)^{1/2}underset{nto+infty}longrightarrow 0]

((Rightarrow)) Supongamos (lim_{nto+infty}|A_n-A|=0).

Sea ((i,j)in{1,dots,p}^2). Para todo ((k,ell)in{1,dots,p}^2), ((a_{k,ell}^{(n)}-a_{k,ell })^2geq 0), por lo tanto:
[0leq (a_{i,j}^{(n)}-a_{i,j})^2leq sum_{k=1}^psum_{ell=1}^p(a_{k,ell}^{(n)}-a_{k,ell})^2 underset{nto+infty}longrightarrow 0]

Por lo tanto, al formular: (lim_{nto+infty} a_{i,j}^{(n)} = a_{i,j}).

Por tanto, para la norma de Frobenius, las dos definiciones son equivalentes.

Te dejaré comprobar que este sigue siendo el caso para los estándares (|cdot|_1) y (|cdot|_infty).

Algunos resultados conocidos sobre límites matriciales

1/ Límite de una suma/producto de matrices

a) Si ((A_n)_{ninmathbb N}) y ((B_n)_{ninmathbb N}) son dos secuencias de (mathcal M_p(mathbb R) ) tal que (lim_{nto+infty} A_n=A) y (lim_{nto+infty} B_n=B), entonces:
[ lim_{nto+infty} (A_n+B_n)=A+B ]

Evidencia :

Sea ((i,j)in{1,dots,p}^2). Se tiene ( [A_n + B_n]_{i,j} = a_{i,j}^{(n)} + b_{i,j}^{(n)} underset{nto+infty}longrightarrow a_{i,j} + b_ {i,j} = [A+B]_{i,j} ) de ahí el resultado.

b) Ejercicio: demuestra que de manera similar, el límite de un producto de sucesiones convergentes de matrices es el producto de los límites.

2/ (text{GL}_p(mathbb R)) es denso en (mathcal M_p(mathbb R))

Cualquier matriz de (mathcal M_p(mathbb R)) es el límite de una secuencia de matrices invertibles.

Evidencia :

Sea (Ainmathcal M_p(mathbb R)).

Entonces (A) admite como máximo (p) valores propios distintos.

Por lo tanto, existe como máximo un número finito de números enteros (n) tales que (frac1n) es el valor propio de (A).

Por lo tanto, existe un rango (n_0inmathbb N^*) tal que para todo (ngeq n_0), la matriz (A-frac1n I_p) es invertible.

Establecemos (A_n=I_p) si (n< p>

La secuencia ((A_n)) es por tanto una secuencia de matrices invertibles, y además tenemos para todo (ngeq n_0):
[ A_n = begin{pmatrix} a_{1,1} – frac1n & a_{1,2} & cdots & cdots & a_{1,p} \ a_{2,1} & a_{2,2} – frac1n & & & vdots \ vdots & & ddots & & vdots \ vdots & & & a_{p-1,p-1} – frac1n & a_{p-1,p} \ a_{p,1} & cdots & cdots & a_{p,p-1} & a_{p,p} – frac1n end{pmatrix} underset{nto+infty}longrightarrow begin{pmatrix} a_{1,1} & a_{1,2} & cdots & cdots & a_{1,p} \ a_{2,1} & a_{2,2} & & & vdots \ vdots & & ddots & & vdots \ vdots & & & a_{p-1,p-1} & a_{p-1,p} \ a_{p,1} & cdots & cdots & a_{p,p-1} & a_{p,p} end{pmatrix} = A ]

Exponenciales de matrices

Sea (Ainmathcal M_p(mathbb R)) fijo. Nos interesa la convergencia de la secuencia de matrices definida por:
[ forall ninmathbb N, quad A_n = sum_{k=0}^n frac{1}{k!} A^k ]

Nótese la similitud de esta expresión con la de la serie exponencial.

Cuando esta secuencia converge, como se especificó anteriormente, su límite es único y anotamos (exp(A)) su límite.

Algunos ejemplos importantes

Ejemplo 1

Si (A) es cero, (exp(A)) existe y vale (I_p). De hecho, para todo (kgeq 1), (A^k=0) y además (A^0=I_p).

Ejemplo 2

Si (A=I_p) esta vez, (exp(I_p)) existe y vale (eI_p).

En efecto :
[forall ninmathbb N, quad A_n = begin{pmatrix} sum_{k=0}^n frac{1}{k!} & 0 & cdots & cdots & 0 \ 0 & sum_{k=0}^n frac{1}{k!} & & & vdots \ vdots & & ddots & & vdots \ vdots & & & sum_{k=0}^n frac{1}{k!} & 0 \ 0 & cdots & cdots & 0 & sum_{k=0}^n frac{1}{k!} end{pmatrix} ]

Y así, según la fórmula de la serie exponencial, el límite de cada uno de los coeficientes diagonales es (e), por lo (lim_{nto+infty}A_n=eI_p).

Ejemplo 2a

En realidad, con el mismo razonamiento, podemos demostrar que para cualquier matriz diagonal (D=text{diag}(lambda_1,dots,lambda_p)), existe la matriz (exp(D)) y es igual a (text{diag}(e^{lambda_1},dots,e^{lambda_p})).

¡De ti depende demostrarlo!

Ejemplo 3

Esta vez asumimos que (A) es una matriz diagonalizable.

Existe (Pintext{GL}_p(mathbb R)) y ((lambda_1,dots,lambda_p)inmathbb R^p) tales que (A=PDP^ {-1}) con (D=text{diag}(lambda_1,dots,lambda_p)).

Entonces :
[A_n = sum_{k=0}^n frac{1}{k!} A^k = sum_{k=0}^n frac{1}{k!} P D^k P^{-1} = P sum_{k=0}^n frac{1}{k!} D^k P^{-1} ]
Además, según el ejemplo 2 bis, (lim_{nto+infty} sum_{k=0}^n frac{1}{k!} D^k = text{diag} (e^{ lambda_1},dots,e^{lambda_p})).

Por lo tanto, ((A_n)) converge: por lo tanto (exp(A)) existe y vale (Ptimes text{diag}(e^{lambda_1},dots,e^{ lambda_p }) times P^{-1}).

Caso general

Demostraremos que toda matriz admite una exponencial.

Para cualquier matriz (A=(a_{i,j})inmathcal M_p(mathbb R)), establecemos:
[m_A = max_{1leq i,jleq p} |a_{i,j}|]

Sea (A=(a_{i,j}),B=(b_{i,j})inmathcal M_p(mathbb R)). Demostremos que (m_{AB}leq pm_Am_B).

Sea ((i,j)in{1,dots,p}^2). Tenemos (displaystyle |[AB]{i,j}| = izquierda| sum_{k=1}^p a_{i,k} b_{k,j} right|), por lo tanto, por desigualdad triangular:
[|[AB]{i,j}| leq sum_{k=1}^p |a_{i,k}| |b_{k,j}| leq sum_{k=1}^p m_Am_B = pm_Am_B]

Tomando el máximo obtenemos (m_{AB}leq pm_Am_B).

Por recurrencia inmediata, deducimos para todo (kinmathbb N^*), (m_{A^k}leq p^{k-1} m_A^k).

Establezcamos ((i,j)in{1,dots,p}^2).

De lo anterior deducimos que (|[A^k]_{i,j}|leq p^{k-1} m_A^k). De donde :
[0leqleft|left[frac1{k!}A^kright]_{i,j}right|leq frac1ptimes frac{(pm_A)^k}{k!}]

Ahora, la serie (sum_{kgeq 0} frac{(pm_A)^k}{k!}) es una serie exponencial convergente (aquí series de números reales), por lo tanto (sum_{k) geq 0} izquierda[frac1{k!}A^kright]_{i,j}) converge absolutamente, por lo tanto converge.

En otras palabras, la secuencia de sumas parciales (left(left[frac1{0!}A^0+cdots+frac1{n!}A^nright]_{i,j}right)_{ninmathbb N^*}) converge.

Por lo tanto, la secuencia de matrices definida por (A_n=sum_{k=0}^nfrac1{k!}A^k) converge, de ahí la existencia de (exp(A)) .

Conclusión

Como ocurre con todos los temas no curriculares, sería una pérdida de tiempo memorizar estos resultados. Es mejor intentar comprender la secuencia de argumentos. Por otro lado, si quieres poner a prueba tu comprensión sobre este tema, te recomiendo que realices las siguientes materias:

  • Ecricome 2004 ECE (ejercicio 2), que estudia las propiedades de las matrices exponenciales en los casos particulares de una matriz nilpotente y luego de una matriz diagonalizable.
  • HEC 2007 matemáticas 1 ECS, que estudia exponenciales para un estándar diferente al que utilizamos en este artículo. Ojo, este es un tema difícil.

-

PREV Omega quiere invertir varios millones de francos en Bienne
NEXT El grupo Casino, en graves dificultades financieras, vendió 121 establecimientos a Auchan, Les Mousquetaires y Carrefour.