sábado, 29 de octubre de 2016

Los cuatros espacios fundamentales de una matrix

Cada que se considera una matriz $A\in \mathbb{F}^{n,m}$, donde $\mathbb{F}$ puede ser $\mathbb{R}$ o $\mathbb{C}$, esta inducen naturalmente dos aplicaciones lineales $A:\mathbb{F}^{m}\to \mathbb{F}^{n}$ y $A^{\top}:\mathbb{F}^{n}\to \mathbb{F}^{m}$, las que cuales permiten determinar cuatro subespacios vectoriales, dos subespacios vectoriales en $\mathbb{F}^{n}$ y dos subespacios vectoriales en $\mathbb{F}^{m}$, conocidos usualmente como espacio nulo, espacio fila, espacio nulo izquierdo y espacio columna de $A$ respectivamente. Por lo tanto el objetivo en esta ocasión es estudiar estos conjuntos y las relaciones entre ellos.

Para comenzar veamos la definición de nulo y rango de una matriz $A$. El espacio nulo de la aplicación $A:\mathbb{F}^m\to \mathbb{F}^n$ es el conjunto $N(A)\subseteq \mathbb{F}^{m}$ dado por \begin{equation} N(A)=\{x\in \mathbb{F}^{n}:Ax=0\} \end{equation} y el espacio column o rango es el conjunto $R(A)\subseteq \mathbb{F}^{n}$ dado por \begin{equation} R(A)=\{y\in \mathbb{F}^{n}:y=Ax, \forall\,x\in \mathbb{F}^{m}\}. \end{equation}

En la Figura 1 se muestra el espacio nulo y el espacio rango asociados con la matriz $A$. En el gráfico se puede apreciar que para la función $A:\mathbb{F}^{m}\to \mathbb{F}^{n}$ el espacio nulo es un subconjunto de $\mathbb{F}^{m}$, mientras que el espacio columna es un subconjunto de $\mathbb{F}^{n}$. Recuerda que la ecuación homogénea $Ax=0$ siempre tiene como solución trivial $x=0$. Esta propiedad implica que $O_{_{\mathbb{F}^{m}}}\in \mathbb{F}^{m}$ también pertenece a $N(A)$ y $O_{_{\mathbb{F}^{n}}}\in \mathbb{F}^{n}$ también pertenece a $R(A)$.

Figura 1. El nulo y el rango de la aplicación $A:\mathbb{F}^m\to \mathbb{F}^n$.

El lector puede observar que realmente $A$ tiene «cuatro subespacios vectoriales» asociados que son $N(A)$, $R(A)$, $N(A^{\top})$ y $R(A^\top)$. Observe que el espacio nulo y el espacio columna son subespacios de espacios diferentes. Más precisamente una matriz $A\in \mathbb{F}^{m,n}$ define las aplicaciones $A:\mathbb{F}^{m}\to \mathbb{F}^{n}$, $A^{\top}:\mathbb{F}^{n}\to \mathbb{F}^{m}$ y los conjuntos $N(A)$, $R(A^\top)\subseteq \mathbb{F}^{m}$ y $N(A^\top), R(A)\subseteq \mathbb{F}^{n}$.

En efecto para ver que $N(A)$, $R(A)$, $N(A^{\top})$ y $R(A^\top)$ son subespacios vectoriales, recordemos que un subconjunto $U\subset \mathbb{F}^{m}$ es cerrado bajo combinaciones lineales si para cada par de elementos $x,y\in U$ y todos los escalares $a, b\in \mathbb{F}$ se tiene que $ax+by\in U$.

Los conjunto $N(A)$ y $R(A)$ son cerrados bajo combinaciones lineales dado la función inducida por $A$ es una transformación lineal. En efecto, considere dos elementos arbitrarios $x_{_1}, x_{_2}\in N(A)$, entonces $Ax_{_1}=0$ y $Ax_{_2}=0$. Entonces, para cualquier par de elementos $a,b\in \mathbb{F}$ se tiene \begin{equation} A(ax_{_1}+bx_{_2})=aAx_{_1}+bAx_{_2}=0 \end{equation} por lo tanto $(ax_{_1}+bx_{_2})\in N(A)$. Por lo tanto, $N(A)\subseteq \mathbb{F}^m$ es cerrado bajo combinaciones lineales. Análogamente, considere dos elementos $y_{_1}, y_{_2}\in R(A)$, esto es, existe $x_{_1}, x_{_2}\in \mathbb{F}^{m}$ tal que $y_{_1}=Ax_{_1}$ y $y_{_2}=Ax_{_2}$. Entonces, para cualquier $a, b\in \mathbb{F}$ se tiene \begin{equation} (ay_{_1}+by_{_2})=aAx_{_1}+bAx_{_2}=A(ax_{_1}+bx_{_2}) \Rightarrow (ay_{_1}+by_{_2})\in R(A). \end{equation} Por lo tanto, $(A)\subset \mathbb{K}^{n}$ es cerrado bajo combinaciones lineales.

Por otro lado si $A=[A_{_{:1}},\dots, A_{_{:n}}]$, entonces cualquier elemento $y\in R(A)$ puede ser expresado como $y=Ax$ para algún $x\in \mathbb{F}^{n}$, esto es, \begin{equation} y=Ax =[A_{_{:1}},\dots, A_{_{:n}}]\left[\begin{array}{c} x_{_1}\\ \vdots \\ x_{_n} \end{array}\right]=A_{_{:1}}x_{_1}+\cdots + A_{_{:n}}x_{_n}\in gen(\left\{A_{_{:1}}x_{_1},\dots, A_{_{:n}}x_{_n}\right\}). \end{equation} Por está razón es que el espacio columna y el rango son el mismo espacio. El lector puede verificar que cualquier elemento de la forma $y=A_{_{:1}}x_{_1}+\cdots + A_{_{:n}}x_{_n}$ es también un elemento de $R(A)$, por lo tanto $y=Ax$.

El nulo y el rango de una matriz cuadrada caracterizan si la matriz es invertible o no. Esto se establece en el siguiente resultado:

Teorema 1. Dada una matriz $A\in \mathbb{F}^{n,n}$, entonces las siguientes afirmaciones son equivalentes:
  • La matriz $A^{-1}$ existe;
  • $N(A)=\{0\}$;
  • $R(A)=\mathbb{F}^{n}$.

Veamos ahora algunas de las relaciones que existen entre los cuatro espacios asociados a un par de matrices $A$ y $B$, tales que la matriz $B$ se pueda obtener mediante operaciones de fila sobre la matriz $A$. Asumiendo la siguiente notación: $A\stackrel{fila}{\longleftrightarrow}B$ para indicar que la matriz $A$ se puede transformar en la matriz $B$ mediante operaciones de Gauss sobre las filas de $A$. Entonces se tiene el siguiente teorema:

Teorema 2. Sea la matrices $A, B \in \mathbb{R}^{m,n}$, entonces:
  • $A\stackrel{fila}{\longleftrightarrow}B\Longleftrightarrow N(A)=N(B)$;
  • $A\stackrel{fila}{\longleftrightarrow}B\Longleftrightarrow R(A^\top)=R(B^\top)$.

Es fácil de ver que este último resultado es verdadero, dado que las operaciones de Gauss no cambian las soluciones de sistemas lineales, por lo que el sistema lineal $Ax = 0$ tiene exactamente las mismas soluciones de $x$ como el sistema lineal $Bx = 0$, es decir, $N (A) = N (B)$. La segunda propiedad también es cierta, ya que las operaciones de Gauss en las filas de $A$ son equivalentes a las operaciones de Gauss sobre las columnas de $A^{\top}$. Ahora bien, es fácil de ver que cada una de las operaciones de Gauss sobre las columnas de $A^{\top}$ no cambian el $R(A^{\top})$, por lo tanto, $R(A^{\top})=R(B^{\top})$.

Sin embargo no podemos pensar que el párrafo anterior es suficiente para una prueba del teorema. Veamos una presentación más detallada de las ideas anteriores. Una forma es utilizar la multiplicación de matrices para expresar la propiedad de que las operaciones de Gauss no cambian las soluciones de sistemas lineales. Uno puede probar lo siguiente: Si se tiene las matrices $A$ y $B$ de orden $n\times m$ relacionadas por las operaciones de Gauss en sus filas, entonces existe una matriz $G$ de orden $m × m$ invertible $GA = B$. La prueba de esta propiedad es simple. Cada una de las operaciones de Gauss se asocia con una matriz invertible, $E$, llamada una matriz de Gauss elemental. Cada matriz de Gauss elemental es invertible, ya que cada operación de Gauss siempre se puede revertir. El resultado de varias operaciones de Gauss sobre una matriz $A$ es el producto de las matrices de Gauss elementales apropiados en el mismo orden que se realizan las operaciones de Gauss. Si se obtiene la matriz $B$ de la matriz $A$, haciendo operaciones de Gauss dadas por matrices $E_{_i}$, para $i = 1,\dots k$, en ese orden, podemos expresar el resultado del método de Gauss de la siguiente manera: \begin{equation} E_{_k}\cdots E_{_1}A=B\hspace{0.5cm} G=E_{_k}\cdots E_{_1} \Longrightarrow GA =B. \end{equation} Donde cada matriz elemental de Gauss es una matriz invertible, y por lo tanto $G$ también es invertible.

Considere dos matrices $A$ y $B$ de orden $m\times n$ estan relacionadas por operaciones de Gauss en sus filas, entonces existe una matriz de orden $G$ de orden $m\times m$ tal que $GA = B$. Esta observación es la clave para mostrar que $N(A) = N(B)$, ya que dado cualquier elemento $x \in N(A)$ \begin{equation} Ax=0\Longleftrightarrow GAx=0, \end{equation} donde la equivalencia se sigue del hecho de que $G$ es invertible. Entonces es simple (¡Lo simple es una provocación para que tu lo verifiques!) ver que \begin{equation} 0=GAx=Bx \Longleftrightarrow x\in N(B). \end{equation} Por lo tanto, se tiene que $N(A)=N(B)$. Ahora veamos la afirmación apuesta. Si $N(A)=N(B)$ esto significa que sus formas escalonada reducidas $E_{_A}, E_{_B}$ son los mismas, es decir, $E_{_A}=E_{_B}$. Esto significa que existen operaciones de Gauss en las filas $A$ que la transforman en la matrix $B$

Ahora mostraremos que $R(A^{\top})= R(B^{\top})$. Considere un elemento $x\in R(A^{\top})$, entonces existe un elemento $y\in \mathbb{F}^{m}$ tal que \begin{equation} x=A^{\top}y = A^{\top}G^{\top}(G^{\top})^{-1}y=(GA)^{\top}\bar{y}=B^{\top}\bar{y},\hspace{0.5cm} \bar{y}=(G^{\top})^{-1}\bar{y} \end{equation} Veamos que dado un $x\in R(A^{\top})$, entonces $x\in R(B^{\top})$, esto es, $R(A^{\top})\subset R(B^{\top})$. La implicación opuesta se prueba de igual forma: Considere $x\in R(B^{\top})$ entonces existe $\bar{y}\in \mathbb{F}^{m}$ tal que \begin{equation} x=B^{\top}\bar{y}=B^{\top}(G^{\top})^{-1}G^{\top}\bar{y}=(G^{-1}B)^{\top}y=A^{\top}y,\hspace{0.5cm} y=G^{\top}\bar{y}. \end{equation} Por lo tanto se ha mostrado que para cualquier $x\in R(B^{\top})$, entonces $x\in R(A^{\top})$, es decir, $R(B^{\top})\subset R(A^{\top})$. Por lo tanto $R(A^{\top})=R(B^{\top})$. Ahora si se asume que $R(A^{\top})=R(B^{\top})$. Esto quiere decir que cada fila de $A$ es una combinación lineal de las filas de $B$. Es to quiere decir, quiere decir que existe operaciones de Gauss sobre las filas de $A$ que transforma a $A$ en $B$. Y por lo tanto con eso se establece el resultado final del teorema 2.

Un argumento similar también dice que $E_{_A^{\top}}=E_{_{B^{\top}}}$ si y solo si $A^{\top}\stackrel{fila}{\longleftrightarrow} B^{\top}$. También se puede concluir que $E_{_{A^{\top}}}=E_{_{B^{\top}}}$ es equivalente a $R(A)=R(B)$ y esto también es equivalente a $N(A^{\top})=N(B^{\top})$.

Otro resultado con respecto a la transpuesta de $A$ dice:

Teorema 3.Para cada matriz $A\in \mathbb{F}^{n,m}$ se cumple que $\dim R(A)=\dim R(A^{\top})$.
Sabiendo que una matriz se dice que es de rango completo si y solo si $\dim R(A)=\min(m,n)$. Entonces podemos enunciar el siguiente teorema donde se establecen algunas de las relaciones principales del los cuatros espacios fundamentales.
Teorema 3. Si una matriz $A\in \mathbb{F}^{n,m}$ es de rango completo, entonces:
  • Si $m=n$, entonces: \[\dim R(A)=\dim R(A^{\top})=n=m\Leftrightarrow \{0_{_{\mathbb{F}^{m}}}\}=N(A)=N(A^{\top})\subset \mathbb{F}^{m};\]
  • Si $n < m$, entonces: \[\dim R(A)=\dim R(A^{\top})=n < m \Leftrightarrow \left\{\begin{array}{l} \{0_{_{\mathbb{F}^{m}}}\}\varsubsetneq N(A)\subset \mathbb{F}^{m},\\ \{0_{_{\mathbb{F}^{n}}}\}=N(A^{\top})\subset \mathbb{F}^{n};\end{array}\right.\]
  • Si $m>n$, entonces: \[ \dim R(A)=\dim R(A^{\top})= m < n \Leftrightarrow \left\{\begin{array}{l} \{0_{_{\mathbb{F}^{m}}}\}= N(A)\subset \mathbb{F}^{m},\\ \{0_{_{\mathbb{F}^{n}}}\}\varsubsetneq N(A^{\top})\subset \mathbb{F}^{n}; \end{array}\right.\]

Recordemos que el rango de una matriz $A$ es el número de pivotes columna de la matriz escalonada reducida $E_{_A}$ y que coincide con la dimensión de $R(A)$. Si una matriz $A$ de orden $m\times n$ tiene $rang(A)=n$, esto quiere decir dos cosas: Primero, $n\leq m$; y segundo, que cada columna de $E_{_A}$ tienes un pivote. Es decir, que no hay variables libres en la solución de la ecuación $Ax=0$, y así $x=0$ es la única solución. Por lo tanto $N(A)=0$. Por otro lado al estudiar $N(A^{\top})$ es necesario considerar dos casos $n=m$ o $n

Figura 2. Relaciones entre los cuatro espacios fundamentales de $A:\mathbb{F}^m\to\mathbb{F}^n$.

Para terminar enunciamos el siguiente resultado que relaciona las dimensiones de los espacios nulos y el rango de una transformación lineal en espacios vectoriales de dimensión finita. Este resultado se suele llamar Teorema de la Nulidad y el Rango, donde la nulidad de una transformación lineal es la dimensión de su espacio nulo, y el rango es la dimensión de su espacio de columna. Este resultado también se le conoce como el Teorema de la Dimensión.

Teorema 4. Para cada transformación lineal $T:V\to W$ entre espacios vectoriales $V$ y $W$ se cumple que \begin{equation} \dim N(T)+\dim R(T) = \dim V. \end{equation}

Si consideramos el producto punto de dos vectores $u, v\in \mathbb{F}^{m}$ como el producto matricial definido por $u\cdot v =u^{\top}v$. Podemos observar lo siguiente: \begin{equation} Ax=\left[\begin{array}{c} A_{_{1:}}x\\ \vdots \\ A_{_{m:}}x \end{array}\right] \end{equation} Note que las filas $A$ son las columnas de $A^{\top}$ por lo tanto $A^{\top}_{_{i:}}\cdot x= A_{_{i*}}x$ Si $x\in N(A)$, entonces se puede concluir que $N(A)$ es el complemento ortogonal de $R(A^{\top})$, por lo tanto $N(A)\cap R(A^{\top})=\emptyset$. Por otro lado si la dimensión de $\dim R(A)=r$ entonces la dimensión del nulo $\dim N(A) = m-r$. Y $\dim R(A^{\top})=r$ luego $\dim N(A^{\top})=n-r$. Note que $\dim N(A)\oplus R(A^{\top}) = m$ y $\dim N(A^{\top})\oplus R(A) = n$ es decir que $ N(A)\oplus R(A^{\top})\cong \mathbb{F}^{m}$ y $N(A^{\top})\oplus R(A) \cong \mathbb{F}^{n}$. Estas relaciones se resumen en la Figura 2.

Bueno, ya nos hemos extendido los suficiente por esta ocasión. Esperamos que aprovechen mucho este post.

Referencias

viernes, 7 de octubre de 2016

Diferencias finitas y el problema de valor de frontera de segundo orden

Se sabe que las ecuaciones diferenciales ordinarias permiten describir una gran variedad de problemas y fenómenos que surgen en las matemáticas, la física, la química, la economía, etc. Por lo cual hay un gran interés por encontrar soluciones a este tipo de problemas. Por lo tanto el objetivo de esta entrada es mostrar como encontrar soluciones aproximadas al problema de valor de frontera de segundo orden (PVF2) mediante diferencias finitas.

El problema que vamos a abordar en esta ocasión es el PVF2, definido como: \begin{equation}\left\{\begin{array}{l} y''=f(x,y,y'),\\ y(a)=\alpha,\\ y(b)=\beta. \end{array}\right. \end{equation} Lo anterior también se puede expresar de la siguiente forma \begin{equation}\label{eq02} y''(x)=p(x)y'(x)+q(x)y(x)+r(x),\,a\leq x\leq b,\, y(a)=\alpha,\, y(b)=\beta, \end{equation} en este caso se dice que el PVF2 es de tipo lineal, en caso contrario, se dice que el PVF2 es del tipo no lineal. Este tipo de problemas son muy comunes en la ciencias básicas o en ingeniería. Sin embargo, su principal dificultad radica en que la solución a dichos problemas no es sencilla. Debido a esto, resulta importante definir métodos numéricos para dar estimaciones numéricas de las soluciones. Existe una gran diversidad de métodos para hacer esto: el método del disparo, el método de elementos finitos, el método de Galerkin discontinuo, el método de diferencias finitas, etc. Aquí solo nos vamos a centrar en el método de diferencias finitas.

El método de diferencias finitas se basa en la idea de aproximar las derivadas que aparecen en el PVF2 mediante una partición del intervalo $[a, b]$. A menudo a estas particiones se le denominan mallas o grillas. Una vez que se hace estas aproximaciones, se sustituyen en la ecuación diferencial del PVF2 y posteriormente se resuelve un sistema de ecuaciones lineales o no lineales, esto depende de si el PVF2 es lineal o no.

El caso lineal

En el caso del problema $\eqref{eq02}$, se procede a discretizar el intervalo $[a,b]$ en una malla o grilla de puntos $a=x_{_{0}} < x_{_{1}} < \cdots < x_{_{n+1}}=b$, en la cual $x_{_{i+1}}-x_{_i}=h$, para todo $i=0,\dots, n$. En general los puntos no necesitan estar distribuidos de esta manera.

En los puntos de la forma $x_{i}=a+ih$ con $i=1,2,\dots,n$. Así la ecuación diferencial a aproximar es \begin{equation}\label{eq:03} y''(x_{_i})= p(x_{_{i}})y'(x_{_i})+q(x_{_i})y(x_{_i})+r(x_{_i}). \end{equation} Ahora empleando el polinomio de Taylor de orden 3 para $y(x)$, alrededor de $x_{_i}$, y se evalúa en $x_{_{i+1}}$ y $x_{_{i-1}}$, entonces, suponiendo que $y\in C^{4}[x_{_{i-1}},x_{_{i+1}}]$, se tiene \begin{equation}\label{eq:04}y(x_{_{i+1}})=y(x_{_i}+h)=y(x_{_i})+hy^{(1)}(x_{_i})+\frac{h^2}{2}y^{(2)}(x_{_i})+\frac{h^3}{6}y_{_i}^{(3)}(x_{_i})+\frac{h^4}{24}y^{(4)}(\xi_{_i}^{+}) \end{equation} para algún $\xi_{_i}^{+}$ en $(x_{_i},x_{_{i+1}})$, y \begin{equation}\label{eq:05}y(x_{_{i-1}})=y(x_{_i}-h)=y(x_{_i})-hy^{(1)}(x_{_i})+\frac{h^2}{2}y^{(2)}(x_{_i})-\frac{h^3}{6}y_{_i}^{(3)}(x_{_i})+\frac{h^4}{24}y^{(4)}(\xi_{_i}^{^-}) \end{equation} para algún $\xi^{^-}_{_i}$ en $(x_{_{i-1}},x_{_i})$. Si se suman adecuadamente $\eqref{eq:04}$ y $\eqref{eq:05}$ se obtiene \[y(x_{_{i+1}})+y(x_{_{i-1}})=2y(x_{_i})+h^2y^{(2)}(x_{_i})+\frac{h^4}{24}\left(y^{(4)}(\xi_{_i}^{+})+y^{(4)}(\xi_{_i}^{^-})\right),\] y al despejar $y^{(2)}(x_{_i}),$ \[y^{(2)}(x_{_i})=\frac{1}{h^2}\left(y(x_{_{i+1}})-2y(x_{_i})+y(x_{_{i-1}})\right)-\frac{h^4}{24}\left(y^{(4)}(\xi_{_i}^{+})+y^{(4)}(\xi_{_i}^{^-})\right).\] Ahora, aplicando el teorema de valor intermedio, se tiene que \begin{equation}\label{eq:06} y^{(2)}(x_{_i})=\frac{1}{h^2}\left(y(x_{_{i+1}})-2y(x_{_i})+y(x_{_{i-1}})\right)-\frac{h^4}{12}y^{(4)}(\xi_{_i}), \end{equation} para algún $\xi_{_i}\in (x_{_{i-1}},x_{_{i+1}})$. A este esquema se le llama fórmula de diferencias centradas para $y^{(2)}(x_{_i})$. Ahora si a $\eqref{eq:04}$ se le resta $\eqref{eq:05}$. De manera semejante se obtiene una fórmula de este tipo para $y^{(1)}(x_{_i})$, la cual viene dada por \begin{equation}\label{eq:07} y^{(1)}(x_{_i})=\frac{1}{2h}\left(y(x_{_{i+1}})-y(x_{_{i-1}})\right)-\frac{h^3}{3}y^{(3)}(\eta_{_i}) \end{equation} para algún $\eta_{_i}$ en $(x_{_{i-1}},x_{_{i+1}})$.

Ahora si se sustituyen $\eqref{eq:06}$ y $\eqref{eq:07}$ en $\eqref{eq:03}$, entonces se obtiene la igualdad \[\frac{1}{h^2}\left(y(x_{_{i+1}})-2y(x_{_i})+y(x_{_{i-1}})\right)=\frac{p(x_{_i})}{2h}\left(y(x_{_{i+1}})-y(x_{_{i-1}})\right)-\frac{p(x{_i})h^3}{3}y^{(3)}(\eta_{_i})+\frac{h^4}{24}\left(y^{(4)}(\xi_{_i}^{+})+y^{(4)}(\xi_{_i}^{^-})\right)\] Por lo tanto hay un error del orden $\mathcal{O}(h^3)$, con $y_{_i}=y(x_{_i})$, $y'_{_i}=y'(x_{_i})$, $y''_{_i}=y'(x_{_i})$, $p_{_i}=p(x_{_i})$, $q_{_i}=q(x_{_i})$ y $r_{_i}=r(x_{_i})$, podemos escribir simplemente \[\frac{1}{h^2}\left(y_{_{i+1}}-2y_{_i}+y_{_{i-1}}\right)=\frac{p_{_i}}{2h}\left(y_{_{i+1}}-y_{_{i-1}}\right)+q_{_i}y_{_i}+r_{_i}+\mathcal{O}(h^{3})\] y por lo tanto de esta manera obtenemos el conjunto de ecuaciones \[\frac{1}{h^2}\left(y_{_{i+1}}-2y_{_i}+y_{_{i-1}}\right)-\frac{p_{_i}}{2h}\left(y_{_{i+1}}+y_{_{i-1}}\right)-q_{_i}y_{_i}=r_{_i},\] para cada $i=1,\dots, n$, junto con $y_{_0}=\alpha$ y $y_{_{n+1}}=\beta$. Reescribiendo la ecuación anterior, se tiene que \[-\left(1+\frac{h}{2}p_{_i}\right)y_{_{i-1}}+\left(2+h^2q_{_i}\right)y_{_i}-\left(1-\frac{h}{2}p_{_i}\right)y_{_{i+1}}=-h^2r_{_i}\] El sistema de ecuaciones resultante se puede expresar en la forma $Ay=b$, donde, \[A=\left[\begin{array}{cccccc} \gamma_{_1} & \delta_{_1} & 0 & \cdots & \cdots & 0 \\ \epsilon_{_2} & \gamma_{_2} & \delta_{_2} & \ddots & & \vdots \\ 0 & \epsilon_{_3} & \gamma_{_3} & \delta_{_3} & \ddots & \vdots \\ \vdots & \ddots & \ddots & \ddots & \ddots & 0 \\ \vdots & & \ddots & \ddots & \ddots & \delta_{_{n-1}} \\ 0 & \dots & \dots & 0 & \epsilon_{_n} & \gamma_{_n} \\ \end{array}\right],\,\,\begin{array}{ll} \gamma_{_i}=2+h^2q_{_i}, & 1\leq i\leq n,\\ \delta_{_i}=-1+\frac{h}{2}p_{_i}, & 1\leq i\leq n-1,\\ \epsilon_{_i}=-1-\frac{h}{2}p_{_i}, & 2\leq i\leq n,\end{array} \] \[\hat{y}=\left[\begin{array}{c} y_{_1} \\ y_{_2} \\ \vdots \\ y_{_n} \end{array}\right] \mbox{ e } b=\left[\begin{array}{c} -h^2r_{_i}+(1+\frac{h}{2}p_{_i})y_{_0} \\ -h^2r_{_{2}} \\ -h^2r_{_{3}} \\ \vdots \\ -h^2r_{_{n-1}}\\ -h^2r_{_i}+(1+\frac{h}{2}p_{_i})y_{_{n+1}} \end{array}\right].\]

Para revolver este sistema lineal de ecuaciones recomendamos leer factorización LU y para la reconstrucción aproximada de la curva solución recomendamos leer sobre interpolación polinómica de Lagrange.

¿Bajo qué condiciones el sistema lineal $Ay=b$ tiene única solución? La respuesta nos la da el siguiente teorema.

Teorema. Suponga que $p(x)$, $q(x)$ y $r(x)$ son continuas en $[a, b]$. Si $q(x)\geq 0$ en $[a,b]$, entonces el sistema triagonal $Ay=b$ tiene solución única siempre y cuando $h\leq \frac{2}{L}$, donde $L=\max_{a\leq x\leq b}|p(x)|$.

En cuando a los errores el siguiente teorema nos ayuda a deducir las cotas para el error de la aproximación de las ecuaciones diferenciales mediante este método de diferencias finitas de segundo orden.

Teorema Sea $Q^*$ tal que $q(x)>Q^*>0$, para $a\leq x\leq b$, $L=\max_{a\leq x\leq b}|p(x)|$, $M_{_3}=\max_{a\leq x\leq b} |y^{(3)}(x)|$ y $M_{_4}=\max_{a\leq x\leq b}|y^{(4)}(x)|$. Entonces, para $i=0,1,\dots, n+1$, se cumple: \[|\hat{y}_{_i}-y(x_{_i})|\leq h^{3}\left(\frac{M_{_4}+2LM_{_3}}{12Q^*}\right).\]

Este teorema nos dice que la solución de diferencias finitas converge a la solución exacta cuando $h\to 0$ y el error es $\mathcal{O}(h^{3})$. Cuando en la ecuación diferencial lineal, $p(x)=0$, entonces se puede demostrar que el error cometido es del orden de $\mathcal{O}(h^4)$.

El caso no lineal

Para el problema no lineal general con valor de frontera: \[y''=f(x, y,y'),\,a\leq x\leq b,\, y(a)=\alpha,\, y(b)=\beta,\] el método de diferencias finitas es similar al caso lineal. Sin embargo, el sistema de ecuaciones no será lineal y, por lo tanto, se requiere un proceso iterativo para resolverlo. Nuevamente, se procede a discretizar el intervalo $[a,b]$ en una partición de puntos $a=x_{_0}\leq x_{_1}\leq\cdots\leq x_{_{n+1}}=b$, tal que $x_{_{i+1}}-x_{_i}=h$.

En los puntos interiores de la partición $x_{_i}=a+ih$, $i=1,2,\dots,n$, la ecuación diferencial a aproximar es: \begin{equation}\label{eq:08} y''(x_{_i})=f(x_{_i},y(x_{_i}),y'(x_{_i})). \end{equation} Luego sustituyendo $\eqref{eq:04}$ y $\eqref{eq:05}$ en $\eqref{eq:08}$ se obtiene: \[\frac{1}{h^2}\left(y(x_{_{i+1}})-2y(x_{_i})+y(x_{_{i-1}})\right)=f\left(x,y(x_{_i}),\frac{1}{2h}\left(y(x_{_{i+1}})-y(x_{_{i-1}})\right)-\frac{h^3}{3}y^{(3)}(\eta_{_i})\right)+\frac{h^4}{12}y^{(4)}(\xi_{_i})\] para algún $\xi_{_i}$ y $\eta_{_i}$ en el intervalo $(x_{_{i-1}},x_{_{i+1}})$, con $i=1,2,\dots,n$. El método de diferencias finitas se obtiene empleando esta ecuación junto con las condiciones finitas de frontera $y(a)=\alpha$ y $y(b)=\beta$. Por lo tanto si nuevamente se hace $y_{_i}=y(x_{_i})$, $y'_{_i}=y'(x_{_i})$, $y''_{_i}=y'(x_{_i})$, $p_{_i}=p(x_{_i})$, $q_{_i}=q(x_{_i})$ y $r_{_i}=r(x_{_i})$ se obtiene el sistema de ecuaciones \[\frac{y_{_{i+1}}-2y_{_i}+y_{_{i-1}}}{h^2}-f\left(x_{_i},y_{_i},\frac{y_{_{i+1}}-y_{_{i-1}}}{2h}\right)=0,\] para cada $i=1,2,\dots,n$ junto con $y_{_0}=\alpha$ y $y_{_{n+1}}=\beta$. El sistema no lineal de $n\times n$ obtenido con este método $F_{_i}(y_{_1},\dots,y_{_n})=0$ con \[F_{_i}(y_{_1},\dots,y_{_n})=y_{_{i+1}}-2y_{_i}+y_{_{i-1}}-h^2f\left(x_{_i},y_{_i},\frac{y_{_{i+1}}-y_{_{i-1}}}{2h}\right)\] tiene solución única si $h<\frac{2}{L}$, donde $L$ es tal que $\left|\frac{\partial f}{\partial y'}(x,y,y')\right|\leq L$.

Para resolver este sistema de ecuaciones usaremos el método de Newton. Es consiste es suponer una solución $y^{(0)}=(y^{(0)}_{_1},\dots, y^{(0)}_{_{n}})^{\top}$, la iteración con este método es: \[y^{(j+1)}=y^{(j)}-\pmb{J}^{-1}(y^{(j)})F(y^{(j)})\] donde $\pmb{J}(y^{(j)})$ es la matriz jacobiana. En la práctica es más conveniente a efectos computacionales iterar resolviendo las ecuaciones: \[\pmb{J}(y^{(j)})(y^{(j+1)}-y^{(j)})=-F(y^{(j)}).\] En cuanto al jacobiano $\pmb{J}_{rs}(y^{(j)})=\frac{\partial F_{_r}}{\partial y_{_s}}$, se tiene: \[J_{_{kk}}=-2-h^{2}\frac{\partial f}{\partial y}\left(x_{_k},y_{_k},\frac{y_{_{k+1}}-y_{_{k-1}}}{2h}\right),\] \[J_{_{k(k+1)}}=1-\frac{h}{2}\frac{\partial f}{\partial y'}\left(x_{_k},y_{_k},\frac{y_{_{k+1}}-y_{_{k-1}}}{2h}\right),\] \[J_{_{(k+1)k}}=1+\frac{h}{2}\frac{\partial f}{\partial y'}\left(x_{_k},y_{_k},\frac{y_{_{k+1}}-y_{_{k-1}}}{2h}\right),\] con $k=1,\dots, n$. El resto de las entradas de la matris $\pmb{J}$ son nulos. En particular, como todo los elementos $|r-s|>1$ son nunos, entonces $J$ es tridiagonal. En cada iteración del sistema lineal: \[\pmb{J}(y^{(j)})v=-F(y^{(j)}),\] con $v=(v_{_1},\dots,v_{_n})^{\top}$, se requiere obtener $v$, porque \[y^{(j+1)}=y^{(j)}+v.\] Puesto que $\pmb{J}$ es triagonal, se puede utilizar métodos para resolver ecuaciones lineales. Nosotros, para efecto de implementación, en un próximo post usaremos la factorización LU para resolver este tipo de problemas. Para finalizar cabe mencionar que nuevamente la solución que se encuentra con este método se aproxima a la solución exacta con un orden de aproximación del orden $\mathcal{O}(h^{3})$.

Referencias