Definición. Tenemos tres formas diferentes y equivalentes de definir una matriz.
Convencionalmente definimos una matriz $m\times n$ sobre $\mathbb{R}$ como un arreglo rectangular de $mn$ números: $\alpha_{11}, \alpha_{12},...,\alpha_{1n}, \alpha_{21}, \alpha_{22},...,\alpha_{2n}, ... , \alpha_{m1}, \alpha_{m2}, ... , \alpha_{mn}$ que consta de $m$ renglones y $n$ columnas. Los números que forman el arreglo se llaman elementos de la matriz. Denotaremos a las matrices con las letras mayúsculas. $ \therefore$ Si $A$ es una matriz $m\times n$, $A$ es de la forma: $$ A = \begin{pmatrix} \alpha_{11} & \alpha_{12} & \ldots & \alpha_{1n}\\ \alpha_{21} & \alpha_{22} & \ldots & \alpha_{2n}\\ \vdots & \vdots & \ & \vdots\\ \alpha_{m1} & \alpha_{m2} & \ldots & \alpha_{mn}\\ \end{pmatrix} $$ donde $\alpha_{ij}\in \mathbb{R} \ \ \ 1 \leq i \leq m ,\ 1\leq j \leq n$ y $\alpha_{ij}$ es el elemento de $A$ que está en el i-ésimo renglón y la j-ésima columna de $A$. Escribimos $A=\left[ \alpha_{ij}\right] $
Podemos definir a la matriz $A$ como un conjunto ordenado de $n$ vectores columna de orden $m$: $$ A = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & ... & a_n \end{array} \right]$$ donde $$ a_1 = \begin{pmatrix} \alpha_{11}\\ \alpha_{21} \\ \vdots \\ \alpha_{m1}\\ \end{pmatrix} ,\ \ a_2 = \begin{pmatrix} \alpha_{12}\\ \alpha_{22}\\ \vdots \\ \alpha_{m2}\\ \end{pmatrix} , \ \ \ldots , \ \ a_n = \begin{pmatrix} \alpha_{1n}\\ \alpha_{2n} \\ \vdots \\ \alpha_{mn}\\ \end{pmatrix}$$ Generalmente utilizaremos el índice $j$ para referirnos a las columnas de $A$.
También podemos definir a $A$ como una colección ordenada de $m$ vectores renglón de orden $n$:$$ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix}$$ donde $$r_1^t = \left[ \begin{matrix} \alpha_{11} \ \ \alpha_{12} \ ... \ \alpha_{1n}\end{matrix} \right] $$ $$r_2^t = \left[ \begin{matrix} \alpha_{21} \ \ \alpha_{22} \ ... \ \alpha_{2n}\end{matrix} \right] $$ $$\vdots$$ $$r_m^t = \left[ \begin{matrix} \alpha_{m1} \ \ \alpha_{m2} \ ... \ \alpha_{mn}\end{matrix} \right] $$ Generalmente utilizaremos el índice $i$ para referirnos a los renglones de $A$.
Definición. Al conjunto de todas las matrices $m\times n$ lo denotaremos por $M(m,n)$
De acuerdo con la definición de matriz que dimos, podemos ver a una matriz como una colección ordenada de :
Es decir, tenemos tres formas distintas de trabajar con una matriz; escogeremos la representación que más nos convenga según la operación u operaciones a efectuar sobre la matriz.
Observación. Dos matrices $m\times n$ son iguales si y sólo si sus elementos correspondientes son iguales.
Definición. Una matriz $A$ $m\times n$ es cuadrada si $m=n$. En este caso decimos que $A$ es de orden $n$. Denotaremos al conjunto de todas las matrices cuadradas de orden $n$ por $M_{n}$.
Definición. Cualquier matriz cuyos elementos sean todos igual a cero se llamará matriz cero y se denotará por el símbolo $0$.
Las operaciones básicas son la suma de dos matrices y la multiplicación de una matriz por un escalar:
Definición Sean $A,B \in M(m,n)$. La suma de $A$ y $B$ es la matriz $C=\left[ \gamma_{ij}\right]$, denotada por $A+B$ y dada por : $$ \left[ \gamma_{ij}\right] = \left[ \alpha_{ij} + \beta_{ij}\right]. $$
Observación
- Podríamos haber definido $A+B$ por columnas o por renglones.
Es decir, si $A=\left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] , B=\left[ \begin{array}{c|c|c|c} b_1 & b_2 & \dots & b_n \end{array} \right]$ $$ A+B =\left[ \begin{matrix} \ a_1 + b_1 \ \vert\ a_2 + b_2 \ \vert\ \ldots \ \vert \ a_n + b_n \ \end{matrix} \right] $$ Ya que si $c=\left[ \begin{array}{c|c|c|c} c_1 & c_2 & \ldots & c_n \end{array} \right]$ entonces $$ c_j = \begin{pmatrix} \gamma_{1j}\\ \gamma_{2j}\\ \vdots \\ \gamma_{mj}\\ \end{pmatrix} = \begin{pmatrix} \alpha_{1j} + \beta_{1j}\\ \alpha_{2j} + \beta_{2j}\\ \vdots \\ \alpha_{mj} + \beta_{mj}\\ \end{pmatrix} = \begin{pmatrix} \alpha_{1j}\\ \alpha_{2j} \\ \vdots \\ \alpha_{mj}\\ \end{pmatrix} + \begin{pmatrix} \beta_{1j}\\ \beta_{2j}\\ \vdots \\ \beta_{mj} \end{pmatrix} $$ $$ = a_j + b_j \ \ \ \ \ \ 1 \leq j \leq n$$
Análogamente si $$ A = \begin{pmatrix} \ {r_1}^t \\ \ {r_2}^t \\ \vdots \\ \ {r_m}^t \\ \end{pmatrix}, \ \ B = \begin{pmatrix} \ {s_1}^t \\ \ {s_2}^t \\ \vdots \\ \ {s_m}^t \\ \end{pmatrix}; \text{ entonces }\ A + B = \begin{pmatrix} \ {r_1}^t + {s_1}^t \\ \ {r_2}^t + {s_2}^t\\ \vdots \\ \ {r_m}^t + {s_m}^t\\ \end{pmatrix} $$
Definición. Sea $A\in M(m,n)$ y $ \lambda \in \mathbb{R} $ . El producto de un escalar $\lambda$ y $A$, denotado por $ \lambda \cdot A$ o $\lambda A$, es la matriz $m\times n$ dada por: $$\lambda A = \left[ \lambda \begin{matrix} \alpha_{ij} \end{matrix} \right] $$
Notar que si $ \lambda \neq 0$, entonces $A$ y $\lambda A$ tienen los mismos elementos no nulos.
Observación. Podríamos haber definido $\lambda A$ por columnas o por renglones. $$ \lambda A = \left[ \begin{array}{c|c|c|c} \lambda a_1 & \lambda a_2 & \ldots & \lambda a_n \end{array} \right]$$ $$ \lambda A = \begin{pmatrix} \lambda {r_1}^t \\ \lambda {r_2}^t \\ \vdots \\ \lambda {r_m}^t \\ \end{pmatrix}$$
Notación. Si $A\in M(m,n)$ escribiremos $A_{m\times n}$.
Supongamos que tenemos la siguiente ecuación lineal: $$ \alpha_1 \xi_1 + \alpha_2 \xi_2 + \ldots + \alpha_n \xi_n = \beta $$
En esta ecuación podemos distinguir entre
Podemos formar, de acuerdo con lo mencionado arriba:
Observamos que la ecuación $$ \alpha_1 \xi_1 + \alpha_2 \xi_2 + \ldots + \alpha_n \xi_n = \beta $$ es otra forma de escribir $$ r \cdot x = b $$ donde $ r \cdot x $ es el producto punto de $r$ y $x$.
Esto nos sugiere definir la multiplicación de un renglón por un vector como sigue.
Definición. Sea $r^t \in {\mathbb{R}^n}^*$ y $ x \in \mathbb{R}^n$. Entonces el producto de $r^t$ y $x$, escrito $r^t x$, es el vector $b \in \mathbb{R}^1$ dado por: $$ {r^t}_{1\times n}\ x_{n\times 1} = b_{1\times 1} = r \cdot x$$
Ejemplo. Si $ r^t = \left[ \begin{matrix} 1 \ \ 2 \ \ 1 \end{matrix} \right] $ , $ x = \begin{pmatrix} \xi_1 \\ \xi_2 \\ \xi_3\\ \end{pmatrix}$ entonces $$ r^t x = r \cdot x = \xi_1 + 2\xi_2 + \xi_3$$
De las propiedades del producto punto se sigue que:
Ahora, supongamos que tenemos un sistema de $m$ ecuaciones lineales con $n$ incógnitas: $$ \begin{aligned} \alpha_{11}\ \xi_{1}\ &+\ \alpha_{12}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{1n}\ \xi_{n} =&\beta_1 \\ \alpha_{21}\ \xi_{1}\ &+\ \alpha_{22}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{2n}\ \xi_{n} =&\beta_2 \\ \ &\vdots &\vdots & &\vdots \\ \alpha_{m1}\ \xi_{1}\ &+\ \alpha_{m2}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{mn}\ \xi_{n} =&\beta_m \end{aligned}$$ Al igual que en el caso anterior, podemos distinguir entre:
y los podemos agrupar en 3 estructuras:
Queremos expresar el sistema de ecuaciones como una multiplicación $Ax=b$ , para lo cual hemos de definir un productos de una matriz por un vector de una manera que respete el producto de un renglón por un vector.
Observación. En todo sistema de ecuaciones el número de columnas de la matriz de coeficientes es igual al número de incógnitas.
Habíamos visto anteriormente que una matriz puede tener las representaciones: $$ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix}, \text{ donde } {r_i}^t = \left[ \begin{matrix} \alpha_{i1} \ \ \alpha_{i2} \ \ \ldots \ \ \alpha_{in} \end{matrix} \right], \ \ \ 1 \leq i \leq m.$$ $$A = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right], \text{ donde } a_j = \begin{pmatrix} \alpha_{1j} \\ \alpha_{2j} \\ \vdots \\ \alpha_{mj} \\ \end{pmatrix}, \ \ \ 1 \leq j \leq n.$$ De acuerdo con esto, podemos reescribir de dos formas al sistema de ecuaciones $$ \begin{aligned}\alpha_{11}\ \xi_{1}\ &+\ \alpha_{12}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{1n}\ \xi_{n} =&\beta_1 \\ \alpha_{21}\ \xi_{1}\ &+\ \alpha_{22}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{2n}\ \xi_{n} =&\beta_2 \\ \ &\vdots &\vdots & &\vdots \\ \alpha_{m1}\ \xi_{1}\ &+\ \alpha_{m2}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{mn}\ \xi_{n} =&\beta_m \end{aligned}$$
Ejemplo. El sistema $$\begin{array}{ccc} \xi_1 + \xi_2 + \xi_3 & = & 1 \\ 2 \xi_1 - \xi_2 - \xi_3 & = & 0 \\ \end{array}$$ se puede escribir como $$ \begin{pmatrix} \left[ \right. &1& 1&1& \left. \right] x \\ \left[ \right. &2&-1&-1& \left. \right] x \end{pmatrix} =\begin{pmatrix} 1 \\ 0 \end{pmatrix};\ \text{con } \ x=\begin{pmatrix} \xi_1 \\ \xi_2 \\ \xi_3 \end{pmatrix}$$
Ejemplo. Si tenemos: \begin{equation*} \begin{array}{ccc} \xi_1 + \xi_2 + \xi_3 & =& 1 \\ 2 \xi_1 - \xi_2 - \xi_3 &=& 0 \end{array} \\ \\ \end{equation*} entonces: $$ \begin{pmatrix} \xi_1 + \xi_2 + \xi_3 \\ 2 \xi_1 - \xi_2 - \xi_3 \\ \end{pmatrix} = \begin{pmatrix}1\\0\\ \end{pmatrix} \\ \Rightarrow \begin{pmatrix}1\\ 2\\ \end{pmatrix} \xi_1 + \begin{pmatrix}1\\ -1\\ \end{pmatrix} \xi_2 + \begin{pmatrix}1\\ -1\\ \end{pmatrix} \xi_3 = \begin{pmatrix}1 \\ 0\\ \end{pmatrix}$$
Esto nos sugiere dos formas de definir la multiplicación de una matriz por un vector:
Definición. Sea $A\in M(m,n)$ y $x \in \mathbb{R}^n$. Entonces la multiplicación de $A$ y $x$, denotada por $Ax$, es:
- El vector $b \in \mathbb{R}^m$ dado por: $$ Ax = \begin{pmatrix} {r_{1}}^t x \\ {r_{2}}^t x \\ \vdots \\ {r_{m}}^t x \end{pmatrix} $$ donde ${r_i}^t =\left[ \begin{matrix} \alpha_{i1} \ \ \alpha_{i2} \ \ \ldots \ \ \alpha_{in} \end{matrix} \right], \ \ \ 1 \leq i \leq m $ es el i-ésimo renglón de $A$.
- El vector $m\times 1$ dado por: $$ Ax = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n $$ donde $ x = \begin{pmatrix} \xi_1 \\ \xi_2 \\ \vdots \\ \xi_n \end{pmatrix}$ y $ a_j = \begin{pmatrix} \alpha_{1j} \\ \alpha_{2j} \\ \vdots \\ \alpha_{mj} \end{pmatrix}, \ \ \ 1 \leq j \leq n $ es la j-ésima columna de $A$.
Observación. Estas dos definiciones son equivalentes.
Demostración $$ $$ Sean $ b_1 = \begin{pmatrix} {r_{1}}^t x \\ {r_{2}}^t x \\ \vdots \\ {r_{m}}^t x \end{pmatrix}\ \text{ y }\ b_2 = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n$, entonces $$ \begin{aligned} b_1 &= \begin{pmatrix} \alpha_{11} \xi_1 + \alpha_{12} \xi_2 + \ldots + \alpha_{1n} \xi_n \\ \alpha_{21} \xi_1 + \alpha_{22} \xi_2 + \ldots + \alpha_{2n} \xi_n \\ \vdots \ \ \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ \ \ \vdots \\ \alpha_{m1} \xi_1 + \alpha_{m2} \xi_2 + \ldots + \alpha_{mn} \xi_n \\ \end{pmatrix} = \begin{pmatrix} \alpha_{11} \xi_1 \\ \alpha_{21} \xi_1 \\ \vdots \\ \alpha_{m1} \xi_1 \\ \end{pmatrix} + \begin{pmatrix} \alpha_{12} \xi_2 \\ \alpha_{22} \xi_2 \\ \vdots \\ \alpha_{m2} \xi_2 \\ \end{pmatrix} + \ldots + \begin{pmatrix} \alpha_{1n} \xi_n \\ \alpha_{2n} \xi_n \\ \vdots \\ \alpha_{mn} \xi_n \\ \end{pmatrix} \\ \\ &= \begin{pmatrix} \alpha_{11} \\ \alpha_{21} \\ \vdots \\ \alpha_{m1} \\ \end{pmatrix} \xi_1 + \begin{pmatrix} \alpha_{12} \\ \alpha_{22} \\ \vdots \\ \alpha_{m2} \\ \end{pmatrix} \xi_2 + \ldots + \begin{pmatrix} \alpha_{1n} \\ \alpha_{2n} \\ \vdots \\ \alpha_{mn} \\ \end{pmatrix} \xi_n = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n = b_{2} \blacksquare \\ \end{aligned} $$
Observación. No hay ninguna restricción sobre $m$ (= número de renglones de $A$), pero es necesario que la dimensión del vector $x$ y $n$ (=el número de columnas de $A$) sean iguales, para que los productos ${r_i}^t x$ estén bien definidos.
Ahora, si nos fijamos en que al multiplicar una matriz $m\times n$ por un vector $n\times 1$ obtenemos un vector $m\times 1$, esto nos permite ver a la multiplicación por $A_{m\times n}$ como una función que a cada $x \in \mathbb{R}^n$ le asocia una $ b \in \mathbb{R}^m$: $$ A_{m\times n} : \mathbb{R}^n \rightarrow \mathbb{R}^m$$
$$ x \xrightarrow{\ \ A \ \ } b=Ax$$
Ejemplo. $$ $$ Si: $ A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \\ 1 & 0 \\ \end{pmatrix} $ y $ x = \begin{pmatrix} 1 \\ 0 \\ \end{pmatrix} $, entonces: $ A x = \begin{pmatrix} 1 \\ 0 \\ 1 \\ \end{pmatrix} \left( 1 \right) + \begin{pmatrix} 2 \\ 1 \\ 0 \\ \end{pmatrix} \left( 0 \right) = \begin{pmatrix} 1 \\ 0 \\ 1 \\ \end{pmatrix} $ $$ \begin{pmatrix} 1 \\ 0 \\ \end{pmatrix} \xrightarrow{\ \ A \ \ } \begin{pmatrix} 1 \\ 0 \\ 1 \\ \end{pmatrix} $$
Observación Importante. ¿Qué más podemos decir acerca de $b=Ax$?
Si nos fijamos en que $$b = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n$$ veremos que $b$ es una combinación1 de las columnas de $A$. $$b_{m\times 1} = A_{m\times n} x_{n\times 1}$$ si y sólo si $b$ es una combinación de las columnas de $A$.
Uno de los problemas más importantes del álgebra lineal es poder contestar la siguiente pregunta:
¿Cuándo es $b_{m\times 1}$ una combinación de $a_1, a_2 , \ldots , a_n \in \mathbb{R}^m$? |
Esta pregunta la podemos plantear así:
¿Dado $b \in \mathbb{R}^m$, cuándo existe $x \in \mathbb{R}^n$ tal que $A_{m\times n} x = b$?. |
De aquí la importancia de entender la interpretación sobre la multiplicación de una matriz por un vector.
Este tipo de combinaciones se llaman combinaciones lineales. En el siguiente capítulo introduciremos finalmente el concepto, y analizaremos sus propiedades.↩
Así como definimos el producto $A_{m\times n} \ x_{n\times 1} = b_{m\times 1}$ ahora queremos definir el producto de un renglón por una matriz $$ y_{1\times m}^{t} \ A_{m \times n}$$
Definición. Sea $A \in M(m,n)$ y $y^t \in {\mathbb{R}^m}^* $. Entonces el producto de $y^t$ por $A$, denotado por $y^t A$, es:
- El renglón $1\times n$ dado por: $$ y^t A = \left[ \begin{matrix} y^t a_1 \ \ y^t a_2 \ \ldots \ y^t a_n \end{matrix} \right] $$ donde $a_j = \begin{pmatrix}\alpha_{1j} \\ \alpha_{2j} \\ \vdots \\ \alpha_{mj} \end{pmatrix},\ \ \ 1 \leq j \leq n $ es la j-ésima columna de $A$.
- El renglón de ${\mathbb{R}^n}^*$ dado por : $$ y^t A = \eta_1 {r_1}^t + \eta_2 {r_2}^t + \ldots + \eta_m {r_m}^t$$ donde $y^t = \left[ \begin{matrix} \eta_1 \ \ \eta_2 \ \ldots \ \eta_n \end{matrix} \right]\ $ y $\ {r_i}^t = \left[\begin{matrix} \alpha_{i1} \ \ \alpha_{i2} \ \ldots \ \alpha_{in} \end{matrix}\right],\ \ \ 1 \leq i \leq m $ es el i-ésimo renglón de $A.$
Observación. Estas dos definiciones son equivalentes.
Demostración. $$\ $$ Sean $ {d_1}^t = \eta_1 {r_1}^t + \eta_2 {r_2}^t + \ldots + \eta_m {r_m}^t, {d_2}^t = \left[\begin{matrix} y^t a_1 \ \ y^t a_2 \ \ldots \ y^t a_n \end{matrix}\right],\ \text{ entonces:}$ $$ $$ $ \begin{align*} {d_1}^t &= \eta_1 \left[ \begin{matrix}\alpha_{11} \ \ \alpha_{12} \ \ldots \ \alpha_{1n} \end{matrix}\right] + \eta_2 \left[\begin{matrix} \alpha_{21} \ \ \alpha_{22} \ \ldots \ \alpha_{2n} \end{matrix}\right] + \ldots + \eta_m \left[\begin{matrix} \alpha_{m1} \ \ \alpha_{m2} \ \ldots \ \alpha_{mn} \end{matrix}\right] \\ \\ &= \left[ \sum_{i=1}^m \eta_i \alpha_{i1} \ \ \ \sum_{i=1}^m \eta_i \alpha_{i2} \ \ \ldots \ \ \sum_{1=1}^m \eta_i \alpha_{in} \right] = \left[ \begin{matrix} y^t a_1 \ \ \ y^t a_2 \ \ldots \ y^t a_n \end{matrix}\right] = {d_2}^t \end{align*}$ $$\blacksquare$$
Observación. No hay ninguna restricción sobre $n$ ( = número de columnas de $A$ ), pero es necesario que la dimensión del renglón $y^t$ y $m$ ( = número de renglones de $A$) sean iguales, para que los productos $y^t a_j$ estén bien definidos. Podemos ver la multiplicación de ${y^t}_{1\times m}$ por $A_{m\times n}$ como una función que actúa sobre $y^t$ y que le asocia un $d^t \in {\mathbb{R}^n}^*$ $$ A_{m\times n} : {\mathbb{R}^m}^* \rightarrow {\mathbb{R}^n}^*$$
$$ y^t \xrightarrow{\ \ A \ \ } d^t=y^tA$$
Ejemplo. Si $ A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \\ 1 & 0 \end{pmatrix}\ $ y $\ y^t = \left[\begin{matrix} 1 \ \ 0 \ \ -1 \end{matrix}\right],$ entonces:\begin{align*} y^t &= (1) \left[ \begin{matrix} 1 & 2 \end{matrix} \right] +(0) \left[ \begin{matrix} 0 & 1 \end{matrix} \right] +(-1) \left[ \begin{matrix} 1 & 0 \end{matrix} \right] \\ &= \left[ \begin{matrix} 1 & 2 \end{matrix} \right] + \left[ \begin{matrix} -1 & 0 \end{matrix} \right]\\ &= \left[ \begin{matrix} 0 & 2 \end{matrix} \right] \end{align*} $$ \therefore \left[ 1 \ \ 0 \ \ -1 \right] \xrightarrow{\ \ A \ \ } \left[ 0 \ \ 2 \right] $$
Observación importante. Así como planteamos el problema anterior sobre las columnas de $A$, lo pudimos haber planteado con sus renglones. $$ $$ Por definición $$d^t = \eta_1 {r_1}^t + \eta_2 {r_2}^t + \ldots + \eta_m {r_m}^t$$ es decir: $d^t = y^t A $ si y sólo si $d^t$ es una combinación1 de los renglones de $A$.
Ahora si nos planteamos el problema: $$ $$
¿Cuándo es ${d^{\ t}}_{1\times n}$ una combinación de ${r_1}^t , {r_2}^t , \ldots , {r_m}^t \in {\mathbb{R}^n}^*$ ? |
O de manera equivalente:
¿Dado $d^t \in {\mathbb{R}^n}^*$, cúando existe $y^t \in {\mathbb{R}^m}^*$ tal que $y^t A = d^t$ donde $ A = \begin{pmatrix} {r_1}^t \\ \vdots \\ {r_m}^t \end{pmatrix}$ ? |
Ver nota aclaratoria anterior↩
Supongamos que tenemos dos matrices $A_{m\times n}$, $B_{n\times k}$. ¿Cómo definimos el producto $AB$ de modo que respete los productos que hemos definido anteriormente?
$ \text{Si } \ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] \text{ y } B = \left[ \begin{array}{c|c|c|c} b_1 & b_2 & \ldots & b_k \end{array} \right]$
La multiplicación de una matriz por un vector nos llevaría a definir $$AB = A \left[ \begin{array}{c|c|c|c} b_1 & b_2 & \ldots & b_k \end{array} \right]=\left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] $$ Por otro lado, la multiplicación de un renglón por una matriz nos conduce a definir $$ AB = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} B = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $$ O también podríamos definir $AB$ elemento a elemento: $$ AB = \begin{pmatrix} {r_1}^t b_1 & {r_1}^t b_2 & \ldots & {r_1}^t b_k \\ {r_2}^t b_1 & {r_2}^t b_2 & \ldots & {r_2}^t b_k \\ \vdots \\ {r_m}^t b_1 & {r_m}^t b_2 & \ldots & {r_m}^t b_k \\ \end{pmatrix} $$
Veremos que podemos definir $AB$ por cualquiera de estas 3 formas; ya que
$$ \left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] = \begin{pmatrix} {r_1}^t b_1 & {r_1}^t b_2 & \ldots & {r_1}^t b_k \\ {r_2}^t b_1 & {r_2}^t b_2 & \ldots & {r_2}^t b_k \\ \vdots \\ {r_m}^t b_1 & {r_m}^t b_2 & \ldots & {r_m}^t b_k \\ \end{pmatrix} = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $$
Tenemos las siguientes tres definiciones equivalentes, del producto de dos matrices.
Definición. Sea $A \in M(m,n)$, $B \in M(n,k)$, entonces el producto de $A$ y $B$, denotado por $AB$ , es la matriz $C=\left[ \gamma_{ij} \right] \in M(m,k)$ dada por:
- $AB = \left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] $
- $ AB = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $
- $ AB = \begin{pmatrix} {r_1}^t b_1 & {r_1}^t b_2 & \ldots & {r_1}^t b_k \\ {r_2}^t b_1 & {r_2}^t b_2 & \ldots & {r_2}^t b_k \\ \vdots \\ {r_m}^t b_1 & {r_m}^t b_2 & \ldots & {r_m}^t b_k \\ \end{pmatrix} $ es decir $\ \ \gamma_{ij} = {r_i}^t b_j, \ \ \ 1 \leq i \leq m, \ \ \ 1 \leq j \leq k$.
Observación. Como acabamos de ver 1. , 2. y 3. definen a la misma matriz: $$ A_{m\times n} B_{n\times k} = C_{m\times k} $$
Observaciones.
- Cada columna de $AB$ es el producto de una matriz y una columna: $$ \text{columna j-ésima de } AB = A\ \cdot \ (\text{j-ésima columna de } B )$$
- Cada renglón de $AB$ es el producto de un renglón y una matriz: $$ \text{renglón i-ésimo de } AB = (\text{i-ésimo renglón de } A )\ \cdot \ B$$
- Cada entrada de $AB$ es el producto de un renglón y una columna: $$ \gamma_{ij} = (\text{i-ésimo renglón de } A )\ \cdot \ (\text{j-ésima columna de } B )$$
Gráficamente:
$$ A_{2 \times 3} \begin{pmatrix} \begin{array}{ccc} \begin{array}{c} * \\ * \\ * \end{array} & \boxed{\begin{array}{c} * \\ * \\ * \end{array}} & \begin{array}{c} * \\ * \\ * \end{array} \end{array} \end{pmatrix}= \begin{pmatrix} \begin{array}{ccc} \begin{array}{c} * \\ * \end{array} & \boxed{\begin{array}{c} * \\ * \end{array}} & \begin{array}{c} * \\ * \end{array} \end{array} \end{pmatrix} $$
$$ \begin{pmatrix} \begin{array}{c} \begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} \\ \boxed{\begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} } \end{array} \end{pmatrix} B_{3\times 3} = \begin{pmatrix} \begin{array}{c} \begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} \\ \boxed{\begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} } \end{array} \end{pmatrix} $$
$$\begin{pmatrix} \begin{array}{c} \begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} \\ \boxed{\begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} } \end{array} \end{pmatrix} \begin{pmatrix} \begin{array}{ccc} \begin{array}{c} * \\ * \\ * \end{array} & \boxed{\begin{array}{c} * \\ * \\ * \end{array}} & \begin{array}{c} * \\ * \\ * \end{array} \end{array} \end{pmatrix}= \begin{pmatrix} \ * \ & \ *\ & \ *\ \\ \ * \ & \ \boxed{*}\ & \ *\ \end{pmatrix} $$
Observación. Para que $AB$ esté definido necesitamos que el número de columnas de $A$ sea igual al número de renglones de $B$.
Propiedades del producto entre matrices
La conmutatividad puede fallar por varias razones.
Nos podríamos preguntar para qué nos sirve haber definido el producto de dos matrices. Una manera provechosa de considerar la multiplicación de matrices es viendo a una de las matrices como una función que opera sobre la otra matriz:
Observación. Sean $A$ una matriz $m\times n$ y $B$ una matriz $n\times k$. Entonces en el producto $AB$, $B$ modifica las columnas de $A$.
Tenemos $AB = \left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] $
Ya vimos que $Ab_j$ ---la j-ésima columna de $AB$--– es una combinación de las columnas de $A$. $$ Ab_j = a_1 \beta_{1j} + a_2 \beta_{2j} + \ldots + a_n \beta_{nj} \ \ \ \ \ 1 \leq j \leq k$$ Es decir, las columnas de $AB$ son combinaciones de las columnas de $A$.
Podemos pensar en que $B$ está operando sobre $A$ y transformando sus columnas: $$ B_{n\times k} : M (m,n) \rightarrow M (m,k) $$ $ \\ $ $$A_{m\times n} \xrightarrow{B_{n\times k}} (AB)_{m\times k} $$ $\\ $
A veces necesitaremos realizar algunas operaciones sobre las columnas de $A$, o desearemos transformar a $A$ en otra matriz con la cual sea más fácil trabajar; eso lo podremos lograr escogiendo la matriz $B_{n\times n}$ adecuada y multiplicando (posmultiplicando) por $B$.
Ejemplo. Sea $ A_{m\times n} = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] $
- Queremos $AB = \left[ \begin{array}{c|c|c|c} \lambda_1 a_1 & \lambda_2 a_2 & \ldots & \lambda_n a_n \end{array} \right]$, entonces: $$ B = \begin{pmatrix} \lambda_1 & 0 & \ldots & 0 \\ 0 & \lambda_2 & \ldots & 0 \\ \vdots & \vdots & \vdots & \vdots\\ 0 & 0 & \ldots & \lambda_n \\ \end{pmatrix}$$ Ya que $$Ab_1 = \lambda_1 a_1 + 0 \cdot a_2 + \ldots + 0 \cdot a_n$$ $$Ab_2 = 0 \cdot a_1 + \lambda_2 a_2 + \ldots + 0 \cdot a_n$$ $$\vdots$$ $$Ab_n = 0 \cdot a_1 + 0 \cdot a_2 + \ldots + \lambda_n a_n$$
- Queremos $AB = \left[ \begin{array}{c|c|c|c|c} a_2 & a_1 & a_3 & \ldots & a_n \end{array} \right],$ es decir, si queremos cambiar las columnas uno y dos de $A$ entonces: $$ B = \begin{pmatrix} 0 & 1 & 0 & \ldots & 0 \\ 1 & 0 & 0 & \ldots & 0 \\ 0 & 0 & 1 & \ldots & 0 \\ \ & \ & \vdots & \ & \ \\ 0 & 0 & 0 & \ldots & 1 \\ \end{pmatrix}$$ Ya que $$ Ab_1 = 0 \cdot a_1 + 1 \cdot a_2 + 0 \cdot a_3 + \ldots + 0 \cdot a_n $$ $$ Ab_2 = 1 \cdot a_1 + 0 \cdot a_2 + 0 \cdot a_3 + \ldots + 0 \cdot a_n $$ $$ Ab_3 = 0 \cdot a_1 + 0 \cdot a_2 + 1 \cdot a_3 + \ldots + 0 \cdot a_n $$ $$ \vdots $$ $$Ab_j = 0 \cdot a_1 + \ldots + 1 \cdot a_j + 0 \cdot a_n \ \ \ \ \ 3 \leq j \leq n$$
Observación. Sean $A$ una matriz $m\times n$ y $B$ una matriz $n\times k$. Entonces en el producto $AB$, $A$ modifica los renglones de $B$.
Tenemos $$ AB = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $$ Habíamos visto que $ {r_i}^t B$ es una combinación de los renglones de $B$, $\ 1 \leq i \leq m$: $$ {r_i}^t B = \alpha_{i1} {s_1}^t + \alpha_{i2} {s_2}^t + \ldots + \alpha_{in} {s_n}^t \text{ donde } \ \ B = \begin{pmatrix}{s_1}^t \\ {s_2}^t \\ \vdots \\ {s_n}^t \end{pmatrix} $$ Es decir, los renglones de $AB$ son combinaciones de los renglones de $B$. Podemos pensar que $A$ está operando sobre $B$ : $$ A_{m\times n} : M (n,k) \rightarrow M (m,k) $$ $\\ $ $$ B_{n\times k} \xrightarrow{A_{m\times n}} (AB)_{m\times k} $$ $\\ $
A veces necesitaremos realizar operaciones sobre los renglones de una matriz, por ejemplo de la matriz $B$, o transformar una matriz en otra matriz que tenga propiedades deseables, y eso lo podremos lograr multiplicando (premultiplicando) por la matriz, digamos $A_{n\times n}$, adecuada.
Ejemplo. Sea $ B_{n\times k} = \begin{pmatrix} {s_1}^t \\ {s_2}^t \vdots \\ {s_n}^t \end{pmatrix} $
- Queremos $A$ tal que $ AB = \begin{pmatrix} {s_1}^t \\ \lambda_1 {s_1}^t + \lambda_2 {s_2}^t \\ {s_3}^t \\ \vdots \\ {s_n}^t \end{pmatrix}$, entonces: $ A = \begin{pmatrix} 1 & 0 & 0 & \ldots & 0 \\ \lambda_1 & \lambda_2 & 0 & \ldots & 0 \\ 0 & 0 & 1 & \ldots & 0 \\ \vdots & \vdots & \vdots & \ddots &\vdots\\ 0 & 0 & 0 & \ldots & 1 \\ \end{pmatrix}$
- Queremos $A$ tal que $ AB = \begin{pmatrix} {s_2}^t \\ {s_1}^t \\ {s_3}^t \\ \vdots \\ {s_n}^t \end{pmatrix}$; entonces: $A = \begin{pmatrix} 0 & 1 & 0 & \ldots & 0 \\ 1 & 0 & 0 & \ldots & 0 \\ 0 & 0 & 1 & \ldots & 0 \\ \vdots & \vdots & \vdots & \ddots &\vdots\\ 0 & 0 & 0 & \ldots & 1 \\ \end{pmatrix}$
- Queremos $A$ tal que: el i-ésimo renglón de $AB$ = i-ésimo renglón de $B$ para $i \neq j\ $ y j-ésimo renglón de $AB$ = $\lambda$(i-ésimo de B) + (j-ésimo renglón de $B$) $$A = \begin{matrix} _i\hspace{1.4cm} _j \\ \begin{pmatrix}1 & \ldots & 0 & \ldots & 0 &\ldots & 0 \\ & \ddots & & & & & \\ 0 & \ldots & 1 & \ldots & 0 &\ldots & 0 \\ & & \vdots & & \vdots & & \\ 0 & \ldots & \lambda & \ldots & 1 &\ldots & 0 \\ & & & & & \ddots & \\ 0 & \ldots & 0 & \ldots & 0 &\ldots & 1 \end{pmatrix} \begin{matrix} \\ \\ ^i \\ \\ ^j \\ \\ \\ \end{matrix} \\ \text{ } \end{matrix}$$
Por ejemplo, sea $ B = \begin{pmatrix} 1 & 2 & 1 \\ 2 & 0 & 1 \\ 1 & 0 & 2 \end{pmatrix}$
Entonces, si queremos sumar un múltiplo de $\left[ 1 \ \ 2 \ \ 1 \right] $ al renglón $\left[ 2 \ \ 0 \ \ 1 \right], $ premultiplicamos por la matriz $ A = \begin{pmatrix} 1 & 0 & 0 \\ \lambda & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} $
En particular, podemos escoger $ \lambda $ de manera que $ \lambda \left[ 1 \ \ 2 \ \ 1 \right] + \left[ 2 \ \ 0 \ \ 1 \right] = \left[ 0 \ \ * \ \ * \right] $
Si escogemos $\lambda = -2$ entonces $$\lambda \left[ 1 \ \ 2 \ \ 1 \right] + \left[ 2 \ \ 0 \ \ 1 \right] = \left[ -2 \ \ -4 \ \ -2 \right] + \left[ 2 \ \ 0 \ \ 1 \right] = \left[ 0 \ \ -4 \ \ -1 \right]$$ $$\therefore AB = \begin{pmatrix} 1 & 2 & 1 \\ 0 & -4 & -1 \\ 1 & 0 & 2 \end{pmatrix}$$
Más adelante veremos que necesitaremos efectuar este tipo de operación, la cual es muy importante.
Observación. El producto escalar es un caso particular del producto de matrices.
Observación. Cada renglón de ${ab}^t$ es un múltiplo de $b^t$. $$ $$ Ya que: $${ab}^t = \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_n \end{pmatrix} b^t = \begin{pmatrix} \alpha_1 b^t \\ \alpha_2 b^t \\ \vdots \\ \alpha_n b^t \end{pmatrix}$$
Observación. Cada columna de ${ab}^t$ es un múltiplo del vector $a$. $$ $$ Ya que: $${ab}^t = a \cdot \left[ \beta_1 \ \ \beta_2 \ \ \ldots \ \ \beta_n\right] = \left[ \beta_1 a \ \ \beta_2 a \ \ \ldots \ \ \beta_n a \right]$$
Ejemplo. $$\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} \left[ 1 \ \ 0 \ \ 1 \right] = \begin{pmatrix} 1 & 0 & 1 \\ 2 & 0 & 2 \\ 3 & 0 & 3 \end{pmatrix} = \begin{pmatrix} 1\ \left[ 1 \ \ 0 \ \ 1 \right] \\ 2 \ \left[ 1 \ \ 0 \ \ 1 \right] \\ 3 \ \left[ 1 \ \ 0 \ \ 1 \right] \end{pmatrix} = \begin{pmatrix}1 \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} & 0 \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} & 1 \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} \end{pmatrix} $$
Por medio de productos de este tipo vamos a expresar cada matriz como una suma de matrices.
Notación. Denotaremos por $e_i$ al vector cuyas componentes valen todas cero, excepto la i-ésima componente, cuyo valor es 1: $$ e_i = \begin{pmatrix} 0 \\ 0 \\ \vdots \\ 1 \\ 0 \\ \vdots \\ 0 \end{pmatrix} \leftarrow \text{lugar} \ i$$
Sean $e_i \in \mathbb{R}^m$ y $e_j \in \mathbb{R}^n$ ¿Qué forma tiene la matriz $e_i {e_j}^t$?
Observación. $e_i {e_j}^t$ es la matriz $m\times n$ cuyos elementos todos valen cero, excepto la componente que está en el renglón i-ésimo y la columna j-ésima, cuyo valor es 1.
Ya que: $$ e_i {e_j}^t = \begin{matrix} \\ \\ i \\ \\ \\\end{matrix} \begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix} \begin{matrix} j \\ \left[ 0 \ \ \ldots \ \ 1 \ \ \ldots \ \ 0 \right] \\ \text{ } \end{matrix} = \begin{matrix} &\ \ \ \ j \\ i& \begin{pmatrix} 0 & 0 & \ldots & 0 & \ldots & 0 \\ \vdots & \vdots \\ 0 & 0 & \ldots & 1 & \ldots & 0 \\ \vdots & \vdots \\ 0 & 0 & \ldots & 0 & \ldots & 0 \end{pmatrix} \\ \text{} \end{matrix} $$
Notación. Denotaremos a $e_i {e_j}^t$ por $ E_{ij}$.
Ahora expresaremos a la matriz $A$ como suma de matrices de 3 formas distintas:
Ahora \begin{align*} \left[ \begin{array}{c|c|c|c} a_1 & 0& \ldots & 0 \end{array} \right] &= a_1 {e_1}^t \\ \left[ \begin{array}{c|c|c|c} 0 & a_2& \ldots & 0 \end{array} \right] &= a_2 {e_2}^t \\ \vdots \\ \left[ \begin{array}{c|c|c|c} 0 & 0& \ldots & a_n \end{array} \right] &= a_n{e_n}^t \\ \\ \therefore A = a_1 {e_1}^t + a_2 {e_2}^t &+ \ldots + a_n{e_n}^t \end{align*}
$$\boxed{\therefore A = \sum_{j=1}^n a_j {e_j}^t } $$
Nota. Ya que $a_j \in \mathbb{R}^m , {e_j}^t \in {\mathbb{R}^n}^*,$ entonces $\ {a_j}_{m\times 1} {{{e_j}^t}_{1\times n}} \in M (m,n).$
Observación. El producto $ {e_i}^t e_j = \begin{cases} 1 & i = j \\ 0 & i \neq j \end{cases} $; es también conocido como la delta de Kronecker.
Expresamos el producto de dos matrices como una suma de matrices:
Sean $A$ y $B$, matrices tales que: $$ A_{m\times n} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \text{ y } B_{n\times k} = \begin{pmatrix} {s_1}^t \\ {s_2}^t \\ \vdots \\ {s_n}^t \end{pmatrix}$$ $$ \therefore \ \ A = \sum_{j=1}^n a_j {e_j}^t \ \ \ \ \text{y} \ \ \ \ B = \sum_{i=1}^n e_i {s_i}^t $$ $$\begin{align*} \therefore \ \ AB &= \left( \sum_{j=1}^n a_j {e_j}^t \right) \left( \sum_{i=1}^n e_i {s_i}^t \right) \\ &= \sum_{j=1}^n a_j \left( \sum_{i=1}^n {e_j}^t e_i {s_i}^t \right) = \sum_{j=1}^n a_j \left( \sum_{i=1}^n \left( {e_j}^t e_i \right) {s_i}^t \right) \\ & = \sum_{j=1}^n a_j {s_j}^t \end{align*}$$ $$ \boxed{ \therefore \ \ AB = \sum_{j=1}^n a_j {s_j}^t} $$
Recordemos que si $x \in \mathbb{R}^n$, entonces al transponer $x$ obtenemos el renglón $ x^t \in {\mathbb{R}^n}^*$ $$ x_{n\times 1} \longmapsto {{x^{\ t}}_{1\times n}}$$ Y que si $ x^t \in {\mathbb{R}^n}^*$, entonces su transpuesto es $x \in \mathbb{R}^n$ : $$ {x^{\ t}}_{1\times n} \longmapsto x_{n\times 1} $$
Nos proponemos extender el concepto de transposición de vectores, al de transposición de matrices.
Lo más natural es pensar en la transposición como la función que transforma los renglones de $A$ en columnas y las columnas de $A$ en renglones.
Definición. Sea $A \in M(m,n)$. Entonces la matriz transpuesta de $A$, denotada por $A^t$, es la matriz $n\times m$ que se obtiene de $A$ intercambiando sus renglones y columnas: $$A= \begin{pmatrix} \alpha_{11} & \alpha_{12} & \ldots & \alpha_{1n} \\ \alpha_{21} & \alpha_{22} & \ldots & \alpha_{2n} \\ \vdots & \vdots \\ \alpha_{m1} & \alpha_{m2} & \ldots & \alpha_{mn} \end{pmatrix} \ \ \Rightarrow \ \ A^t = \begin{pmatrix} \alpha_{11} & \alpha_{21} & \ldots & \alpha_{m1} \\ \alpha_{12} & \alpha_{22} & \ldots & \alpha_{m2} \\ \vdots & \vdots \\ \alpha_{1n} & \alpha_{2n} & \ldots & \alpha_{mn} \end{pmatrix} $$ Si $ A_{m\times n} = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] =\begin{matrix} \\ \\ \left[ \alpha_{ij} \right] \\ 1 \leq i \leq m \\ 1 \leq j \leq n \\ \end{matrix}, \text{ entonces: } $ $$ A^t = \left[ r_1 \vert r_2 \vert \ldots \vert r_m \right] = \begin{pmatrix}{a_1}^t \\ {a_2}^t \\ \vdots \\ {a_n}^t\end{pmatrix} = \left[ \alpha_{ji} \right]; \ \ 1 \leq j \leq n \ , \ 1 \leq i \leq m . $$
Ejemplo.
- $ x = \begin{pmatrix} \xi_1 \\ \xi_2 \\ \vdots \\ \xi_n \end{pmatrix} \Rightarrow x^t = \left[ \xi_1 \ \ \xi_2 \ \ \ldots \ \ \xi_n \right] $
- $ y^t = \left[ \eta_1 \ \ \eta_2 \ \ \ldots \ \ \eta_n \right] \Rightarrow y = \begin{pmatrix} \eta_1 \\ \eta_2 \\ \vdots \\ \eta_n \end{pmatrix}$
- $ A = \begin{pmatrix} 1 & -1 \\ 2 & 1 \\ 1 & 3 \end{pmatrix} \Rightarrow A^t = \begin{pmatrix} 1 & 2 & 1 \\ -1 & 1 & 3 \end{pmatrix} $
- $ A = \begin{pmatrix} 1 & 2 & 1 \\ -1 & 1 & 3 \end{pmatrix} \Rightarrow A^t = \begin{pmatrix} 1 & -1 \\ 2 & 1 \\ 1 & 3 \end{pmatrix} $
- $ A = \begin{pmatrix} 2 & 1 & 1 \\ 1 & -3 & 2 \\ 1 & 2 & 1 \end{pmatrix} \Rightarrow A^t = A $
- $ A = \begin{pmatrix} 0 & 1 & -1 \\ -1 & 0 & 2 \\ 1 & -2 & 0 \end{pmatrix} \Rightarrow A^t = \begin{pmatrix} 0 & -1 & 1 \\ 1 & 0 & -2 \\ -1 & 2 & 0 \end{pmatrix} \Rightarrow A^t = -A $
Las matrices tales que $A^t=A$ o $A^t=-A$ merecen nombres especiales:
Definición. Sea $A_{n\times n}$. Decimos que $A$ es simétrica si $A^t=A$; decimos que $A$ es anti-simétrica si $A^t=-A$.
Los últimos dos incisos del ejemplo anterior corresponden a matrices simétricas y anti-simétricas, respectivamente.
Más tarde veremos que trabajar con matrices simétricas es provechoso; por ejemplo, basta con tener datos sobre la mitad de los elementos de la matriz para conocer toda la matriz.
Ejemplo. Sea $A_{m\times n}$. Entonces $A^{t}A$ es simétrica, ya que $$ { (A^{t} A) }^t = A^t \left(A^t\right)^t = A^tA $$
Propiedad. $ A = A^t \ \ \Leftrightarrow \ \ A = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] = \begin{pmatrix} {a_1}^t \\ {a_2}^t \\ \vdots \\ {a_n}^t \end{pmatrix}$
Ejercicio. La demostración de esta propiedad queda como ejercicio.
La presencia de elementos $\alpha_{ij} = 0$ en una matriz generalmente simplifica los cálculos que involucran a dicha matriz.
Algunas matrices con determinada distribución de ceros son tan importantes que merecen nombres especiales.
Definición. Sea $D = \left[ \delta_{ij}\right] $ una matriz cuadrada de orden $n$. $D$ es diagonal si para $ i \neq j \Rightarrow \delta_{ij} = 0 $.
Es decir, $D$ es diagonal cuando sus únicos elementos diferentes de cero están en la diagonal.
A veces denotaremos a una matriz diagonal por $D = diag(\delta_i)$, donde $\delta_i$ es el i-ésimo elemento de la diagonal, o por $ D = diag ( \delta_1 , \delta_2 , \ldots , \delta_n )$ $$ D = \begin{pmatrix} \delta_1 & \ & \ & \ \\ \ & \delta_2 & \ & \ \\ \ & \ & \ddots & \ \\ \ & \ & \ & \delta_n \end{pmatrix} $$
¿Cuál es el efecto de multiplicar una matriz $A \in M(m,n)$ por una matriz diagonal?
Al pre-multiplicar $A$ por una matriz diagonal de orden $n$, el i-ésimo renglón de $A$ se multiplica por $\delta_i$: $$ DA = \begin{pmatrix} \delta_1 & \ & \ & \ \\ \ & \delta_2 & \ & \ \\ \ & \ & \ddots & \ \\ \ & \ & \ & \delta_n \end{pmatrix} \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} = \begin{pmatrix} \delta_1 {r_1}^t \\ \delta_2 {r_2}^t \\ \vdots \\ \delta_m {r_m}^t \end{pmatrix}$$
Al pos-multiplicar $A$ por una matriz diagonal de orden $n$, la i-ésima columna de $A$ se multiplica por $\delta_i$: $$ AD = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] \begin{pmatrix} \delta_1 & \ & \ & \ \\ \ & \delta_2 & \ & \ \\ \ & \ & \ddots & \ \\ \ & \ & \ & \delta_n \end{pmatrix} = \left[ \begin{array}{c|c|c|c} \delta_1 a_1 & \delta_2 a_2 & \ldots & \delta_n a_n \end{array} \right] $$
Ejemplo. $$ $$
- $ \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 0 \\ 4 & 8 & 2 \\ 0 & 18 & 15 \end{pmatrix} $
- $ \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} = \begin{pmatrix} 1 & 4 & 0 \\ 2 & 8 & 3 \\ 0 & 12 & 15 \end{pmatrix} $
En general vamos a tener que $DA \neq AD$.
Ejercicios. $$ $$
- Demuestre que si $D_1$ y $D_2$ son diagonales de orden $n$, entonces $D_1D_2 = D_2D_1$.
- Demuestre que si $D=diag(\delta_i)$, con $\delta_i = \delta$ $ \forall i = 1, \ldots , n $ entonces $DA=AD \ \ \forall A_{n\times n}$.
Ejemplo. $$ $$
- $ \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} 2 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix} = \begin{pmatrix} 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 6 \end{pmatrix} = \begin{pmatrix} 2 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}$
- $ \begin{pmatrix} \delta & 0 & 0 \\ 0 & \delta & 0 \\ 0 & 0 & \delta \end{pmatrix} \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} = \begin{pmatrix} \delta & 2 \delta & 0 \\ 2 \delta & 4 \delta & \delta \\ 0 & 6 \delta & 5 \delta \end{pmatrix} = \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} \begin{pmatrix} \delta & 0 & 0 \\ 0 & \delta & 0 \\ 0 & 0 & \delta \end{pmatrix} $
Definición. La matriz de orden $n$ $$I_n = diag(1,1,…,1) $$ se llama Matriz identidad de orden $n$.
Generalmente el orden de $I_n$ estará determinado por el contexto. En tales casos escribiremos $I_n=I$.
Observación. $$I_n = \left[ \begin{array}{c|c|c|c} e_1 & e_2 & \ldots & e_n \end{array} \right] = \begin{pmatrix} {e_1}^t \\ {e_2}^t \\ \vdots \\ {e_n}^t \end{pmatrix}$$ Donde $e_i \in \mathbb{R}^n \ \ \ \ \ 1 \leq i \leq n$.
Propiedad. Sea $A_{m\times n}$. Entonces $ I_m A = A I_n = A$.
Demostración. $$I_m A = \begin{pmatrix}1 & & & \\ & 1 & & \\ & & \ddots & \\ & & & 1\end{pmatrix} \begin{pmatrix}{r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t\end{pmatrix} = \begin{pmatrix}{r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t\end{pmatrix}$$ $$A I_n = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \begin{pmatrix}1 & & & \\ & 1 & & \\ & & \ddots & \\ & & & 1\end{pmatrix} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \blacksquare $$
Definición. Una matriz de orden $n$ se dice que es una permutación elemental si es de la forma $$ P_{ij} = \left[ \begin{array}{c|c|c|c|c|c|c|c|c|c|c} e_1 & e_2 & \ldots & e_{i-1}& e_j & e_{i+1} & \ldots & e_{j-1} & e_i & e_{j+1} & \ldots & e_n \end{array} \right] ; \text{ donde } i < j. $$
$P_{ij}$ es la matriz que se obtiene a partir de la identidad intercambiando la columna i-ésima con la j-ésima. $$ \begin{pmatrix} 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 \\ \end{pmatrix} $$
Es decir $$ P_{ij} = \begin{matrix} i \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ j & \\ \begin{pmatrix} 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 \\ \end{pmatrix} \end{matrix} \begin{matrix} \\ \\ \\ \\ \\i \\ \\ \\ \\j \\ \\ \\ \\ \\ \end{matrix}$$
Observación. $P_{ij}$ es también la matriz que se obtiene a partir de la matriz identidad intercambiando el renglón i-ésimo con el j-ésimo. Podríamos haber definido una matriz de permutación en función de sus renglones.
Definición. Una matriz de orden $n$ se dice que es una permutación elemental si es de la forma: $$ P_{ij} = \begin{pmatrix} {e_1}^t \\ {e_2}^t \\ \vdots \\ {e_{i-1}}^t \\ {e_j}^t \\ {e_{i+1}}^t \\ \vdots \\ {e_{j-1}}^t \\ {e_i}^t \\ {e_{j+1}}^t \\ \vdots \\ {e_{n-1}}^t \\ {e_n}^t \end{pmatrix}; \text{ donde } i < j. $$
Ejemplo.
$ P_{23} = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix}$ es una permutación elemental.
Propiedades de las permutaciones elementales .
La demostración de las propiedades queda como ejercicio.
La propiedad 2. indica que si intercambiamos dos renglones de la matriz identidad y después los volvemos a intercambiar, entonces al final tendremos a la matriz original ---la identidad--- . Esto también se puede pensar por columnas: si intercambiamos dos columnas de la identidad y después las volvemos a intercambiar, el efecto sobre la identidad es nulo.
Ejemplo.
$(P_{23})^2 = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \ \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix}$.
¿Qué pasa si aplicamos $P_{ij}$ a $ x \in \mathbb{R}^n$ ?
$$ P_{ij} x = \begin{pmatrix} {e_1}^t \\ \vdots \\ {e_j}^t \\ \vdots \\ {e_i}^t \\ \vdots \\ {e_n}^t \end{pmatrix} x = \begin{pmatrix} {e_1}^t x\\ \vdots \\ {e_j}^t x\\ \vdots \\ {e_i}^t x\\ \vdots \\ {e_n}^t x \end{pmatrix} = \begin{pmatrix} \xi_1 \\ \vdots \\ \xi_j \\ \vdots \\ \xi_i \\ \vdots \\ \xi_n \end{pmatrix} $$
Es decir, si $P_{ij}$ es la permutación en la que se han intercambiado el renglón i-ésimo con el j-ésimo, entonces al aplicarla al vector $x$, produce el efecto de intercambiar la i-ésima componente de $x$ con la j-ésima.
Ejemplo.
$\begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} \begin{pmatrix} 1 \\ 2 \\ 3 \\ \end{pmatrix} = \begin{pmatrix} 3 \\ 2 \\ 1 \\ \end{pmatrix} $
¿Qué pasa al aplicar $P_{ij}$ a $ y^t \in \mathbb{R}^{n* }$ ?
$$ y^t P_{ij} = y^t \left[ e_1 \vert \ldots \vert e_j \vert \ldots \vert e_i \vert \ldots \vert e_n \right] = \left[ y^t e_1 \vert \ldots \vert y^t e_j \vert \ldots \vert y^t e_i \vert \ldots \vert y^t e_n \right] \\ = \left[ \eta_1 \ldots \eta_j \ldots \eta_i \ldots \eta_n \right]$$
Entonces al aplicar $P_{ij}$ a $y^t$, intercambia la i-ésima y la j-ésima componentes de $y^t$.
Ejemplo.
$ \begin{pmatrix} 1 & 2 & 3 \end{pmatrix} \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} = \begin{pmatrix} 3 & 2 & 1 \end{pmatrix}$
Ahora, sea $A$ una matriz $n\times k$. ¿Qué efecto produce sobre $A$ la premultiplicación por $P_{ij}$ ? $$ P_{ij} A = \begin{pmatrix} {e_1}^t \\ \vdots \\ {e_j}^t \\ \vdots \\ {e_i}^t \\ \vdots \\ {e_n}^t \end{pmatrix} A = \begin{pmatrix} {e_1}^t A\\ \vdots \\ {e_j}^t A\\ \vdots \\ {e_i}^t A\\ \vdots \\ {e_n}^t A \end{pmatrix} = \begin{pmatrix} {r_1}^t \\ \vdots \\ {r_j}^t \\ \vdots \\ {r_i}^t \\ \vdots \\ {r_n}^t \end{pmatrix} $$ Entonces si $P_{ij}$ es la permutación en la cual están intercambiados el i-ésimo y el j-ésimo renglón de la identidad, entonces al premultiplicar $A$ por $P_{ij}$ se intercambian el i-ésimo renglón de $A$ con el j-ésimo.
Ejemplo.
$ \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} \begin{pmatrix} 1 & 1 & 3 \\ 2 & 0 & 2 \\ 1 & 1 & 1 \\ \end{pmatrix} = \begin{pmatrix} 1 & 1 & 1 \\ 2 & 0 & 2 \\ 1 & 1 & 3 \\ \end{pmatrix}$
Análogamente, si pos-multiplicamos $P_{ij}$ por $A$, entonces $P_{ij}$ actúa sobre $A$ intercambiando la i-ésima columna de $A$ con la j-ésima columna de $A$ : $$ A P_{ij} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \left[ e_1 \vert \ldots \vert e_j \vert \ldots \vert e_i \vert \ldots \vert e_n \right] = \left[ a_1 \vert \ldots \vert a_j \vert \ldots \vert a_i \vert \ldots \vert a_n \right]$$
Ejemplo.
$ \begin{pmatrix} 1 & 1 & 3 \\ 2 & 0 & 2 \\ 1 & 1 & 1 \\ \end{pmatrix} \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} = \begin{pmatrix} 3 & 1 & 1 \\ 2 & 0 & 2 \\ 1 & 1 & 1 \\ \end{pmatrix}$
Definición. La matriz $P$ es una permutación si es cuadrada y es tal que cada columna y cada renglón tienen un único elemento distinto de cero, cuyo valor es 1.
Es decir, una matriz de permutación tiene una de las siguientes representaciones
$ P = \begin{pmatrix} e_{i_1}^{\ t} \\ e_{i_2}^{\ t} \\ \vdots \\ e_{i_n}^{\ t} \end{pmatrix}$ donde $ i_1 , i_2 , \ldots , i_n \in {1, \ldots , n } $ y $ i_k \neq i_l$ si $ k \neq l $.
$ P = \left[ e_{j_1} \vert e_{j_2} \vert \ldots \vert e_{j_n} \right] $ donde $ j_1 , j_2 , \ldots , j_n \in {1, \ldots , n } $ y $ j_k \neq j_l$ si $ k \neq l $.
Una permutación se obtiene a partir de la matriz identidad intercambiando varios renglones (o varias columnas).
Ejemplo.
Si primero intercambiamos la segunda y la tercera columna, y después intercambiamos la primera columna con la segunda, obtenemos la permutación. $$ P = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix}$$ Y podemos expresar a $P$ como $$P= \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 0 & 1 & 0 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} $$
Ejemplo.
Si primero intercambiamos el segundo renglón con el tercer renglón y después intercambiamos el primer renglón con el segundo renglón entonces obtenemos la permutación $$ P = \begin{pmatrix} 0 & 0 & 1 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} $$
Observación. Para matrices de permutación vamos a tener que en general $ P^t \neq P $ y $ P^2 \neq I$.
Ejemplo.
$ \begin{pmatrix} 0 & 0 & 1 \\ 1 & 0 & 0 \\ 0 & 1 & 0 \end{pmatrix} = \begin{pmatrix} {e_3}^t \\ {e_1}^t \\ {e_2}^t \end{pmatrix} = \left[ e_2 \vert e_3 \vert e_1 \right] $
Propiedades de permutaciones.
La demostración de las propiedades queda como ejercicio.
Definición. Sea $A$ una matriz $m\times n$. Decimos que $A$ es trapezoidal superior si para $ i > j \Rightarrow \alpha_{ij} = 0$.
Definición. Una matriz trapezoidal superior que además es cuadrada se dice que es triangular superior.
Notación. Siempre que utilizemos la letra $U$ nos estaremos refiriendo a una matriz triangular superior.
Las matrices trapezoidales superiores tienen una de las siguientes formas:
$ m > n$ $$\begin{pmatrix} * & * & \ldots & * & * \\ 0 & * & \ldots & * & * \\ \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & * & * \\ 0 & 0 & \ldots & 0 & * \\ 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 \end{pmatrix}$$
$n > m$ $$\begin{pmatrix} * & * & \ldots & * & * & \ldots& * \\ 0 & * & \ldots & * & * & \ldots& * \\ \vdots & \vdots & \ & \vdots & \vdots & \ & \vdots \\ 0 & 0 & \ldots & * & * & \ldots& * \\ 0 & 0 & \ldots & 0 & * & \ldots& * \end{pmatrix}$$
$ m = n $ $$ \begin{pmatrix} * & * & \ldots & * \\ 0 & * & \ldots & * \\ \vdots & \vdots & \vdots & \vdots \\ 0 & 0 & \ldots & * \end{pmatrix}$$
Definición. Sea $A$ una matriz $m\times n$ . Decimos que $A$ es trapezoidal inferior si para $i < j \Rightarrow \alpha_{ij} = 0$.
Definición. Una matriz trapezoidal inferior que además es cuadrada se dice que es triangular inferior.
Notación. Siempre que denotemos a una matriz con la letra $L$ se sobre entenderá que $L$ es \textit{triangular inferior}.
Las matrices trapezoidales inferiores tienen una de las siguientes formas:
$ m > n$ $$\begin{pmatrix}* & 0 & 0 & \ldots & 0 & 0 \\ * & * & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ * & * & * & \ldots & * & 0 \\ * & * & * & \ldots & * & * \\ * & * & * & \ldots & * & * \\ \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ * & * & * & \ldots & * & * \\ \end{pmatrix}$$
$n > m$ $$\begin{pmatrix} * & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 \\ * & * & \ldots & 0 & 0 & 0 & \ldots & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots \\ * & * & \ldots & * & 0 & 0 & \ldots & 0 \\ * & * & \ldots & * & * & 0 & \ldots & 0 \\ \end{pmatrix}$$
$ m = n $ $$ \begin{pmatrix} * & 0 & 0 & \ldots & 0 \\ * & * & 0 & \ldots & 0 \\ * & * & * & \ldots & 0 \\ \vdots & \vdots & \vdots & \ & \vdots \\ * & * & * & \ldots & * \\ \end{pmatrix}$$
Propiedad. Si $L$ es triangular inferior, entonces $$ L = \begin{pmatrix} \lambda_{11} {e_1}^t \\ \lambda_{21} {e_1}^t + \lambda_{22}{e_2}^t \\ \lambda_{31} {e_1}^t + \lambda_{32}{e_2}^t + \lambda_{33} {e_3}^t \\ \vdots \\ \lambda_{n1} {e_1}^t + \lambda_{n2}{e_2}^t + \lambda_{n3} {e_3}^t + \ldots + \lambda_{nn} {e_n}^t \\ \end{pmatrix}$$
Demostración.
$ L = \begin{pmatrix} \lambda_{11} \\ \lambda_{21} & \lambda_{22} \\ \vdots & \vdots \\ \lambda_{n1} & \lambda_{n2} & \ldots & \lambda_{nn} \end{pmatrix} \begin{pmatrix} {e_1}^t \\ {e_2}^t \\ \vdots \\ {e_n}^t \end{pmatrix} = \begin{pmatrix} \lambda_{11} {e_1}^t \\ \lambda_{21} {e_1}^t + \lambda_{22}{e_2}^t \\ \vdots \\ \lambda_{n1} {e_1}^t + \lambda_{n2}{e_2}^t + \lambda_{n3} {e_3}^t + \ldots + \lambda_{nn} {e_n}^t \\ \end{pmatrix}$ $ \blacksquare $
Propiedad. Si $U$ es triangular superior entonces $$ U = \left[ \mu_{11} e_1 \vert \mu_{12} e_1 + \mu_{22} e_2 \vert \mu_{13} e_1 + \mu_{23} e_2 + \mu_{33} e_3 \vert \ldots \vert \mu_{1n} e_1 + \mu_{2n} e_2 + \ldots + \mu_{nn} e_n \right] $$
Demostración. \begin{align*} U &= \left[ e_1 \vert e_2 \vert \ldots \vert e_n \right] \begin{pmatrix} \mu_{11} & \mu_{12} & \mu_{13} & \ldots & \mu_{1n} \\ \ & \mu_{22} & \mu_{23} & \ldots & \mu_{2n} \\ \ & \ & \mu_{33} & \ldots & \mu_{3n} \\ \ & \ & \ & \ & \vdots \\ \ & \ & \ & \ & \mu_{nn} \\ \end{pmatrix} = \\ &= \left[ \mu_{11} e_1 \vert \mu_{12} e_1 + \mu_{22} e_2 \vert \ldots \vert \mu_{1n} e_1 + \mu_{2n} e_2 + \ldots + \mu_{nn} e_n \right] \blacksquare \end{align*}
Propiedades de matrices triangulares.
El producto de dos matrices triangulares inferiores es triangular inferior.
El producto de dos matrices triangulares superiores es triangular superior.
Demostración de la propiedad 1.
- Supongamos que $$ L = \begin{pmatrix} \lambda_{11} \\ \lambda_{21} & \lambda_{22} \\ \lambda_{31} & \lambda_{32} & \lambda_{33} \\ \vdots & \vdots & \vdots \\ \lambda_{n1} & \lambda_{n2} & \lambda_{n3} & \ldots & \lambda_{nn} \\ \end{pmatrix} \ \ \ \ \ \ \text{y} \ \ \ \ \ \ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_n}^t \end{pmatrix}$$ Entonces $$ LA = \begin{pmatrix} \lambda_{11} {r_1}^t \\ \lambda_{21} {r_1}^t + \lambda_{22} {r_2}^t \\ \lambda_{31} {r_1}^t + \lambda_{32} {r_2}^t + \lambda_{33}{r_3}^t \\ \vdots \\ \lambda_{n1} {r_1}^t + \lambda_{n2} {r_2}^t + \ldots + \lambda_{nn} {r_n}^t\\ \end{pmatrix} = \begin{pmatrix} {z_1}^t \\ {z_2}^t \\ {z_3}^t \\ \vdots \\ {z_n}^t \end{pmatrix} $$ Si $A$ es triangular inferior entonces \begin{align*} {r_1}^t &= \alpha_{11} {e_1}^t \\ {r_2}^t &= \alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t \\ {r_3}^t &= \alpha_{31} {e_1}^t + \alpha_{32} {e_2}^t + \alpha_{33} {e_3}^t \\ &\vdots\\ {r_n}^t &= \alpha_{n1} {e_1}^t + \alpha_{n2} {e_2}^t + \alpha_{n3} {e_3}^t + \ldots + \alpha_{nn} {e_n}^t \end{align*} Por lo tanto:
\begin{align*} {z_1}^t &= \lambda_{11} ( \alpha_{11} {e_1}^t ) = ( \lambda_{11} \alpha_{11} ) {e_1}^t \\ {z_2}^t &= \lambda_{21} ( \alpha_{11} {e_1}^t ) + \lambda_{22} (\alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t )= ( \lambda_{21} \alpha_{11} + \lambda_{22} \alpha_{21} ) {e_1}^t + (\lambda_{22} \alpha_{22}) {e_2}^t \\ {z_3}^t &= \lambda_{31} ( \alpha_{11} {e_1}^t ) + \lambda_{32} (\alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t ) + \lambda_{33} (\alpha_{31} {e_1}^t + \alpha_{32} {e_2}^t + \alpha_{33}{e_3}^t ) \\ &= ( \lambda_{31} \alpha_{11} + \lambda_{32} \alpha_{21} + \lambda_{33} \alpha_{31}) {e_1}^t + (\lambda_{32} \alpha_{22} + \lambda_{33} \alpha_{32}){e_2}^t + \lambda_{33} \alpha_{33} {e_3}^t \\ \vdots \\ {z_n}^t &= \lambda_{n1} ( \alpha_{11} {e_1}^t ) + \lambda_{n2} (\alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t ) + \ldots + \lambda_{nn} (\alpha_{n1} {e_1}^t + \alpha_{n2} {e_2}^t + \alpha_{n3}{e_3}^t + \ldots + \alpha_{nn} {e_n}^t )\\ &= ( \lambda_{n1} \alpha_{11} + \lambda_{n2} \alpha_{21} + \ldots + \lambda_{nn} \alpha_{n1}) {e_1}^t + (\lambda_{n2} \alpha_{22} + \ldots + \lambda_{nn} \alpha_{n2}){e_2}^t + \ldots + (\lambda_{nn} \alpha_{nn} ) {e_n}^t \end{align*} \begin{align*} \therefore \ \ {z_1}^t &= \zeta_{11} {e_1}^t \\ {z_2}^t &= \zeta_{21} {e_1}^t + \zeta_{22} {e_2}^t \\ \vdots \\ {z_n}^t &= \zeta_{n1} {e_1}^t + \zeta_{n2} {e_2}^t + \ldots + \zeta_{nn} {e_n}^t \end{align*} $ \therefore$ $LA$ es triangular inferior. $\blacksquare$
La demostración de la propiedad 2. queda como ejercicio.