I.2 Matrices sobre ${\mathbb{R}}$

I.2.1 Matrices sobre $\mathbb{R}$

Definición. Tenemos tres formas diferentes y equivalentes de definir una matriz.

  1. Convencionalmente definimos una matriz $m\times n$ sobre $\mathbb{R}$ como un arreglo rectangular de $mn$ números: $\alpha_{11}, \alpha_{12},...,\alpha_{1n}, \alpha_{21}, \alpha_{22},...,\alpha_{2n}, ... , \alpha_{m1}, \alpha_{m2}, ... , \alpha_{mn}$ que consta de $m$ renglones y $n$ columnas. Los números que forman el arreglo se llaman elementos de la matriz. Denotaremos a las matrices con las letras mayúsculas. $ \therefore$ Si $A$ es una matriz $m\times n$, $A$ es de la forma: $$ A = \begin{pmatrix} \alpha_{11} & \alpha_{12} & \ldots & \alpha_{1n}\\ \alpha_{21} & \alpha_{22} & \ldots & \alpha_{2n}\\ \vdots & \vdots & \ & \vdots\\ \alpha_{m1} & \alpha_{m2} & \ldots & \alpha_{mn}\\ \end{pmatrix} $$ donde $\alpha_{ij}\in \mathbb{R} \ \ \ 1 \leq i \leq m ,\ 1\leq j \leq n$ y $\alpha_{ij}$ es el elemento de $A$ que está en el i-ésimo renglón y la j-ésima columna de $A$. Escribimos $A=\left[ \alpha_{ij}\right] $

  2. Podemos definir a la matriz $A$ como un conjunto ordenado de $n$ vectores columna de orden $m$: $$ A = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & ... & a_n \end{array} \right]$$ donde $$ a_1 = \begin{pmatrix} \alpha_{11}\\ \alpha_{21} \\ \vdots \\ \alpha_{m1}\\ \end{pmatrix} ,\ \ a_2 = \begin{pmatrix} \alpha_{12}\\ \alpha_{22}\\ \vdots \\ \alpha_{m2}\\ \end{pmatrix} , \ \ \ldots , \ \ a_n = \begin{pmatrix} \alpha_{1n}\\ \alpha_{2n} \\ \vdots \\ \alpha_{mn}\\ \end{pmatrix}$$ Generalmente utilizaremos el índice $j$ para referirnos a las columnas de $A$.

  3. También podemos definir a $A$ como una colección ordenada de $m$ vectores renglón de orden $n$:$$ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix}$$ donde $$r_1^t = \left[ \begin{matrix} \alpha_{11} \ \ \alpha_{12} \ ... \ \alpha_{1n}\end{matrix} \right] $$ $$r_2^t = \left[ \begin{matrix} \alpha_{21} \ \ \alpha_{22} \ ... \ \alpha_{2n}\end{matrix} \right] $$ $$\vdots$$ $$r_m^t = \left[ \begin{matrix} \alpha_{m1} \ \ \alpha_{m2} \ ... \ \alpha_{mn}\end{matrix} \right] $$ Generalmente utilizaremos el índice $i$ para referirnos a los renglones de $A$.

Definición. Al conjunto de todas las matrices $m\times n$ lo denotaremos por $M(m,n)$

De acuerdo con la definición de matriz que dimos, podemos ver a una matriz como una colección ordenada de :

  1. Elementos $$\begin{pmatrix} \boxed{*} & \boxed{*} & \boxed{*} \\ \boxed{*} & \boxed{*} & \boxed{*} \\ \boxed{*} & \boxed{*} & \boxed{*} \\ \end{pmatrix} $$
  2. Columnas $$\begin{pmatrix} \boxed{\begin{array}{c} * \\ * \\ * \end{array} } & \boxed{\begin{array}{c} * \\ * \\ * \end{array} } & \boxed{\begin{array}{c} * \\ * \\ * \end{array} }\\ \end{pmatrix} $$
  3. Renglones $$ \begin{pmatrix} \begin{array}{|ccc|} \hline \ *\ & \ *\ &\ *\ \\ \hline \end{array}\\ \begin{array}{|ccc|} \hline \ *\ & \ *\ &\ *\ \\ \hline \end{array}\\ \begin{array}{|ccc|} \hline \ *\ & \ *\ &\ *\ \\ \hline \end{array} \end{pmatrix} $$

Es decir, tenemos tres formas distintas de trabajar con una matriz; escogeremos la representación que más nos convenga según la operación u operaciones a efectuar sobre la matriz.

Observación. Dos matrices $m\times n$ son iguales si y sólo si sus elementos correspondientes son iguales.

Definición. Una matriz $A$ $m\times n$ es cuadrada si $m=n$. En este caso decimos que $A$ es de orden $n$. Denotaremos al conjunto de todas las matrices cuadradas de orden $n$ por $M_{n}$.

Definición. Cualquier matriz cuyos elementos sean todos igual a cero se llamará matriz cero y se denotará por el símbolo $0$.

Operaciones básicas entre matrices

Las operaciones básicas son la suma de dos matrices y la multiplicación de una matriz por un escalar:

Definición Sean $A,B \in M(m,n)$. La suma de $A$ y $B$ es la matriz $C=\left[ \gamma_{ij}\right]$, denotada por $A+B$ y dada por : $$ \left[ \gamma_{ij}\right] = \left[ \alpha_{ij} + \beta_{ij}\right]. $$

Observación

  1. Podríamos haber definido $A+B$ por columnas o por renglones.
  • Es decir, si $A=\left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] , B=\left[ \begin{array}{c|c|c|c} b_1 & b_2 & \dots & b_n \end{array} \right]$ $$ A+B =\left[ \begin{matrix} \ a_1 + b_1 \ \vert\ a_2 + b_2 \ \vert\ \ldots \ \vert \ a_n + b_n \ \end{matrix} \right] $$ Ya que si $c=\left[ \begin{array}{c|c|c|c} c_1 & c_2 & \ldots & c_n \end{array} \right]$ entonces $$ c_j = \begin{pmatrix} \gamma_{1j}\\ \gamma_{2j}\\ \vdots \\ \gamma_{mj}\\ \end{pmatrix} = \begin{pmatrix} \alpha_{1j} + \beta_{1j}\\ \alpha_{2j} + \beta_{2j}\\ \vdots \\ \alpha_{mj} + \beta_{mj}\\ \end{pmatrix} = \begin{pmatrix} \alpha_{1j}\\ \alpha_{2j} \\ \vdots \\ \alpha_{mj}\\ \end{pmatrix} + \begin{pmatrix} \beta_{1j}\\ \beta_{2j}\\ \vdots \\ \beta_{mj} \end{pmatrix} $$ $$ = a_j + b_j \ \ \ \ \ \ 1 \leq j \leq n$$

  • Análogamente si $$ A = \begin{pmatrix} \ {r_1}^t \\ \ {r_2}^t \\ \vdots \\ \ {r_m}^t \\ \end{pmatrix}, \ \ B = \begin{pmatrix} \ {s_1}^t \\ \ {s_2}^t \\ \vdots \\ \ {s_m}^t \\ \end{pmatrix}; \text{ entonces }\ A + B = \begin{pmatrix} \ {r_1}^t + {s_1}^t \\ \ {r_2}^t + {s_2}^t\\ \vdots \\ \ {r_m}^t + {s_m}^t\\ \end{pmatrix} $$

  1. La suma de dos matrices solamente está definida cuando las dimensiones de ambas son iguales, es decir, cuando tienen el mismo número de renglones y columnas.

Definición. Sea $A\in M(m,n)$ y $ \lambda \in \mathbb{R} $ . El producto de un escalar $\lambda$ y $A$, denotado por $ \lambda \cdot A$ o $\lambda A$, es la matriz $m\times n$ dada por: $$\lambda A = \left[ \lambda \begin{matrix} \alpha_{ij} \end{matrix} \right] $$

Notar que si $ \lambda \neq 0$, entonces $A$ y $\lambda A$ tienen los mismos elementos no nulos.

Observación. Podríamos haber definido $\lambda A$ por columnas o por renglones. $$ \lambda A = \left[ \begin{array}{c|c|c|c} \lambda a_1 & \lambda a_2 & \ldots & \lambda a_n \end{array} \right]$$ $$ \lambda A = \begin{pmatrix} \lambda {r_1}^t \\ \lambda {r_2}^t \\ \vdots \\ \lambda {r_m}^t \\ \end{pmatrix}$$

I.2.2 Casos especiales de matrices

  1. Vectores columna. Si $A$ es una matriz $n\times 1$, entonces $A$ es de la forma: $$A= \begin{pmatrix} \alpha_{11} \\ \alpha_{21} \\ \vdots \\ \alpha_{n1} \\ \end{pmatrix}$$ que es exactamente la estructura de los miembros de $\mathbb{R}^n$. $$ $$ No distinguiremos entre una matriz $A \in M(n,1)$ y un vector $a \in \mathbb{R}^n$.
  2. Vectores renglón. Si $A$ es una matriz $1\times n$, entonces $A$ es de la forma: $$ A = \left[ \begin{array}{c|c|c|c} \alpha_{11} & \alpha_{12} & \ldots & \alpha_{1n} \end{array} \right]$$ Y podemos ver a $A$ como un miembro de ${\mathbb{R}^n}^*$. No distinguiremos entre una matriz $A \in M(1,n)$ y un renglón $a^t \in {\mathbb{R}^n}^*$.
  3. Escalares. Si $A$ es una matriz $1\times 1$, entonces: $$ A = \left[ \begin{matrix} \alpha_{11} \end{matrix} \right], \ \ \ \ \ \alpha_{11} \in \mathbb{R}$$ Existe una correspondencia biunívoca entre $\mathbb{R}$ y las matrices $1\times 1$. Abusando de esto, cuando sea conveniente manejaremos a los escalares como matrices $1\times 1$.

Notación. Si $A\in M(m,n)$ escribiremos $A_{m\times n}$.

I.2.3 Productos matriciales

(a) Producto de un renglón por un vector

Supongamos que tenemos la siguiente ecuación lineal: $$ \alpha_1 \xi_1 + \alpha_2 \xi_2 + \ldots + \alpha_n \xi_n = \beta $$

En esta ecuación podemos distinguir entre

  1. Los coeficientes de las incógnitas : $ \alpha_1, \alpha_2, \ldots , \alpha_n$.
  2. Las incógnitas : $\xi_1,\xi_2, \ldots , \xi_n$.
  3. El valor $\beta$

Podemos formar, de acuerdo con lo mencionado arriba:

  1. La matriz $1\times n$ de coeficientes: $$ r^t = \left[ \begin{matrix} \alpha_{1} \ \ \alpha_{2} \ \ldots \ \ \alpha_{n} \end{matrix} \right],\ \ \ \ \ \text{con} \ r = \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_n \\ \end{pmatrix}$$
  2. El vector cuyas componentes son las incógnitas $$ x = \begin{pmatrix} \xi_1 \\ \xi_2 \\ \vdots \\ \xi_n \\ \end{pmatrix}$$
  3. El vector $b$ cuya componente es $\beta$ $$ b = \left[ \ \beta \ \right] $$

Observamos que la ecuación $$ \alpha_1 \xi_1 + \alpha_2 \xi_2 + \ldots + \alpha_n \xi_n = \beta $$ es otra forma de escribir $$ r \cdot x = b $$ donde $ r \cdot x $ es el producto punto de $r$ y $x$.

Esto nos sugiere definir la multiplicación de un renglón por un vector como sigue.

Definición. Sea $r^t \in {\mathbb{R}^n}^*$ y $ x \in \mathbb{R}^n$. Entonces el producto de $r^t$ y $x$, escrito $r^t x$, es el vector $b \in \mathbb{R}^1$ dado por: $$ {r^t}_{1\times n}\ x_{n\times 1} = b_{1\times 1} = r \cdot x$$

Ejemplo. Si $ r^t = \left[ \begin{matrix} 1 \ \ 2 \ \ 1 \end{matrix} \right] $ , $ x = \begin{pmatrix} \xi_1 \\ \xi_2 \\ \xi_3\\ \end{pmatrix}$ entonces $$ r^t x = r \cdot x = \xi_1 + 2\xi_2 + \xi_3$$

De las propiedades del producto punto se sigue que:

Propiedades del producto renglón-vector

(b) Producto de una matriz por un vector

Ahora, supongamos que tenemos un sistema de $m$ ecuaciones lineales con $n$ incógnitas: $$ \begin{aligned} \alpha_{11}\ \xi_{1}\ &+\ \alpha_{12}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{1n}\ \xi_{n} =&\beta_1 \\ \alpha_{21}\ \xi_{1}\ &+\ \alpha_{22}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{2n}\ \xi_{n} =&\beta_2 \\ \ &\vdots &\vdots & &\vdots \\ \alpha_{m1}\ \xi_{1}\ &+\ \alpha_{m2}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{mn}\ \xi_{n} =&\beta_m \end{aligned}$$ Al igual que en el caso anterior, podemos distinguir entre:

  1. Los coeficientes $\alpha_{ij}, \ \ \ \ \ 1 \leq i \leq m \ \ \ 1 \leq j \leq n$
  2. Las incógnitas $\xi_{j}, \ \ \ \ \ 1 \leq j \leq n$
  3. Los valores $\beta_{i}, \ \ \ \ \ 1 \leq i \leq m $

y los podemos agrupar en 3 estructuras:

  1. La matriz $A_{m\times n}$ de coeficientes $$ A = \begin{pmatrix} \alpha_{11} & \alpha_{12} & \ldots & \alpha_{1n}\\ \alpha_{21} & \alpha_{22} & \ldots & \alpha_{2n}\\ \vdots & \vdots & \ & \vdots\\ \alpha_{m1} & \alpha_{m2} & \ldots & \alpha_{mn}\\ \end{pmatrix}$$
  2. El vector $x_{n\times 1}$ de incógnitas: $$ x = \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix}$$
  3. El vector $b_{m\times 1}$ de valores $$ b = \begin{pmatrix} \beta_1 \\ \beta_2\\ \vdots \\ \beta_m \end{pmatrix} $$

Queremos expresar el sistema de ecuaciones como una multiplicación $Ax=b$ , para lo cual hemos de definir un productos de una matriz por un vector de una manera que respete el producto de un renglón por un vector.

Observación. En todo sistema de ecuaciones el número de columnas de la matriz de coeficientes es igual al número de incógnitas.

Habíamos visto anteriormente que una matriz puede tener las representaciones: $$ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix}, \text{ donde } {r_i}^t = \left[ \begin{matrix} \alpha_{i1} \ \ \alpha_{i2} \ \ \ldots \ \ \alpha_{in} \end{matrix} \right], \ \ \ 1 \leq i \leq m.$$ $$A = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right], \text{ donde } a_j = \begin{pmatrix} \alpha_{1j} \\ \alpha_{2j} \\ \vdots \\ \alpha_{mj} \\ \end{pmatrix}, \ \ \ 1 \leq j \leq n.$$ De acuerdo con esto, podemos reescribir de dos formas al sistema de ecuaciones $$ \begin{aligned}\alpha_{11}\ \xi_{1}\ &+\ \alpha_{12}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{1n}\ \xi_{n} =&\beta_1 \\ \alpha_{21}\ \xi_{1}\ &+\ \alpha_{22}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{2n}\ \xi_{n} =&\beta_2 \\ \ &\vdots &\vdots & &\vdots \\ \alpha_{m1}\ \xi_{1}\ &+\ \alpha_{m2}\ \xi_{2}\ +& \ldots\ &+\ \alpha_{mn}\ \xi_{n} =&\beta_m \end{aligned}$$

  1. $$ \begin{array}{ccc} {r_{1}}^t\ x & = & \beta_{1} \\ {r_{2}}^t\ x & = & \beta_{2} \\ & \vdots & \\ {r_{m}}^t\ x & = & \beta_{m} \end{array} \ \ \Rightarrow \ \ \begin{pmatrix} {r_{1}}^t x \\ {r_{2}}^t x \\ \vdots \\ {r_{m}}^t x \\ \end{pmatrix}=\begin{pmatrix}\beta_1 \\ \beta_2 \\ \vdots \\ \beta_m\end{pmatrix} $$

Ejemplo. El sistema $$\begin{array}{ccc} \xi_1 + \xi_2 + \xi_3 & = & 1 \\ 2 \xi_1 - \xi_2 - \xi_3 & = & 0 \\ \end{array}$$ se puede escribir como $$ \begin{pmatrix} \left[ \right. &1& 1&1& \left. \right] x \\ \left[ \right. &2&-1&-1& \left. \right] x \end{pmatrix} =\begin{pmatrix} 1 \\ 0 \end{pmatrix};\ \text{con } \ x=\begin{pmatrix} \xi_1 \\ \xi_2 \\ \xi_3 \end{pmatrix}$$

  1. $$ \begin{pmatrix} \alpha_{11} \\ \alpha_{21} \\ \vdots \\ \alpha_{m1} \end{pmatrix} \xi_1 + \begin{pmatrix} \alpha_{12} \\ \alpha_{22} \\ \vdots \\ \alpha_{m2} \end{pmatrix} \xi_2 + \ldots + \begin{pmatrix} \alpha_{1n} \\ \alpha_{2n} \\ \vdots \\ \alpha_{mn} \end{pmatrix} \xi_n = \begin{pmatrix} \beta_1 \\ \beta_2 \\ \vdots \\ \beta_{m} \end{pmatrix}$$ Es decir $$a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n = b.$$

Ejemplo. Si tenemos: \begin{equation*} \begin{array}{ccc} \xi_1 + \xi_2 + \xi_3 & =& 1 \\ 2 \xi_1 - \xi_2 - \xi_3 &=& 0 \end{array} \\ \\ \end{equation*} entonces: $$ \begin{pmatrix} \xi_1 + \xi_2 + \xi_3 \\ 2 \xi_1 - \xi_2 - \xi_3 \\ \end{pmatrix} = \begin{pmatrix}1\\0\\ \end{pmatrix} \\ \Rightarrow \begin{pmatrix}1\\ 2\\ \end{pmatrix} \xi_1 + \begin{pmatrix}1\\ -1\\ \end{pmatrix} \xi_2 + \begin{pmatrix}1\\ -1\\ \end{pmatrix} \xi_3 = \begin{pmatrix}1 \\ 0\\ \end{pmatrix}$$

Esto nos sugiere dos formas de definir la multiplicación de una matriz por un vector:

Definición. Sea $A\in M(m,n)$ y $x \in \mathbb{R}^n$. Entonces la multiplicación de $A$ y $x$, denotada por $Ax$, es:

  1. El vector $b \in \mathbb{R}^m$ dado por: $$ Ax = \begin{pmatrix} {r_{1}}^t x \\ {r_{2}}^t x \\ \vdots \\ {r_{m}}^t x \end{pmatrix} $$ donde ${r_i}^t =\left[ \begin{matrix} \alpha_{i1} \ \ \alpha_{i2} \ \ \ldots \ \ \alpha_{in} \end{matrix} \right], \ \ \ 1 \leq i \leq m $ es el i-ésimo renglón de $A$.
  2. El vector $m\times 1$ dado por: $$ Ax = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n $$ donde $ x = \begin{pmatrix} \xi_1 \\ \xi_2 \\ \vdots \\ \xi_n \end{pmatrix}$ y $ a_j = \begin{pmatrix} \alpha_{1j} \\ \alpha_{2j} \\ \vdots \\ \alpha_{mj} \end{pmatrix}, \ \ \ 1 \leq j \leq n $ es la j-ésima columna de $A$.

Observación. Estas dos definiciones son equivalentes.

Demostración $$ $$ Sean $ b_1 = \begin{pmatrix} {r_{1}}^t x \\ {r_{2}}^t x \\ \vdots \\ {r_{m}}^t x \end{pmatrix}\ \text{ y }\ b_2 = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n$, entonces $$ \begin{aligned} b_1 &= \begin{pmatrix} \alpha_{11} \xi_1 + \alpha_{12} \xi_2 + \ldots + \alpha_{1n} \xi_n \\ \alpha_{21} \xi_1 + \alpha_{22} \xi_2 + \ldots + \alpha_{2n} \xi_n \\ \vdots \ \ \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ \ \ \vdots \\ \alpha_{m1} \xi_1 + \alpha_{m2} \xi_2 + \ldots + \alpha_{mn} \xi_n \\ \end{pmatrix} = \begin{pmatrix} \alpha_{11} \xi_1 \\ \alpha_{21} \xi_1 \\ \vdots \\ \alpha_{m1} \xi_1 \\ \end{pmatrix} + \begin{pmatrix} \alpha_{12} \xi_2 \\ \alpha_{22} \xi_2 \\ \vdots \\ \alpha_{m2} \xi_2 \\ \end{pmatrix} + \ldots + \begin{pmatrix} \alpha_{1n} \xi_n \\ \alpha_{2n} \xi_n \\ \vdots \\ \alpha_{mn} \xi_n \\ \end{pmatrix} \\ \\ &= \begin{pmatrix} \alpha_{11} \\ \alpha_{21} \\ \vdots \\ \alpha_{m1} \\ \end{pmatrix} \xi_1 + \begin{pmatrix} \alpha_{12} \\ \alpha_{22} \\ \vdots \\ \alpha_{m2} \\ \end{pmatrix} \xi_2 + \ldots + \begin{pmatrix} \alpha_{1n} \\ \alpha_{2n} \\ \vdots \\ \alpha_{mn} \\ \end{pmatrix} \xi_n = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n = b_{2} \blacksquare \\ \end{aligned} $$

Observación. No hay ninguna restricción sobre $m$ (= número de renglones de $A$), pero es necesario que la dimensión del vector $x$ y $n$ (=el número de columnas de $A$) sean iguales, para que los productos ${r_i}^t x$ estén bien definidos.

Ahora, si nos fijamos en que al multiplicar una matriz $m\times n$ por un vector $n\times 1$ obtenemos un vector $m\times 1$, esto nos permite ver a la multiplicación por $A_{m\times n}$ como una función que a cada $x \in \mathbb{R}^n$ le asocia una $ b \in \mathbb{R}^m$: $$ A_{m\times n} : \mathbb{R}^n \rightarrow \mathbb{R}^m$$

$$ x \xrightarrow{\ \ A \ \ } b=Ax$$

Ejemplo. $$ $$ Si: $ A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \\ 1 & 0 \\ \end{pmatrix} $ y $ x = \begin{pmatrix} 1 \\ 0 \\ \end{pmatrix} $, entonces: $ A x = \begin{pmatrix} 1 \\ 0 \\ 1 \\ \end{pmatrix} \left( 1 \right) + \begin{pmatrix} 2 \\ 1 \\ 0 \\ \end{pmatrix} \left( 0 \right) = \begin{pmatrix} 1 \\ 0 \\ 1 \\ \end{pmatrix} $ $$ \begin{pmatrix} 1 \\ 0 \\ \end{pmatrix} \xrightarrow{\ \ A \ \ } \begin{pmatrix} 1 \\ 0 \\ 1 \\ \end{pmatrix} $$

Observación Importante. ¿Qué más podemos decir acerca de $b=Ax$?
Si nos fijamos en que $$b = a_1 \xi_1 + a_2 \xi_2 + \ldots + a_n \xi_n$$ veremos que $b$ es una combinación1 de las columnas de $A$. $$b_{m\times 1} = A_{m\times n} x_{n\times 1}$$ si y sólo si $b$ es una combinación de las columnas de $A$.

Uno de los problemas más importantes del álgebra lineal es poder contestar la siguiente pregunta:

¿Cuándo es $b_{m\times 1}$ una combinación de $a_1, a_2 , \ldots , a_n \in \mathbb{R}^m$?

Esta pregunta la podemos plantear así:

¿Dado $b \in \mathbb{R}^m$, cuándo existe $x \in \mathbb{R}^n$ tal que $A_{m\times n} x = b$?.

De aquí la importancia de entender la interpretación sobre la multiplicación de una matriz por un vector.


  1. Este tipo de combinaciones se llaman combinaciones lineales. En el siguiente capítulo introduciremos finalmente el concepto, y analizaremos sus propiedades.

(c) Producto de un renglón por una matriz

Así como definimos el producto $A_{m\times n} \ x_{n\times 1} = b_{m\times 1}$ ahora queremos definir el producto de un renglón por una matriz $$ y_{1\times m}^{t} \ A_{m \times n}$$

Definición. Sea $A \in M(m,n)$ y $y^t \in {\mathbb{R}^m}^* $. Entonces el producto de $y^t$ por $A$, denotado por $y^t A$, es:

  1. El renglón $1\times n$ dado por: $$ y^t A = \left[ \begin{matrix} y^t a_1 \ \ y^t a_2 \ \ldots \ y^t a_n \end{matrix} \right] $$ donde $a_j = \begin{pmatrix}\alpha_{1j} \\ \alpha_{2j} \\ \vdots \\ \alpha_{mj} \end{pmatrix},\ \ \ 1 \leq j \leq n $ es la j-ésima columna de $A$.
  2. El renglón de ${\mathbb{R}^n}^*$ dado por : $$ y^t A = \eta_1 {r_1}^t + \eta_2 {r_2}^t + \ldots + \eta_m {r_m}^t$$ donde $y^t = \left[ \begin{matrix} \eta_1 \ \ \eta_2 \ \ldots \ \eta_n \end{matrix} \right]\ $ y $\ {r_i}^t = \left[\begin{matrix} \alpha_{i1} \ \ \alpha_{i2} \ \ldots \ \alpha_{in} \end{matrix}\right],\ \ \ 1 \leq i \leq m $ es el i-ésimo renglón de $A.$

Observación. Estas dos definiciones son equivalentes.

Demostración. $$\ $$ Sean $ {d_1}^t = \eta_1 {r_1}^t + \eta_2 {r_2}^t + \ldots + \eta_m {r_m}^t, {d_2}^t = \left[\begin{matrix} y^t a_1 \ \ y^t a_2 \ \ldots \ y^t a_n \end{matrix}\right],\ \text{ entonces:}$ $$ $$ $ \begin{align*} {d_1}^t &= \eta_1 \left[ \begin{matrix}\alpha_{11} \ \ \alpha_{12} \ \ldots \ \alpha_{1n} \end{matrix}\right] + \eta_2 \left[\begin{matrix} \alpha_{21} \ \ \alpha_{22} \ \ldots \ \alpha_{2n} \end{matrix}\right] + \ldots + \eta_m \left[\begin{matrix} \alpha_{m1} \ \ \alpha_{m2} \ \ldots \ \alpha_{mn} \end{matrix}\right] \\ \\ &= \left[ \sum_{i=1}^m \eta_i \alpha_{i1} \ \ \ \sum_{i=1}^m \eta_i \alpha_{i2} \ \ \ldots \ \ \sum_{1=1}^m \eta_i \alpha_{in} \right] = \left[ \begin{matrix} y^t a_1 \ \ \ y^t a_2 \ \ldots \ y^t a_n \end{matrix}\right] = {d_2}^t \end{align*}$ $$\blacksquare$$

Observación. No hay ninguna restricción sobre $n$ ( = número de columnas de $A$ ), pero es necesario que la dimensión del renglón $y^t$ y $m$ ( = número de renglones de $A$) sean iguales, para que los productos $y^t a_j$ estén bien definidos. Podemos ver la multiplicación de ${y^t}_{1\times m}$ por $A_{m\times n}$ como una función que actúa sobre $y^t$ y que le asocia un $d^t \in {\mathbb{R}^n}^*$ $$ A_{m\times n} : {\mathbb{R}^m}^* \rightarrow {\mathbb{R}^n}^*$$

$$ y^t \xrightarrow{\ \ A \ \ } d^t=y^tA$$

Ejemplo. Si $ A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \\ 1 & 0 \end{pmatrix}\ $ y $\ y^t = \left[\begin{matrix} 1 \ \ 0 \ \ -1 \end{matrix}\right],$ entonces:\begin{align*} y^t &= (1) \left[ \begin{matrix} 1 & 2 \end{matrix} \right] +(0) \left[ \begin{matrix} 0 & 1 \end{matrix} \right] +(-1) \left[ \begin{matrix} 1 & 0 \end{matrix} \right] \\ &= \left[ \begin{matrix} 1 & 2 \end{matrix} \right] + \left[ \begin{matrix} -1 & 0 \end{matrix} \right]\\ &= \left[ \begin{matrix} 0 & 2 \end{matrix} \right] \end{align*} $$ \therefore \left[ 1 \ \ 0 \ \ -1 \right] \xrightarrow{\ \ A \ \ } \left[ 0 \ \ 2 \right] $$

Observación importante. Así como planteamos el problema anterior sobre las columnas de $A$, lo pudimos haber planteado con sus renglones. $$ $$ Por definición $$d^t = \eta_1 {r_1}^t + \eta_2 {r_2}^t + \ldots + \eta_m {r_m}^t$$ es decir: $d^t = y^t A $ si y sólo si $d^t$ es una combinación1 de los renglones de $A$.

Ahora si nos planteamos el problema: $$ $$

¿Cuándo es ${d^{\ t}}_{1\times n}$ una combinación de ${r_1}^t , {r_2}^t , \ldots , {r_m}^t \in {\mathbb{R}^n}^*$ ?

O de manera equivalente:

¿Dado $d^t \in {\mathbb{R}^n}^*$, cúando existe $y^t \in {\mathbb{R}^m}^*$ tal que $y^t A = d^t$ donde $ A = \begin{pmatrix} {r_1}^t \\ \vdots \\ {r_m}^t \end{pmatrix}$ ?

  1. Ver nota aclaratoria anterior

(d) Multiplicación de matrices

Supongamos que tenemos dos matrices $A_{m\times n}$, $B_{n\times k}$. ¿Cómo definimos el producto $AB$ de modo que respete los productos que hemos definido anteriormente?

$ \text{Si } \ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] \text{ y } B = \left[ \begin{array}{c|c|c|c} b_1 & b_2 & \ldots & b_k \end{array} \right]$

La multiplicación de una matriz por un vector nos llevaría a definir $$AB = A \left[ \begin{array}{c|c|c|c} b_1 & b_2 & \ldots & b_k \end{array} \right]=\left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] $$ Por otro lado, la multiplicación de un renglón por una matriz nos conduce a definir $$ AB = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} B = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $$ O también podríamos definir $AB$ elemento a elemento: $$ AB = \begin{pmatrix} {r_1}^t b_1 & {r_1}^t b_2 & \ldots & {r_1}^t b_k \\ {r_2}^t b_1 & {r_2}^t b_2 & \ldots & {r_2}^t b_k \\ \vdots \\ {r_m}^t b_1 & {r_m}^t b_2 & \ldots & {r_m}^t b_k \\ \end{pmatrix} $$

Veremos que podemos definir $AB$ por cualquiera de estas 3 formas; ya que

$$ \left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] = \begin{pmatrix} {r_1}^t b_1 & {r_1}^t b_2 & \ldots & {r_1}^t b_k \\ {r_2}^t b_1 & {r_2}^t b_2 & \ldots & {r_2}^t b_k \\ \vdots \\ {r_m}^t b_1 & {r_m}^t b_2 & \ldots & {r_m}^t b_k \\ \end{pmatrix} = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $$

Tenemos las siguientes tres definiciones equivalentes, del producto de dos matrices.

Definición. Sea $A \in M(m,n)$, $B \in M(n,k)$, entonces el producto de $A$ y $B$, denotado por $AB$ , es la matriz $C=\left[ \gamma_{ij} \right] \in M(m,k)$ dada por:

  1. $AB = \left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] $
  2. $ AB = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $
  3. $ AB = \begin{pmatrix} {r_1}^t b_1 & {r_1}^t b_2 & \ldots & {r_1}^t b_k \\ {r_2}^t b_1 & {r_2}^t b_2 & \ldots & {r_2}^t b_k \\ \vdots \\ {r_m}^t b_1 & {r_m}^t b_2 & \ldots & {r_m}^t b_k \\ \end{pmatrix} $ es decir $\ \ \gamma_{ij} = {r_i}^t b_j, \ \ \ 1 \leq i \leq m, \ \ \ 1 \leq j \leq k$.

Observación. Como acabamos de ver 1. , 2. y 3. definen a la misma matriz: $$ A_{m\times n} B_{n\times k} = C_{m\times k} $$

Observaciones.

  1. Cada columna de $AB$ es el producto de una matriz y una columna: $$ \text{columna j-ésima de } AB = A\ \cdot \ (\text{j-ésima columna de } B )$$
  2. Cada renglón de $AB$ es el producto de un renglón y una matriz: $$ \text{renglón i-ésimo de } AB = (\text{i-ésimo renglón de } A )\ \cdot \ B$$
  3. Cada entrada de $AB$ es el producto de un renglón y una columna: $$ \gamma_{ij} = (\text{i-ésimo renglón de } A )\ \cdot \ (\text{j-ésima columna de } B )$$

Gráficamente:

  1. $$ A_{2 \times 3} \begin{pmatrix} \begin{array}{ccc} \begin{array}{c} * \\ * \\ * \end{array} & \boxed{\begin{array}{c} * \\ * \\ * \end{array}} & \begin{array}{c} * \\ * \\ * \end{array} \end{array} \end{pmatrix}= \begin{pmatrix} \begin{array}{ccc} \begin{array}{c} * \\ * \end{array} & \boxed{\begin{array}{c} * \\ * \end{array}} & \begin{array}{c} * \\ * \end{array} \end{array} \end{pmatrix} $$

  2. $$ \begin{pmatrix} \begin{array}{c} \begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} \\ \boxed{\begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} } \end{array} \end{pmatrix} B_{3\times 3} = \begin{pmatrix} \begin{array}{c} \begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} \\ \boxed{\begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} } \end{array} \end{pmatrix} $$

  3. $$\begin{pmatrix} \begin{array}{c} \begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} \\ \boxed{\begin{array}{ccc} \ * \ & \ *\ & \ *\ \end{array} } \end{array} \end{pmatrix} \begin{pmatrix} \begin{array}{ccc} \begin{array}{c} * \\ * \\ * \end{array} & \boxed{\begin{array}{c} * \\ * \\ * \end{array}} & \begin{array}{c} * \\ * \\ * \end{array} \end{array} \end{pmatrix}= \begin{pmatrix} \ * \ & \ *\ & \ *\ \\ \ * \ & \ \boxed{*}\ & \ *\ \end{pmatrix} $$

Observación. Para que $AB$ esté definido necesitamos que el número de columnas de $A$ sea igual al número de renglones de $B$.

Propiedades del producto entre matrices

  1. $(AB)C = A(BC) $
  2. $ A (B+C) = AB + AC \ \ \text{y}\ \ (B+C) D = BD + CD$
  3. $AB \neq BA $ en general.

La conmutatividad puede fallar por varias razones.

  • Si $A$ es $m\times n$ y $B$ es $n\times k$, con $k \neq m$, entonces $AB$ está definido pero $BA$ no está definido $\therefore AB \neq BA$.
  • Si $A$ es $m\times n$ y $B$ es $n\times m$, con $m \neq n$, entonces tanto $AB$ como $BA$ están definidos, pero no pueden ser iguales ya que $AB$ es $m\times m$ y $BA$ es $n\times n$, $n \neq m$.
  • Si tanto $A$ como $B$ son $n\times n$, entonces $AB$ y $BA$ son de orden $n$, pero aún en este caso la conmutatividad puede fallar, como en el siguiente ejemplo: $$ \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix} \neq \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix} $$

Discusión del producto matricial

Nos podríamos preguntar para qué nos sirve haber definido el producto de dos matrices. Una manera provechosa de considerar la multiplicación de matrices es viendo a una de las matrices como una función que opera sobre la otra matriz:

Operando sobre las columnas de una matriz

Observación. Sean $A$ una matriz $m\times n$ y $B$ una matriz $n\times k$. Entonces en el producto $AB$, $B$ modifica las columnas de $A$.

Tenemos $AB = \left[ \begin{array}{c|c|c|c} A b_1 & A b_2 & \ldots & A b_k \end{array} \right] $

Ya vimos que $Ab_j$ ---la j-ésima columna de $AB$--– es una combinación de las columnas de $A$. $$ Ab_j = a_1 \beta_{1j} + a_2 \beta_{2j} + \ldots + a_n \beta_{nj} \ \ \ \ \ 1 \leq j \leq k$$ Es decir, las columnas de $AB$ son combinaciones de las columnas de $A$.

Podemos pensar en que $B$ está operando sobre $A$ y transformando sus columnas: $$ B_{n\times k} : M (m,n) \rightarrow M (m,k) $$ $ \\ $ $$A_{m\times n} \xrightarrow{B_{n\times k}} (AB)_{m\times k} $$ $\\ $

A veces necesitaremos realizar algunas operaciones sobre las columnas de $A$, o desearemos transformar a $A$ en otra matriz con la cual sea más fácil trabajar; eso lo podremos lograr escogiendo la matriz $B_{n\times n}$ adecuada y multiplicando (posmultiplicando) por $B$.

Ejemplo. Sea $ A_{m\times n} = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] $

  • Queremos $AB = \left[ \begin{array}{c|c|c|c} \lambda_1 a_1 & \lambda_2 a_2 & \ldots & \lambda_n a_n \end{array} \right]$, entonces: $$ B = \begin{pmatrix} \lambda_1 & 0 & \ldots & 0 \\ 0 & \lambda_2 & \ldots & 0 \\ \vdots & \vdots & \vdots & \vdots\\ 0 & 0 & \ldots & \lambda_n \\ \end{pmatrix}$$ Ya que $$Ab_1 = \lambda_1 a_1 + 0 \cdot a_2 + \ldots + 0 \cdot a_n$$ $$Ab_2 = 0 \cdot a_1 + \lambda_2 a_2 + \ldots + 0 \cdot a_n$$ $$\vdots$$ $$Ab_n = 0 \cdot a_1 + 0 \cdot a_2 + \ldots + \lambda_n a_n$$
  • Queremos $AB = \left[ \begin{array}{c|c|c|c|c} a_2 & a_1 & a_3 & \ldots & a_n \end{array} \right],$ es decir, si queremos cambiar las columnas uno y dos de $A$ entonces: $$ B = \begin{pmatrix} 0 & 1 & 0 & \ldots & 0 \\ 1 & 0 & 0 & \ldots & 0 \\ 0 & 0 & 1 & \ldots & 0 \\ \ & \ & \vdots & \ & \ \\ 0 & 0 & 0 & \ldots & 1 \\ \end{pmatrix}$$ Ya que $$ Ab_1 = 0 \cdot a_1 + 1 \cdot a_2 + 0 \cdot a_3 + \ldots + 0 \cdot a_n $$ $$ Ab_2 = 1 \cdot a_1 + 0 \cdot a_2 + 0 \cdot a_3 + \ldots + 0 \cdot a_n $$ $$ Ab_3 = 0 \cdot a_1 + 0 \cdot a_2 + 1 \cdot a_3 + \ldots + 0 \cdot a_n $$ $$ \vdots $$ $$Ab_j = 0 \cdot a_1 + \ldots + 1 \cdot a_j + 0 \cdot a_n \ \ \ \ \ 3 \leq j \leq n$$
Operando sobre los renglones de una matriz

Observación. Sean $A$ una matriz $m\times n$ y $B$ una matriz $n\times k$. Entonces en el producto $AB$, $A$ modifica los renglones de $B$.

Tenemos $$ AB = \begin{pmatrix} {r_1}^t B \\ {r_2}^t B \\ \vdots \\ {r_m}^t B \end{pmatrix} $$ Habíamos visto que $ {r_i}^t B$ es una combinación de los renglones de $B$, $\ 1 \leq i \leq m$: $$ {r_i}^t B = \alpha_{i1} {s_1}^t + \alpha_{i2} {s_2}^t + \ldots + \alpha_{in} {s_n}^t \text{ donde } \ \ B = \begin{pmatrix}{s_1}^t \\ {s_2}^t \\ \vdots \\ {s_n}^t \end{pmatrix} $$ Es decir, los renglones de $AB$ son combinaciones de los renglones de $B$. Podemos pensar que $A$ está operando sobre $B$ : $$ A_{m\times n} : M (n,k) \rightarrow M (m,k) $$ $\\ $ $$ B_{n\times k} \xrightarrow{A_{m\times n}} (AB)_{m\times k} $$ $\\ $

A veces necesitaremos realizar operaciones sobre los renglones de una matriz, por ejemplo de la matriz $B$, o transformar una matriz en otra matriz que tenga propiedades deseables, y eso lo podremos lograr multiplicando (premultiplicando) por la matriz, digamos $A_{n\times n}$, adecuada.

Ejemplo. Sea $ B_{n\times k} = \begin{pmatrix} {s_1}^t \\ {s_2}^t \vdots \\ {s_n}^t \end{pmatrix} $

  • Queremos $A$ tal que $ AB = \begin{pmatrix} {s_1}^t \\ \lambda_1 {s_1}^t + \lambda_2 {s_2}^t \\ {s_3}^t \\ \vdots \\ {s_n}^t \end{pmatrix}$, entonces: $ A = \begin{pmatrix} 1 & 0 & 0 & \ldots & 0 \\ \lambda_1 & \lambda_2 & 0 & \ldots & 0 \\ 0 & 0 & 1 & \ldots & 0 \\ \vdots & \vdots & \vdots & \ddots &\vdots\\ 0 & 0 & 0 & \ldots & 1 \\ \end{pmatrix}$
  • Queremos $A$ tal que $ AB = \begin{pmatrix} {s_2}^t \\ {s_1}^t \\ {s_3}^t \\ \vdots \\ {s_n}^t \end{pmatrix}$; entonces: $A = \begin{pmatrix} 0 & 1 & 0 & \ldots & 0 \\ 1 & 0 & 0 & \ldots & 0 \\ 0 & 0 & 1 & \ldots & 0 \\ \vdots & \vdots & \vdots & \ddots &\vdots\\ 0 & 0 & 0 & \ldots & 1 \\ \end{pmatrix}$
  • Queremos $A$ tal que: el i-ésimo renglón de $AB$ = i-ésimo renglón de $B$ para $i \neq j\ $ y j-ésimo renglón de $AB$ = $\lambda$(i-ésimo de B) + (j-ésimo renglón de $B$) $$A = \begin{matrix} _i\hspace{1.4cm} _j \\ \begin{pmatrix}1 & \ldots & 0 & \ldots & 0 &\ldots & 0 \\ & \ddots & & & & & \\ 0 & \ldots & 1 & \ldots & 0 &\ldots & 0 \\ & & \vdots & & \vdots & & \\ 0 & \ldots & \lambda & \ldots & 1 &\ldots & 0 \\ & & & & & \ddots & \\ 0 & \ldots & 0 & \ldots & 0 &\ldots & 1 \end{pmatrix} \begin{matrix} \\ \\ ^i \\ \\ ^j \\ \\ \\ \end{matrix} \\ \text{ } \end{matrix}$$

Por ejemplo, sea $ B = \begin{pmatrix} 1 & 2 & 1 \\ 2 & 0 & 1 \\ 1 & 0 & 2 \end{pmatrix}$

Entonces, si queremos sumar un múltiplo de $\left[ 1 \ \ 2 \ \ 1 \right] $ al renglón $\left[ 2 \ \ 0 \ \ 1 \right], $ premultiplicamos por la matriz $ A = \begin{pmatrix} 1 & 0 & 0 \\ \lambda & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} $

En particular, podemos escoger $ \lambda $ de manera que $ \lambda \left[ 1 \ \ 2 \ \ 1 \right] + \left[ 2 \ \ 0 \ \ 1 \right] = \left[ 0 \ \ * \ \ * \right] $

Si escogemos $\lambda = -2$ entonces $$\lambda \left[ 1 \ \ 2 \ \ 1 \right] + \left[ 2 \ \ 0 \ \ 1 \right] = \left[ -2 \ \ -4 \ \ -2 \right] + \left[ 2 \ \ 0 \ \ 1 \right] = \left[ 0 \ \ -4 \ \ -1 \right]$$ $$\therefore AB = \begin{pmatrix} 1 & 2 & 1 \\ 0 & -4 & -1 \\ 1 & 0 & 2 \end{pmatrix}$$

Más adelante veremos que necesitaremos efectuar este tipo de operación, la cual es muy importante.

(e) Casos especiales de productos de matrices

  • Sea $x^t \in M(1,n), \ y \in M(n,1)$. Entonces $$ x^t y \in M(1,1) \sim \mathbb{R}$$ $$ x ^ t y = x \cdot y $$

Observación. El producto escalar es un caso particular del producto de matrices.

  • Sean $a \in \mathbb{R}^m , b \in \mathbb{R}^n $. Entonces el producto ${ab}^t$ está definido y ${ab}^t$ es una matriz $m\times n$. Este tipo de producto es muy importante.

Observación. Cada renglón de ${ab}^t$ es un múltiplo de $b^t$. $$ $$ Ya que: $${ab}^t = \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \vdots \\ \alpha_n \end{pmatrix} b^t = \begin{pmatrix} \alpha_1 b^t \\ \alpha_2 b^t \\ \vdots \\ \alpha_n b^t \end{pmatrix}$$

Observación. Cada columna de ${ab}^t$ es un múltiplo del vector $a$. $$ $$ Ya que: $${ab}^t = a \cdot \left[ \beta_1 \ \ \beta_2 \ \ \ldots \ \ \beta_n\right] = \left[ \beta_1 a \ \ \beta_2 a \ \ \ldots \ \ \beta_n a \right]$$

Ejemplo. $$\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} \left[ 1 \ \ 0 \ \ 1 \right] = \begin{pmatrix} 1 & 0 & 1 \\ 2 & 0 & 2 \\ 3 & 0 & 3 \end{pmatrix} = \begin{pmatrix} 1\ \left[ 1 \ \ 0 \ \ 1 \right] \\ 2 \ \left[ 1 \ \ 0 \ \ 1 \right] \\ 3 \ \left[ 1 \ \ 0 \ \ 1 \right] \end{pmatrix} = \begin{pmatrix}1 \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} & 0 \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} & 1 \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} \end{pmatrix} $$

Representaciones de una matriz como suma de matrices

Por medio de productos de este tipo vamos a expresar cada matriz como una suma de matrices.

Notación. Denotaremos por $e_i$ al vector cuyas componentes valen todas cero, excepto la i-ésima componente, cuyo valor es 1: $$ e_i = \begin{pmatrix} 0 \\ 0 \\ \vdots \\ 1 \\ 0 \\ \vdots \\ 0 \end{pmatrix} \leftarrow \text{lugar} \ i$$

Sean $e_i \in \mathbb{R}^m$ y $e_j \in \mathbb{R}^n$ ¿Qué forma tiene la matriz $e_i {e_j}^t$?

Observación. $e_i {e_j}^t$ es la matriz $m\times n$ cuyos elementos todos valen cero, excepto la componente que está en el renglón i-ésimo y la columna j-ésima, cuyo valor es 1.

Ya que: $$ e_i {e_j}^t = \begin{matrix} \\ \\ i \\ \\ \\\end{matrix} \begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix} \begin{matrix} j \\ \left[ 0 \ \ \ldots \ \ 1 \ \ \ldots \ \ 0 \right] \\ \text{ } \end{matrix} = \begin{matrix} &\ \ \ \ j \\ i& \begin{pmatrix} 0 & 0 & \ldots & 0 & \ldots & 0 \\ \vdots & \vdots \\ 0 & 0 & \ldots & 1 & \ldots & 0 \\ \vdots & \vdots \\ 0 & 0 & \ldots & 0 & \ldots & 0 \end{pmatrix} \\ \text{} \end{matrix} $$

Notación. Denotaremos a $e_i {e_j}^t$ por $ E_{ij}$.

Ahora expresaremos a la matriz $A$ como suma de matrices de 3 formas distintas:

  • 1) $\begin{align*} A_{m\times n} &= \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right]=\left[ \begin{array}{c|c|c|c} a_1 & 0& \ldots & 0 \end{array} \right]+\left[ \begin{array}{c|c|c|c} 0 & a_2 & \ldots & 0\end{array} \right] +\ldots + \left[ \begin{array}{c|c|c|c} 0 & 0 & \ldots & a_n \end{array} \right]\\ \end{align*}$

Ahora \begin{align*} \left[ \begin{array}{c|c|c|c} a_1 & 0& \ldots & 0 \end{array} \right] &= a_1 {e_1}^t \\ \left[ \begin{array}{c|c|c|c} 0 & a_2& \ldots & 0 \end{array} \right] &= a_2 {e_2}^t \\ \vdots \\ \left[ \begin{array}{c|c|c|c} 0 & 0& \ldots & a_n \end{array} \right] &= a_n{e_n}^t \\ \\ \therefore A = a_1 {e_1}^t + a_2 {e_2}^t &+ \ldots + a_n{e_n}^t \end{align*}

$$\boxed{\therefore A = \sum_{j=1}^n a_j {e_j}^t } $$

Nota. Ya que $a_j \in \mathbb{R}^m , {e_j}^t \in {\mathbb{R}^n}^*,$ entonces $\ {a_j}_{m\times 1} {{{e_j}^t}_{1\times n}} \in M (m,n).$

  • 2) $ A_{m\times n} = \begin{pmatrix}{r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} = \begin{pmatrix} {r_1}^t \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \begin{pmatrix} 0 \\ {r_2}^t \\ \vdots \\ 0 \end{pmatrix} + \ldots + \begin{pmatrix} 0 \\ 0 \\ \vdots \\ {r_m}^t \end{pmatrix} $ $$ $$ Pero $$ $$ $ \begin{pmatrix} {r_1}^t \\ 0 \\ \vdots \\ 0 \end{pmatrix} = e_1 {r_1}^t ; \ \ \begin{pmatrix} 0 \\ {r_2}^t \\ \vdots \\ 0 \end{pmatrix} = e_2 {r_2}^t ; \ \ \ldots \ \ ; \ \ \begin{pmatrix} 0 \\ 0 \\ \vdots \\ {r_m}^t \end{pmatrix} = e_m {r_m}^t $ $$ $$ donde $e_i \in \mathbb{R}^m , \ {r_i}^t \in {\mathbb{R}^n}^*$ $$ $$ $$ \therefore \ \ {e_i}_{m\times 1} \ {{{r_i}^t}_{1\times n}} \in M (m,n).$$ $$ \therefore \ \ A = e_1 {r_1}^t + e_2 {r_2}^t + \ldots + e_m{r_m}^t $$ $$ \boxed{\therefore \ \ {A =\sum_{i=1}^m e_i {r_i}^t} } $$
  • 3) $$ $$ $\begin{align*} A & = \begin{pmatrix}\alpha_{11} & 0 & \ldots & 0 \\ 0 & 0 & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0 \end{pmatrix}+ \begin{pmatrix}0 & \alpha_{12} & \ldots & 0 \\ 0 & 0 & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0\end{pmatrix}+ \ldots +\begin{pmatrix}0 & 0 & \ldots & \alpha_{1n} \\ 0 & 0 & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0\end{pmatrix} \\ &+ \begin{pmatrix}0 & 0 & \ldots & 0 \\ \alpha_{21} & 0 & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0\end{pmatrix} + \begin{pmatrix}0 & 0 & \ldots & 0 \\ 0 & \alpha_{22} & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0 \end{pmatrix}+ \ldots + \begin{pmatrix} 0 & 0 & \ldots & 0 \\ 0 & 0 & \ldots & \alpha_{2n} \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0\end{pmatrix}\\ & \vdots\\ &+\begin{pmatrix} 0 & 0 & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0 \\ \alpha_{m1} & 0 & \ldots & 0 \end{pmatrix} + \begin{pmatrix} 0 & 0 & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0 \\ 0 & \alpha_{m2} & \ldots & 0 \end{pmatrix} + \ldots + \begin{pmatrix} 0 & 0 & \ldots & 0 \\ \ & \ & \vdots & \ \\ 0 & 0 & \ldots & 0 \\ 0 & 0 & \ldots & \alpha_{mn} \end{pmatrix}\\ &= \alpha_{11} E_{11} + \alpha_{12} E_{12} + \ldots + \alpha_{1n} E_{1n} \\ &+ \alpha_{21} E_{21} + \alpha_{22} E_{22} + \ldots + \alpha_{2n} E_{2n} \\ &+ \ldots + \alpha_{m1} E_{m1} + \alpha_{m2} E_{m2} \\ & \vdots \\ &+ \alpha_{mn} E_{mn} \end{align*} $ $$ A = {\sum_{i=1}^m} {\sum_{j=1}^n} \alpha_{ij} E_{ij} $$ $$ \boxed { \therefore A = \sum_{i=1}^m \sum_{j=1}^n \alpha_{ij} e_i {e_j}^t} $$ donde $e_i \in \mathbb{R}^m , \ {e_j} \in {\mathbb{R}^n}$.

Observación. El producto $ {e_i}^t e_j = \begin{cases} 1 & i = j \\ 0 & i \neq j \end{cases} $; es también conocido como la delta de Kronecker.

Representación de un producto de matrices como suma de matrices

Expresamos el producto de dos matrices como una suma de matrices:

Sean $A$ y $B$, matrices tales que: $$ A_{m\times n} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \text{ y } B_{n\times k} = \begin{pmatrix} {s_1}^t \\ {s_2}^t \\ \vdots \\ {s_n}^t \end{pmatrix}$$ $$ \therefore \ \ A = \sum_{j=1}^n a_j {e_j}^t \ \ \ \ \text{y} \ \ \ \ B = \sum_{i=1}^n e_i {s_i}^t $$ $$\begin{align*} \therefore \ \ AB &= \left( \sum_{j=1}^n a_j {e_j}^t \right) \left( \sum_{i=1}^n e_i {s_i}^t \right) \\ &= \sum_{j=1}^n a_j \left( \sum_{i=1}^n {e_j}^t e_i {s_i}^t \right) = \sum_{j=1}^n a_j \left( \sum_{i=1}^n \left( {e_j}^t e_i \right) {s_i}^t \right) \\ & = \sum_{j=1}^n a_j {s_j}^t \end{align*}$$ $$ \boxed{ \therefore \ \ AB = \sum_{j=1}^n a_j {s_j}^t} $$

I.2.4 Transposición de matrices

Recordemos que si $x \in \mathbb{R}^n$, entonces al transponer $x$ obtenemos el renglón $ x^t \in {\mathbb{R}^n}^*$ $$ x_{n\times 1} \longmapsto {{x^{\ t}}_{1\times n}}$$ Y que si $ x^t \in {\mathbb{R}^n}^*$, entonces su transpuesto es $x \in \mathbb{R}^n$ : $$ {x^{\ t}}_{1\times n} \longmapsto x_{n\times 1} $$

Nos proponemos extender el concepto de transposición de vectores, al de transposición de matrices.

Lo más natural es pensar en la transposición como la función que transforma los renglones de $A$ en columnas y las columnas de $A$ en renglones.

Definición. Sea $A \in M(m,n)$. Entonces la matriz transpuesta de $A$, denotada por $A^t$, es la matriz $n\times m$ que se obtiene de $A$ intercambiando sus renglones y columnas: $$A= \begin{pmatrix} \alpha_{11} & \alpha_{12} & \ldots & \alpha_{1n} \\ \alpha_{21} & \alpha_{22} & \ldots & \alpha_{2n} \\ \vdots & \vdots \\ \alpha_{m1} & \alpha_{m2} & \ldots & \alpha_{mn} \end{pmatrix} \ \ \Rightarrow \ \ A^t = \begin{pmatrix} \alpha_{11} & \alpha_{21} & \ldots & \alpha_{m1} \\ \alpha_{12} & \alpha_{22} & \ldots & \alpha_{m2} \\ \vdots & \vdots \\ \alpha_{1n} & \alpha_{2n} & \ldots & \alpha_{mn} \end{pmatrix} $$ Si $ A_{m\times n} = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] =\begin{matrix} \\ \\ \left[ \alpha_{ij} \right] \\ 1 \leq i \leq m \\ 1 \leq j \leq n \\ \end{matrix}, \text{ entonces: } $ $$ A^t = \left[ r_1 \vert r_2 \vert \ldots \vert r_m \right] = \begin{pmatrix}{a_1}^t \\ {a_2}^t \\ \vdots \\ {a_n}^t\end{pmatrix} = \left[ \alpha_{ji} \right]; \ \ 1 \leq j \leq n \ , \ 1 \leq i \leq m . $$

Ejemplo.

  1. $ x = \begin{pmatrix} \xi_1 \\ \xi_2 \\ \vdots \\ \xi_n \end{pmatrix} \Rightarrow x^t = \left[ \xi_1 \ \ \xi_2 \ \ \ldots \ \ \xi_n \right] $
  2. $ y^t = \left[ \eta_1 \ \ \eta_2 \ \ \ldots \ \ \eta_n \right] \Rightarrow y = \begin{pmatrix} \eta_1 \\ \eta_2 \\ \vdots \\ \eta_n \end{pmatrix}$
  3. $ A = \begin{pmatrix} 1 & -1 \\ 2 & 1 \\ 1 & 3 \end{pmatrix} \Rightarrow A^t = \begin{pmatrix} 1 & 2 & 1 \\ -1 & 1 & 3 \end{pmatrix} $
  4. $ A = \begin{pmatrix} 1 & 2 & 1 \\ -1 & 1 & 3 \end{pmatrix} \Rightarrow A^t = \begin{pmatrix} 1 & -1 \\ 2 & 1 \\ 1 & 3 \end{pmatrix} $
  5. $ A = \begin{pmatrix} 2 & 1 & 1 \\ 1 & -3 & 2 \\ 1 & 2 & 1 \end{pmatrix} \Rightarrow A^t = A $
  6. $ A = \begin{pmatrix} 0 & 1 & -1 \\ -1 & 0 & 2 \\ 1 & -2 & 0 \end{pmatrix} \Rightarrow A^t = \begin{pmatrix} 0 & -1 & 1 \\ 1 & 0 & -2 \\ -1 & 2 & 0 \end{pmatrix} \Rightarrow A^t = -A $

Las matrices tales que $A^t=A$ o $A^t=-A$ merecen nombres especiales:

Definición. Sea $A_{n\times n}$. Decimos que $A$ es simétrica si $A^t=A$; decimos que $A$ es anti-simétrica si $A^t=-A$.

Los últimos dos incisos del ejemplo anterior corresponden a matrices simétricas y anti-simétricas, respectivamente.

Más tarde veremos que trabajar con matrices simétricas es provechoso; por ejemplo, basta con tener datos sobre la mitad de los elementos de la matriz para conocer toda la matriz.

Ejemplo. Sea $A_{m\times n}$. Entonces $A^{t}A$ es simétrica, ya que $$ { (A^{t} A) }^t = A^t \left(A^t\right)^t = A^tA $$

Propiedad. $ A = A^t \ \ \Leftrightarrow \ \ A = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] = \begin{pmatrix} {a_1}^t \\ {a_2}^t \\ \vdots \\ {a_n}^t \end{pmatrix}$

Ejercicio. La demostración de esta propiedad queda como ejercicio.

I.2.5 Matrices especiales

La presencia de elementos $\alpha_{ij} = 0$ en una matriz generalmente simplifica los cálculos que involucran a dicha matriz.

Algunas matrices con determinada distribución de ceros son tan importantes que merecen nombres especiales.

(a) Matrices diagonales

Definición. Sea $D = \left[ \delta_{ij}\right] $ una matriz cuadrada de orden $n$. $D$ es diagonal si para $ i \neq j \Rightarrow \delta_{ij} = 0 $.

Es decir, $D$ es diagonal cuando sus únicos elementos diferentes de cero están en la diagonal.

A veces denotaremos a una matriz diagonal por $D = diag(\delta_i)$, donde $\delta_i$ es el i-ésimo elemento de la diagonal, o por $ D = diag ( \delta_1 , \delta_2 , \ldots , \delta_n )$ $$ D = \begin{pmatrix} \delta_1 & \ & \ & \ \\ \ & \delta_2 & \ & \ \\ \ & \ & \ddots & \ \\ \ & \ & \ & \delta_n \end{pmatrix} $$

¿Cuál es el efecto de multiplicar una matriz $A \in M(m,n)$ por una matriz diagonal?

Al pre-multiplicar $A$ por una matriz diagonal de orden $n$, el i-ésimo renglón de $A$ se multiplica por $\delta_i$: $$ DA = \begin{pmatrix} \delta_1 & \ & \ & \ \\ \ & \delta_2 & \ & \ \\ \ & \ & \ddots & \ \\ \ & \ & \ & \delta_n \end{pmatrix} \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t \end{pmatrix} = \begin{pmatrix} \delta_1 {r_1}^t \\ \delta_2 {r_2}^t \\ \vdots \\ \delta_m {r_m}^t \end{pmatrix}$$

Al pos-multiplicar $A$ por una matriz diagonal de orden $n$, la i-ésima columna de $A$ se multiplica por $\delta_i$: $$ AD = \left[ \begin{array}{c|c|c|c} a_1 & a_2 & \ldots & a_n \end{array} \right] \begin{pmatrix} \delta_1 & \ & \ & \ \\ \ & \delta_2 & \ & \ \\ \ & \ & \ddots & \ \\ \ & \ & \ & \delta_n \end{pmatrix} = \left[ \begin{array}{c|c|c|c} \delta_1 a_1 & \delta_2 a_2 & \ldots & \delta_n a_n \end{array} \right] $$

Ejemplo. $$ $$

  1. $ \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 0 \\ 4 & 8 & 2 \\ 0 & 18 & 15 \end{pmatrix} $
  2. $ \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} = \begin{pmatrix} 1 & 4 & 0 \\ 2 & 8 & 3 \\ 0 & 12 & 15 \end{pmatrix} $

En general vamos a tener que $DA \neq AD$.

Ejercicios. $$ $$

  1. Demuestre que si $D_1$ y $D_2$ son diagonales de orden $n$, entonces $D_1D_2 = D_2D_1$.
  2. Demuestre que si $D=diag(\delta_i)$, con $\delta_i = \delta$ $ \forall i = 1, \ldots , n $ entonces $DA=AD \ \ \forall A_{n\times n}$.

Ejemplo. $$ $$

  1. $ \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} 2 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix} = \begin{pmatrix} 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 6 \end{pmatrix} = \begin{pmatrix} 2 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}$
  2. $ \begin{pmatrix} \delta & 0 & 0 \\ 0 & \delta & 0 \\ 0 & 0 & \delta \end{pmatrix} \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} = \begin{pmatrix} \delta & 2 \delta & 0 \\ 2 \delta & 4 \delta & \delta \\ 0 & 6 \delta & 5 \delta \end{pmatrix} = \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 0 & 6 & 5 \end{pmatrix} \begin{pmatrix} \delta & 0 & 0 \\ 0 & \delta & 0 \\ 0 & 0 & \delta \end{pmatrix} $

(b) Matriz identidad

Definición. La matriz de orden $n$ $$I_n = diag(1,1,…,1) $$ se llama Matriz identidad de orden $n$.

Generalmente el orden de $I_n$ estará determinado por el contexto. En tales casos escribiremos $I_n=I$.

Observación. $$I_n = \left[ \begin{array}{c|c|c|c} e_1 & e_2 & \ldots & e_n \end{array} \right] = \begin{pmatrix} {e_1}^t \\ {e_2}^t \\ \vdots \\ {e_n}^t \end{pmatrix}$$ Donde $e_i \in \mathbb{R}^n \ \ \ \ \ 1 \leq i \leq n$.

Propiedad. Sea $A_{m\times n}$. Entonces $ I_m A = A I_n = A$.

Demostración. $$I_m A = \begin{pmatrix}1 & & & \\ & 1 & & \\ & & \ddots & \\ & & & 1\end{pmatrix} \begin{pmatrix}{r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t\end{pmatrix} = \begin{pmatrix}{r_1}^t \\ {r_2}^t \\ \vdots \\ {r_m}^t\end{pmatrix}$$ $$A I_n = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \begin{pmatrix}1 & & & \\ & 1 & & \\ & & \ddots & \\ & & & 1\end{pmatrix} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \blacksquare $$

(c) Permutaciones

Definición. Una matriz de orden $n$ se dice que es una permutación elemental si es de la forma $$ P_{ij} = \left[ \begin{array}{c|c|c|c|c|c|c|c|c|c|c} e_1 & e_2 & \ldots & e_{i-1}& e_j & e_{i+1} & \ldots & e_{j-1} & e_i & e_{j+1} & \ldots & e_n \end{array} \right] ; \text{ donde } i < j. $$

$P_{ij}$ es la matriz que se obtiene a partir de la identidad intercambiando la columna i-ésima con la j-ésima. $$ \begin{pmatrix} 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 \\ \end{pmatrix} $$

Es decir $$ P_{ij} = \begin{matrix} i \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ j & \\ \begin{pmatrix} 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 1 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 1 & 0 \\ 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 & 1 \\ \end{pmatrix} \end{matrix} \begin{matrix} \\ \\ \\ \\ \\i \\ \\ \\ \\j \\ \\ \\ \\ \\ \end{matrix}$$

Observación. $P_{ij}$ es también la matriz que se obtiene a partir de la matriz identidad intercambiando el renglón i-ésimo con el j-ésimo. Podríamos haber definido una matriz de permutación en función de sus renglones.

Definición. Una matriz de orden $n$ se dice que es una permutación elemental si es de la forma: $$ P_{ij} = \begin{pmatrix} {e_1}^t \\ {e_2}^t \\ \vdots \\ {e_{i-1}}^t \\ {e_j}^t \\ {e_{i+1}}^t \\ \vdots \\ {e_{j-1}}^t \\ {e_i}^t \\ {e_{j+1}}^t \\ \vdots \\ {e_{n-1}}^t \\ {e_n}^t \end{pmatrix}; \text{ donde } i < j. $$

Ejemplo.

$ P_{23} = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix}$ es una permutación elemental.

Propiedades de las permutaciones elementales .

  1. $ P_{ij}^t = P_{ij}$
  2. $ (P_{ij})^2 = I $

La demostración de las propiedades queda como ejercicio.

La propiedad 2. indica que si intercambiamos dos renglones de la matriz identidad y después los volvemos a intercambiar, entonces al final tendremos a la matriz original ---la identidad--- . Esto también se puede pensar por columnas: si intercambiamos dos columnas de la identidad y después las volvemos a intercambiar, el efecto sobre la identidad es nulo.

Ejemplo.

$(P_{23})^2 = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \ \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix}$.

¿Qué pasa si aplicamos $P_{ij}$ a $ x \in \mathbb{R}^n$ ?

$$ P_{ij} x = \begin{pmatrix} {e_1}^t \\ \vdots \\ {e_j}^t \\ \vdots \\ {e_i}^t \\ \vdots \\ {e_n}^t \end{pmatrix} x = \begin{pmatrix} {e_1}^t x\\ \vdots \\ {e_j}^t x\\ \vdots \\ {e_i}^t x\\ \vdots \\ {e_n}^t x \end{pmatrix} = \begin{pmatrix} \xi_1 \\ \vdots \\ \xi_j \\ \vdots \\ \xi_i \\ \vdots \\ \xi_n \end{pmatrix} $$

Es decir, si $P_{ij}$ es la permutación en la que se han intercambiado el renglón i-ésimo con el j-ésimo, entonces al aplicarla al vector $x$, produce el efecto de intercambiar la i-ésima componente de $x$ con la j-ésima.

Ejemplo.

$\begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} \begin{pmatrix} 1 \\ 2 \\ 3 \\ \end{pmatrix} = \begin{pmatrix} 3 \\ 2 \\ 1 \\ \end{pmatrix} $

¿Qué pasa al aplicar $P_{ij}$ a $ y^t \in \mathbb{R}^{n* }$ ?

$$ y^t P_{ij} = y^t \left[ e_1 \vert \ldots \vert e_j \vert \ldots \vert e_i \vert \ldots \vert e_n \right] = \left[ y^t e_1 \vert \ldots \vert y^t e_j \vert \ldots \vert y^t e_i \vert \ldots \vert y^t e_n \right] \\ = \left[ \eta_1 \ldots \eta_j \ldots \eta_i \ldots \eta_n \right]$$

Entonces al aplicar $P_{ij}$ a $y^t$, intercambia la i-ésima y la j-ésima componentes de $y^t$.

Ejemplo.

$ \begin{pmatrix} 1 & 2 & 3 \end{pmatrix} \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} = \begin{pmatrix} 3 & 2 & 1 \end{pmatrix}$

Ahora, sea $A$ una matriz $n\times k$. ¿Qué efecto produce sobre $A$ la premultiplicación por $P_{ij}$ ? $$ P_{ij} A = \begin{pmatrix} {e_1}^t \\ \vdots \\ {e_j}^t \\ \vdots \\ {e_i}^t \\ \vdots \\ {e_n}^t \end{pmatrix} A = \begin{pmatrix} {e_1}^t A\\ \vdots \\ {e_j}^t A\\ \vdots \\ {e_i}^t A\\ \vdots \\ {e_n}^t A \end{pmatrix} = \begin{pmatrix} {r_1}^t \\ \vdots \\ {r_j}^t \\ \vdots \\ {r_i}^t \\ \vdots \\ {r_n}^t \end{pmatrix} $$ Entonces si $P_{ij}$ es la permutación en la cual están intercambiados el i-ésimo y el j-ésimo renglón de la identidad, entonces al premultiplicar $A$ por $P_{ij}$ se intercambian el i-ésimo renglón de $A$ con el j-ésimo.

Ejemplo.

$ \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} \begin{pmatrix} 1 & 1 & 3 \\ 2 & 0 & 2 \\ 1 & 1 & 1 \\ \end{pmatrix} = \begin{pmatrix} 1 & 1 & 1 \\ 2 & 0 & 2 \\ 1 & 1 & 3 \\ \end{pmatrix}$

Análogamente, si pos-multiplicamos $P_{ij}$ por $A$, entonces $P_{ij}$ actúa sobre $A$ intercambiando la i-ésima columna de $A$ con la j-ésima columna de $A$ : $$ A P_{ij} = \left[ a_1 \vert a_2 \vert \ldots \vert a_n \right] \left[ e_1 \vert \ldots \vert e_j \vert \ldots \vert e_i \vert \ldots \vert e_n \right] = \left[ a_1 \vert \ldots \vert a_j \vert \ldots \vert a_i \vert \ldots \vert a_n \right]$$

Ejemplo.

$ \begin{pmatrix} 1 & 1 & 3 \\ 2 & 0 & 2 \\ 1 & 1 & 1 \\ \end{pmatrix} \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} = \begin{pmatrix} 3 & 1 & 1 \\ 2 & 0 & 2 \\ 1 & 1 & 1 \\ \end{pmatrix}$

Definición. La matriz $P$ es una permutación si es cuadrada y es tal que cada columna y cada renglón tienen un único elemento distinto de cero, cuyo valor es 1.

Es decir, una matriz de permutación tiene una de las siguientes representaciones

  1. $ P = \begin{pmatrix} e_{i_1}^{\ t} \\ e_{i_2}^{\ t} \\ \vdots \\ e_{i_n}^{\ t} \end{pmatrix}$ donde $ i_1 , i_2 , \ldots , i_n \in {1, \ldots , n } $ y $ i_k \neq i_l$ si $ k \neq l $.

  2. $ P = \left[ e_{j_1} \vert e_{j_2} \vert \ldots \vert e_{j_n} \right] $ donde $ j_1 , j_2 , \ldots , j_n \in {1, \ldots , n } $ y $ j_k \neq j_l$ si $ k \neq l $.

Una permutación se obtiene a partir de la matriz identidad intercambiando varios renglones (o varias columnas).

Ejemplo.

Si primero intercambiamos la segunda y la tercera columna, y después intercambiamos la primera columna con la segunda, obtenemos la permutación. $$ P = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix}$$ Y podemos expresar a $P$ como $$P= \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 0 & 1 & 0 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} $$

Ejemplo.

Si primero intercambiamos el segundo renglón con el tercer renglón y después intercambiamos el primer renglón con el segundo renglón entonces obtenemos la permutación $$ P = \begin{pmatrix} 0 & 0 & 1 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} $$

Observación. Para matrices de permutación vamos a tener que en general $ P^t \neq P $ y $ P^2 \neq I$.

Ejemplo.

$ \begin{pmatrix} 0 & 0 & 1 \\ 1 & 0 & 0 \\ 0 & 1 & 0 \end{pmatrix} = \begin{pmatrix} {e_3}^t \\ {e_1}^t \\ {e_2}^t \end{pmatrix} = \left[ e_2 \vert e_3 \vert e_1 \right] $

Propiedades de permutaciones.

  1. Si $P = \begin{pmatrix} e_{i_1}^{\ t} \\ e_{i_2}^{\ t} \\ \vdots \\ e_{i_n}^{\ t} \end{pmatrix}$ entonces $ PA = \begin{pmatrix} r_{i_1}^{\ t} \\ r_{i_2}^{\ t} \\ \vdots \\ r_{i_n}^{\ t} \end{pmatrix}$
  2. Si $ P = \left[ e_{j_1} \vert e_{j_2} \vert \ldots \vert e_{j_n} \right] $ entonces $ AP = \left[ a_{j_1} \vert a_{j_2} \vert \ldots \vert a_{j_n} \right] $

La demostración de las propiedades queda como ejercicio.

(d) Matrices trapezoidales y triangulares

Definición. Sea $A$ una matriz $m\times n$. Decimos que $A$ es trapezoidal superior si para $ i > j \Rightarrow \alpha_{ij} = 0$.

Definición. Una matriz trapezoidal superior que además es cuadrada se dice que es triangular superior.

Notación. Siempre que utilizemos la letra $U$ nos estaremos refiriendo a una matriz triangular superior.

Las matrices trapezoidales superiores tienen una de las siguientes formas:

  1. $ m > n$ $$\begin{pmatrix} * & * & \ldots & * & * \\ 0 & * & \ldots & * & * \\ \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & * & * \\ 0 & 0 & \ldots & 0 & * \\ 0 & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \ & \vdots & \vdots \\ 0 & 0 & \ldots & 0 & 0 \end{pmatrix}$$

  2. $n > m$ $$\begin{pmatrix} * & * & \ldots & * & * & \ldots& * \\ 0 & * & \ldots & * & * & \ldots& * \\ \vdots & \vdots & \ & \vdots & \vdots & \ & \vdots \\ 0 & 0 & \ldots & * & * & \ldots& * \\ 0 & 0 & \ldots & 0 & * & \ldots& * \end{pmatrix}$$

  3. $ m = n $ $$ \begin{pmatrix} * & * & \ldots & * \\ 0 & * & \ldots & * \\ \vdots & \vdots & \vdots & \vdots \\ 0 & 0 & \ldots & * \end{pmatrix}$$

Definición. Sea $A$ una matriz $m\times n$ . Decimos que $A$ es trapezoidal inferior si para $i < j \Rightarrow \alpha_{ij} = 0$.

Definición. Una matriz trapezoidal inferior que además es cuadrada se dice que es triangular inferior.

Notación. Siempre que denotemos a una matriz con la letra $L$ se sobre entenderá que $L$ es \textit{triangular inferior}.

Las matrices trapezoidales inferiores tienen una de las siguientes formas:

  1. $ m > n$ $$\begin{pmatrix}* & 0 & 0 & \ldots & 0 & 0 \\ * & * & 0 & \ldots & 0 & 0 \\ \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ * & * & * & \ldots & * & 0 \\ * & * & * & \ldots & * & * \\ * & * & * & \ldots & * & * \\ \vdots & \vdots & \vdots & \ & \vdots & \vdots \\ * & * & * & \ldots & * & * \\ \end{pmatrix}$$

  2. $n > m$ $$\begin{pmatrix} * & 0 & \ldots & 0 & 0 & 0 & \ldots & 0 \\ * & * & \ldots & 0 & 0 & 0 & \ldots & 0 \\ \vdots & \vdots & \ & \vdots & \vdots & \vdots & \ & \vdots \\ * & * & \ldots & * & 0 & 0 & \ldots & 0 \\ * & * & \ldots & * & * & 0 & \ldots & 0 \\ \end{pmatrix}$$

  3. $ m = n $ $$ \begin{pmatrix} * & 0 & 0 & \ldots & 0 \\ * & * & 0 & \ldots & 0 \\ * & * & * & \ldots & 0 \\ \vdots & \vdots & \vdots & \ & \vdots \\ * & * & * & \ldots & * \\ \end{pmatrix}$$

Propiedad. Si $L$ es triangular inferior, entonces $$ L = \begin{pmatrix} \lambda_{11} {e_1}^t \\ \lambda_{21} {e_1}^t + \lambda_{22}{e_2}^t \\ \lambda_{31} {e_1}^t + \lambda_{32}{e_2}^t + \lambda_{33} {e_3}^t \\ \vdots \\ \lambda_{n1} {e_1}^t + \lambda_{n2}{e_2}^t + \lambda_{n3} {e_3}^t + \ldots + \lambda_{nn} {e_n}^t \\ \end{pmatrix}$$

Demostración.

$ L = \begin{pmatrix} \lambda_{11} \\ \lambda_{21} & \lambda_{22} \\ \vdots & \vdots \\ \lambda_{n1} & \lambda_{n2} & \ldots & \lambda_{nn} \end{pmatrix} \begin{pmatrix} {e_1}^t \\ {e_2}^t \\ \vdots \\ {e_n}^t \end{pmatrix} = \begin{pmatrix} \lambda_{11} {e_1}^t \\ \lambda_{21} {e_1}^t + \lambda_{22}{e_2}^t \\ \vdots \\ \lambda_{n1} {e_1}^t + \lambda_{n2}{e_2}^t + \lambda_{n3} {e_3}^t + \ldots + \lambda_{nn} {e_n}^t \\ \end{pmatrix}$ $ \blacksquare $

Propiedad. Si $U$ es triangular superior entonces $$ U = \left[ \mu_{11} e_1 \vert \mu_{12} e_1 + \mu_{22} e_2 \vert \mu_{13} e_1 + \mu_{23} e_2 + \mu_{33} e_3 \vert \ldots \vert \mu_{1n} e_1 + \mu_{2n} e_2 + \ldots + \mu_{nn} e_n \right] $$

Demostración. \begin{align*} U &= \left[ e_1 \vert e_2 \vert \ldots \vert e_n \right] \begin{pmatrix} \mu_{11} & \mu_{12} & \mu_{13} & \ldots & \mu_{1n} \\ \ & \mu_{22} & \mu_{23} & \ldots & \mu_{2n} \\ \ & \ & \mu_{33} & \ldots & \mu_{3n} \\ \ & \ & \ & \ & \vdots \\ \ & \ & \ & \ & \mu_{nn} \\ \end{pmatrix} = \\ &= \left[ \mu_{11} e_1 \vert \mu_{12} e_1 + \mu_{22} e_2 \vert \ldots \vert \mu_{1n} e_1 + \mu_{2n} e_2 + \ldots + \mu_{nn} e_n \right] \blacksquare \end{align*}

Propiedades de matrices triangulares.

  1. El producto de dos matrices triangulares inferiores es triangular inferior.

  2. El producto de dos matrices triangulares superiores es triangular superior.

Demostración de la propiedad 1.

  • Supongamos que $$ L = \begin{pmatrix} \lambda_{11} \\ \lambda_{21} & \lambda_{22} \\ \lambda_{31} & \lambda_{32} & \lambda_{33} \\ \vdots & \vdots & \vdots \\ \lambda_{n1} & \lambda_{n2} & \lambda_{n3} & \ldots & \lambda_{nn} \\ \end{pmatrix} \ \ \ \ \ \ \text{y} \ \ \ \ \ \ A = \begin{pmatrix} {r_1}^t \\ {r_2}^t \\ \vdots \\ {r_n}^t \end{pmatrix}$$ Entonces $$ LA = \begin{pmatrix} \lambda_{11} {r_1}^t \\ \lambda_{21} {r_1}^t + \lambda_{22} {r_2}^t \\ \lambda_{31} {r_1}^t + \lambda_{32} {r_2}^t + \lambda_{33}{r_3}^t \\ \vdots \\ \lambda_{n1} {r_1}^t + \lambda_{n2} {r_2}^t + \ldots + \lambda_{nn} {r_n}^t\\ \end{pmatrix} = \begin{pmatrix} {z_1}^t \\ {z_2}^t \\ {z_3}^t \\ \vdots \\ {z_n}^t \end{pmatrix} $$ Si $A$ es triangular inferior entonces \begin{align*} {r_1}^t &= \alpha_{11} {e_1}^t \\ {r_2}^t &= \alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t \\ {r_3}^t &= \alpha_{31} {e_1}^t + \alpha_{32} {e_2}^t + \alpha_{33} {e_3}^t \\ &\vdots\\ {r_n}^t &= \alpha_{n1} {e_1}^t + \alpha_{n2} {e_2}^t + \alpha_{n3} {e_3}^t + \ldots + \alpha_{nn} {e_n}^t \end{align*} Por lo tanto:

\begin{align*} {z_1}^t &= \lambda_{11} ( \alpha_{11} {e_1}^t ) = ( \lambda_{11} \alpha_{11} ) {e_1}^t \\ {z_2}^t &= \lambda_{21} ( \alpha_{11} {e_1}^t ) + \lambda_{22} (\alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t )= ( \lambda_{21} \alpha_{11} + \lambda_{22} \alpha_{21} ) {e_1}^t + (\lambda_{22} \alpha_{22}) {e_2}^t \\ {z_3}^t &= \lambda_{31} ( \alpha_{11} {e_1}^t ) + \lambda_{32} (\alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t ) + \lambda_{33} (\alpha_{31} {e_1}^t + \alpha_{32} {e_2}^t + \alpha_{33}{e_3}^t ) \\ &= ( \lambda_{31} \alpha_{11} + \lambda_{32} \alpha_{21} + \lambda_{33} \alpha_{31}) {e_1}^t + (\lambda_{32} \alpha_{22} + \lambda_{33} \alpha_{32}){e_2}^t + \lambda_{33} \alpha_{33} {e_3}^t \\ \vdots \\ {z_n}^t &= \lambda_{n1} ( \alpha_{11} {e_1}^t ) + \lambda_{n2} (\alpha_{21} {e_1}^t + \alpha_{22} {e_2}^t ) + \ldots + \lambda_{nn} (\alpha_{n1} {e_1}^t + \alpha_{n2} {e_2}^t + \alpha_{n3}{e_3}^t + \ldots + \alpha_{nn} {e_n}^t )\\ &= ( \lambda_{n1} \alpha_{11} + \lambda_{n2} \alpha_{21} + \ldots + \lambda_{nn} \alpha_{n1}) {e_1}^t + (\lambda_{n2} \alpha_{22} + \ldots + \lambda_{nn} \alpha_{n2}){e_2}^t + \ldots + (\lambda_{nn} \alpha_{nn} ) {e_n}^t \end{align*} \begin{align*} \therefore \ \ {z_1}^t &= \zeta_{11} {e_1}^t \\ {z_2}^t &= \zeta_{21} {e_1}^t + \zeta_{22} {e_2}^t \\ \vdots \\ {z_n}^t &= \zeta_{n1} {e_1}^t + \zeta_{n2} {e_2}^t + \ldots + \zeta_{nn} {e_n}^t \end{align*} $ \therefore$ $LA$ es triangular inferior. $\blacksquare$

La demostración de la propiedad 2. queda como ejercicio.

I.1 Anexo Vectores y Matrices en Julia

Vectores y Matrices en Julia