I.1 Vectores en $\mathbb{R}^n $

I.1.1 Vectores en ${\mathbb{R}}^n$

Definición. A los elementos de $\mathbb{R}^n$ los llamamos vectores columna de orden o dimensión $n$. $$\mathbb{R}^n = \left\lbrace \ \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix} : \xi_1 ,\, \xi_2,\, ...\, , \xi_n \ \in \ \mathbb{R} \right\rbrace $$ Los números $\xi_1 ,\, \xi_2,\, ...\, , \xi_n$ son los elementos o componentes del vector.

Siempre que nos refiramos a un vector de orden $n$ estaremos pensando en un vector columna de orden $n$ , y cuando $n$ sea fijo o se pueda determinar del contexto, emplearemos únicamente la palabra vector.

Notación:

  • En lo sucesivo siempre que nos refiramos al vector $\begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix} \in \mathbb{R}^n$ estaremos pensando en el vector $\left[\begin{matrix} \xi_i \end{matrix} \right], \ \ i=1,2,\ldots , n$ o simplemente en el vector $x\in \mathbb{R}^n. $

En el ámbito geométrico un vector de orden $n$ se puede pensar como un punto en el espacio n-dimensional y se representa como un segmento dirigido que va del origen del espacio a dicho punto.

Operaciones entre vectores en $\mathbb{R}^n $

Las operaciones básicas son la suma de dos vectores y la multiplicación de un vector por un escalar:

Suma de dos vectores

Definición. Sean $x=\left [ \begin{matrix} \xi_i \end{matrix} \right] ,y=\left [ \begin{matrix} \eta_i \end{matrix} \right] \in \mathbb{R}^n$, la suma de $x $ y $ y$, denotada por: $$x+y$$ es el vector $\left [ \begin{matrix} \gamma_i \end{matrix} \right] $ dado por $$x+y=\left [ \begin{matrix} \gamma_i \end{matrix} \right] = \left [ \begin{matrix} \xi_i + \eta_i \end{matrix} \right] $$

Podemos ver esta operación como una función que toma dos vectores de $\mathbb{R}^n$ y devuelve un vector de $\mathbb{R}^n$: $$+:\mathbb{R}^n \times \mathbb{R}^n \rightarrow \mathbb{R}^n $$ $$+ \left( x,y \right)=x+y$$

Multiplicación de un vector por un escalar

Definición. Sea $\lambda \in \mathbb{R}\ $ y $ x=\left [\begin{matrix} \xi_i \end{matrix} \right] \in \mathbb{R}^n$, el producto de $\lambda$ y $x,$ escrito $\lambda x,$ es el vector dado por: $$ \lambda x= \left [ \begin{matrix}\lambda \ \xi_i \end{matrix} \right]$$

Podemos ver esta operación como una función que toma un escalar de $\mathbb{R}$ y devuelve un vector de $\mathbb{R}^n$: $$\cdot:\mathbb{R} \times \mathbb{R}^n \rightarrow \mathbb{R}^n $$ $$ \cdot \left( \lambda , x \right) =\lambda x$$

Geométricamente, la operación de multiplicar el vector $x$ por el escalar $\lambda$ cambia la longitud del vector por un factor de $ \big| \ \lambda \ \big|$. Si $ \lambda < 0$, entonces $\lambda x $ tiene dirección opuesta a la de $x$

I.1.2 Vectores en ${\mathbb{R}^n}^*$

Definición. A los elementos de $ {\mathbb{R}^n}^*$ los llamamos vectores renglón de orden $n$. $$ {\mathbb{R}^n}^* = \left\lbrace \left[ \begin{matrix} \xi_1 \ \xi_2 \ ... \ \xi_n \end{matrix} \right] : \xi_1 ,\, \xi_2,\, ...\, , \xi_n \in \mathbb{R} \right\rbrace $$ Los números $\xi_1 ,\, \xi_2,\, ...\, , \xi_n$ son los elementos o componentes del vector renglón.

Nos referiremos a un vector renglón de orden $n$ como un renglón o un renglón de orden $n$, cuando sea necesario especificar su dimensión.

Las operaciones suma y multiplicación por escalar son análogas a las operaciones de los vectores columna, por consiguiente las propiedades de los vectores de ${\mathbb{R}^n}^*$ también lo son.

I.1.3 Transposición de vectores

Sea $\varphi : \mathbb{R}^n\rightarrow {\mathbb{R}^n}^* \ $ dada por: $$\varphi \ \ ( \ \ \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix} \ \ ) = \left[ \begin{matrix} \xi_1 \ \xi_2 \ ... \ \xi_n \end{matrix} \right ], $$ a $\varphi$ la podemos ver como la función que transforma vectores columna en vectores renglón. A esta operación la llamaremos transposición.

Notación

  • Sea $x$ el vector columna: $$x = \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix}$$ entonces $\varphi(x)$ lo denotamos como: $$\varphi(x) = x^t,$$ donde $x^t$ se lee $x$ transpuesto. Entonces $x^t$ es un vector renglón.
  • Resultado. $\varphi$ es una función biyectiva.

Demostración

  • Sean $ x =\begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix}, \ y = \begin{pmatrix} \eta_1\\ \eta_2\\ \vdots \\ \eta_n \end{pmatrix} \ \in \mathbb{R}^n$, entonces: $$ \varphi(x) = \varphi(y) \Rightarrow \left[ \begin{matrix} \xi_1 \ \xi_2 \ \dots \ \xi_n \end{matrix} \right]=\left[ \begin{matrix} \eta_1 \ \eta_2 \ \dots \ \eta_n \end{matrix} \right] $$ $$\begin{array}{ccc} \begin{align*} \Rightarrow & \xi_1 = \eta_1 \\ & \xi_2 = \eta_2 \\ & \ \ \ \ \ \vdots \\ & \xi_n = \eta_n \\ \end{align*} & \Rightarrow \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix} = \begin{pmatrix} \eta_1\\ \eta_2\\ \vdots \\ \eta_n \end{pmatrix} & \Rightarrow \begin{pmatrix} x = y \end{pmatrix} \end{array}$$ $$\therefore \varphi \text{ es inyectiva}$$
  • Sea $\left[\begin{matrix} \xi_1 \ \xi_2 \ ... \ \xi_n \end{matrix} \right] \in {\mathbb{R}^n}^*$, entonces: $$\varphi \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix} = \left[\begin{matrix} \xi_1 \ \xi_2 \ ... \ \xi_n \end{matrix} \right ] $$ $$\therefore \varphi \text{ es sobreyectiva} \ \ \ \blacksquare $$

Por lo tanto $\varphi$ es una correspondencia biunívoca entre $\mathbb{R}^n$ y ${\mathbb{R}^n}^*$, esto nos sugiere introducir la siguiente notación :

  • A los vectores columna los denotaremos por $x$ : $$x= \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix} \in \mathbb{R}^n $$
  • A los vectores renglón los denotaremos por $x^t$ : $$ x^t = \left[\begin{matrix} \xi_1 \ \xi_2 \ ... \ \xi_n \end{matrix} \right ] \in {\mathbb{R}^n}^* $$

Sea $\varphi^{-1} : {{\mathbb{R}^n}^*} \rightarrow \mathbb{R}^n$ la función inversa de $\varphi$: $$\varphi^{-1} \left( \left[ \begin{matrix} \xi_1 \ \xi_2 \ ... \ \xi_n \end{matrix}\right ]\right) = \begin{pmatrix} \xi_1\\ \xi_2\\ \vdots \\ \xi_n \end{pmatrix} $$ Es decir, $\varphi ^{-1} (x^t) = x \ \ \forall x^t \in {\mathbb{R}^n}^*$.

Podemos ver a $\varphi ^{-1}$ como la función que transforma renglones en columnas.

Si nos permitimos ampliar el significado del término transponer ---entendiendo por transposición tanto la operación que transforma columnas en renglones $\left( \varphi\right) $ como la que transforma renglones en columnas $\left( \varphi^{-1}\right)$--- , entonces podemos pensar en la transposición como la función que transforma columnas en renglones y renglones en columnas.

Con este sentido del término transponer, es lícito usar la siguiente notación: $$ \text{si} \ x \in \mathbb{R}^n, \ \ \varphi(x)=x^t$$ $$ \text{si} \ x^t \in {\mathbb{R}^n}^*, \ \ \varphi^{-1}(x^t)=\left( {x^t}\right) ^t$$ Entonces tendremos que $$\varphi^{-1}\left(x^t\right) = \varphi^{-1}(\varphi x) = x $$ Pero $ \varphi^{-1}\left(x^t\right) = \left( x^t\right) ^t$ $$ \therefore \ x = \left( x^t\right) ^t $$

I.1.4 Producto punto

Definición. Sean $x=\left[\begin{matrix} \xi_i \end{matrix} \right],y= \left[ \begin{matrix} \eta_i \end{matrix} \right] \in \mathbb{R}^n$. El producto punto o producto escalar de $x$ y $y$ es el escalar denotado por $x\cdot y$ dado por: $$ x\cdot y = \xi_1 \eta_1 + \xi_2 \eta_2 + ... + \xi_n \eta_n = \sum_{i=1}^{n} \xi_i \begin{matrix} \eta_i \end{matrix} $$

Observación: El producto punto de dos vectores es un número real.

Propiedades del producto punto

Norma Euclideana

Definición. Sea $x \in \mathbb{R}^n$. Definimos la norma euclideana o longitud de $x$ , denotada por $\Vert x \Vert$ como: $$\Vert x \Vert = \sqrt{x \cdot x} $$

Propiedades de la Norma Euclideana

Definición. Sean $x$ $\in$ $\mathbb{R}^n $. Decimos que $x$ es un vector unitario o está normalizado si $$\Vert x \Vert = 1 $$

Definición. Sean $x$ $\in$ $\mathbb{R}^n $. Decimos que $$u=\frac{1}{\left\Vert x \right\Vert} x $$ es el vector unitario en la dirección de $x$.

Desigualdad de Shwartz

Sean $x,y \in \mathbb{R}^n,$ entonces $$ \left\lvert x \cdot y \right\rvert \leq \left\lVert x \right\rVert \left\lVert y \right\rVert$$

La demostración queda como ejercicio.

Ángulo entre dos vectores

Vectores Ortogonales

Definición. Sean $x,y$ $\in$ $\mathbb{R}^n $. Decimos que $x$ es ortogonal a $y$ si $x \cdot y = 0$. Si $x$ es ortogonal a $y$, escribimos $x \perp y$.

Supongamos ahora que tenemos dos vectores no nulos $x,y \in \mathbb{R}^n$ tales que no son múltiplos uno del otro. ¿Podemos encontrar siempre un vector que sea ortogonal a $x$?

  • Resultado. Sean $x,y \in \mathbb{R}^n$, $x,y \neq 0$ no colineales, entonces: $$y- \alpha x \text{ es ortogonal a } x \Leftrightarrow \alpha = \frac{x \cdot y}{\Vert x \Vert ^2}.$$

Demostración \begin{align*} \left( y - \alpha x \right) \perp x &\Leftrightarrow x \cdot \left( y - \alpha x \right) = 0 \\ &\Leftrightarrow x \cdot y + x \cdot \left( - \alpha x \right) = 0 \\ &\Leftrightarrow x \cdot y - \alpha \left( x \cdot x\right) = 0 \\ &\Leftrightarrow \alpha = \frac{x \cdot y}{x \cdot x} \text{ esto es posible ya que } x\neq 0 \\ &\Leftrightarrow \alpha = \frac{x \cdot y}{\Vert x \Vert^2} \blacksquare \end{align*}

Definición. Sean $x,y$ $\in$ $\mathbb{R}^n $. Entonces al vector $\alpha x$ con $\alpha = \frac{x \cdot y}{\Vert x \Vert ^2}$, lo llamamos la proyección de $y$ sobre $x$, denotada por $P_x$: $$P_x \left( y \right)= \alpha x, \ \ \ \ \alpha = \frac{x \cdot y}{\Vert x \Vert ^2}$$

Definición. Sean $x,y$ $\in$ $\mathbb{R}^n $. Entonces al vector $y-\alpha x$ con $\alpha = \frac{x \cdot y}{\Vert x \Vert ^2}$, lo llamamos la proyección ortogonal de $y$ sobre $x$, denotada por $P_x^{\perp}$: $$P_x^{\perp} \left( y \right)= y-\alpha x, \ \ \ \ \alpha = \frac{x \cdot y}{\Vert x \Vert ^2}$$

Propiedad. De las definiciones anteriores, dados $x,y$ $\in$ $\mathbb{R}^n $, se sigue que: $$y=P_x^{\perp} \left( y \right)+P_x \left( y \right) $$ Es decir podemos escribir a $y$ como la suma de dos vectores ortogonales.

Como consecuencia de la desigualdad de Schwartz podemos introducir el siguiente concepto:

Definición. Sean $x,y \in \mathbb{R} ^n$. Definimos al coseno del ángulo entre el vector $x$ y el vector $y$ como: $$ cos \theta = \frac{x \cdot y}{\Vert x \Vert \Vert y \Vert}$$

I.1 Anexo Vectores en Julia

Vectores en Julia