Favicon Vikidia.png
¡Vikidia te necesita!Face-wink.svg
Corazón.svg

Actualmente tenemos 6664 artículos. ¡Anímate! Face-smile.svg a crear los artículos solicitados

Espacio vectorial

De Vikidia
Ir a la navegación Ir a la búsqueda

Un espacio vectorial es un conjunto de vectores donde los números de los vectores pertenecen a un cuerpo K.

Un especio vectorial es usualmente denotado por una letra como por ejemplo V.

Suma y producto de vectores[editar · editar código]

Un vector es un conjunto ordenado de números donde cada coordenada ocupa una posición. Por ejemplo, v = (1, 2, 3) tiene la primera componente 1 y la tercera componente 3.

Si tenemos el vector u = (4, 5, 6), podemos definir u + v como (1, 2, 3) + (4, 5, 6) = (1+4, 2+5, 3+6) = (5, 7, 9).

Si multiplicamos u por un número, como 6, 6×u es 6×(4, 5, 6) = (6×4, 6×5, 6×6) = (24, 30, 36).

Relaciones con matrices[editar · editar código]

Podemos pensar un vector como una matriz con número de filas (o columnas) igual a 1.

Una matriz puede modificar un vector de diferentes maneras.

Una matriz donde las columnas son vectores puede ser una representación muy útil de un espacio vectorial, donde cualquier cambio elemental conserva algunas propiedades, como que los vectores columna todavía "generan" todo el espacio vectorial.

Propiedades[editar · editar código]

Si u y v pertenecen al espacio vectorial V, u + v también.

Si u pertenece al espacio vectorial, k×u también, para k un número del cuerpo K.

Además, el 0 siempre es elemento del espacio vectorial, y por tanto, existe inverso de un vector, ya que si v y 0 pertenecen al espacio vectorial, v + (-v) = 0.

Subespacio vectorial[editar · editar código]

Si U es un subespacio de V, entonces todo vector de U está en V pero no todo vector de V tiene porqué estar en U.

Se define en el mismo cuerpo y bajo las mismas operaciones.

Vectores linealmente independientes[editar · editar código]

Diremos que u y v vectores del espacio vectorial V con el cuerpo K son linealmente independientes, si a y b elementos del cuerpo K ocurre que la igualdad:

a×u = b×v; es solo cierta si a = b = 0.

Por ejemplo, si u = (1, 2) y v = (1, 3), a×(1, 2) = b×(1, 3), (a, 2×a) = (b, 3×b), parece que a = b, pero luego que 2×a = 3×b, algo que no existen números tales que hagan esto (excepto si consideramos grupos o cuerpos finitos donde podemos tener que 2=3). Como no existen, podemos ver que si se cumple si a = b = 0.

Combinación lineal[editar · editar código]

v es combinación lineal (por tanto linealmente dependiente) de los vectores u1, u2, u3, …, un si (k1,k2, kn… son elementos del cuerpo K):

v = k1×u1 + k2×u2 + … + kn×vn

Si permitimos que k1, k2, …, kn sean valores libres del cuerpo K, podemos decir que tenemos un espacio vectorial generado por el generador <u1, u2, …, un> = k1×u1 + k2×u2 + … + kn×vn.

Base de un espacio vectorial[editar · editar código]

Si u1, u2, …, un son vectores linealmente independientes, y E espacio vectorial E = <u1, u2, …, un> = k1×u1 + k2×u2 + … + kn×vn, entonces (u1, u2, …, un) es base de E.

La base de un espacio vectorial es el mínimo de vectores de un espacio vectorial tales que con combinaciones lineales es posible escribir todos los vectores del espacio vectorial.

La base canónica es una base importante de espacios vectoriales.

Podemos entender la base como un sistema de coordenadas, donde cada eje es una componente descrita en base a una unidad.

El lema de Steinitz, o teorema de intercambio de Steinitz, dice que dos bases cualesquiera de un espacio vectorial de dimensión finita tienen el mismo número de elementos.

La dimensión de un espacio vectorial es el número de vectores de la base. Dos espacios vectoriales son el mismo (o hay una relación uno-a-uno) si tienen la misma dimensión.

Si tenemos B m vectores un generador de V de dimensión n < m, entonces existen n−m vectores sobrantes de V para generar una base de V.

Cada vector tiene unas coordenadas, tal que si v es vector de E, la primera coordenada es k1, la segunda es k2...

Suma e intersección[editar · editar código]

La intersección de dos espacios vectoriales es el espacio vectorial que tiene todos los vectores que están en ambos espacios vectoriales a la vez.

Si tenemos el espacio vectorial V formado por los vectores[1] (1, 0, 0) y (0, 1, 0) y el espacio vectorial U formado por los vectores (0, 2, 0) y (0, 0, 1), la intersección son los vectores que están en U y V.

Con vectores de U es imposible obtener el vector (1, 0, 0) por lo que no está en la intersección.

(0, 1, 0) y (0, 2, 0) son linealmente dependientes, por lo que basta con 1 vector para representar el espacio vectorial U∩V intersección de ambos espacios vectoriales. La dimensión de la intersección es 1, y es un espacio vectorial en sí misma. (0, K, 0) está en la intersección, si K es un elemento del cuerpo de los espacios vectoriales U y V.

La suma de dos espacios vectoriales es el espacio vectorial que tiene todos los vectores de ambos los espacios vectoriales.

Si tenemos el espacio vectorial V formado por los vectores[2] (1, 0, 0) y (0, 1, 0) y el espacio vectorial U formado por los vectores (0, 2, 0) y (0, 0, 1) tenemos el espacio vectorial formado por los vectores (1, 0, 0), (0, 1, 0), (0, 2, 0) y (0, 0, 1). Pero (0, 1, 0) y 2×(0, 1, 0) son linealmente dependientes, por lo que basta con 3 vectores para representar el espacio vectorial U+V suma de ambos espacios vectoriales.

La fórmula de Grassmann dice que dim (U+V) + dim (U∩V) = dim(U) + dim(V).

Si U y V son espacios vectoriales del cuerpo K, se dice que están en suma directa cuando la intersección de U y V es solo el vector 0 (que está en ambos y todos los espacios vectoriales siempre).

Si u es un vector de U y v un vector de V, si U y V están en suma directa entonces u+v es un vector de la suma (directa), y cada vector de la suma (directa) se puede escribir de una única forma como suma de un vector de U suma un vector de V.

Aplicaciones lineales[editar · editar código]

Si tenemos dos espacios vectoriales, U y V, podemos asignar vectores de U a V como las funciones, es decir, de cada vector de U solamente puede asignarse un único vector de V.

Si tenemos u vector de U que se asigna a v de V, entonces la notación es f(u) = v.

Una función f:U → V es un mapa lineal si para todo u1, u2 vectores de U y todo λ en el cuerpo K se cumplen las siguientes dos condiciones:

  1. f(u1 + u2) = f(u1) + f(u2).
  2. f(λu1) = λf(u1).

También se puede decir que:

  1. f(0) = 0.
  2. f(−u1) = −f(u1).
  3. f(λu1 + µu2) = λf(u1) + µf(u2).

Si f es una aplicación lineal biyectiva, entonces la inversa de f es una aplicación lineal.

Un monomorfismo es una aplicación lineal inyectiva.

Un epimorfismo es una aplicación lineal sobreyectiva.

Un isomorfismo es una aplicación lineal biyectiva.

Un endomorfismo es una aplicación lineal entre dos espacios vectoriales que en realidad son el mismo, f:V → V.

Un automorfismo es un endomorfismo biyectivo.

W subconjunto de U y Z subconjunto de V subespacios vectoriales. Entonces:

  1. f(W) el el conjunto de f(w) tales que los vectores w pertenecen a W, y es un subespacio vectorial de V.
  2. f-1(Z) es el conjunto de u vectores de U tales que f(u) está en Z, y es un subespacio vectorial de U.

En particular, f(V) se denota por im f (imagen de f) y f−1(0) se denota por ker f (kernel de f), y estos subespacios se llaman imagen de f y núcleo de f, respectivamente.

Más precisamente, im f es el conjunto de f(u) tales que u es un vector de U, y ker f es el conjunto de u vectores de U tales que f(u) = 0.

Sean U, V dos espacios vectoriales y f: U → V una aplicación lineal. Entonces:

  1. f es inyectiva si y sólo si ker f = {0}
  2. f es sobreyectiva si y sólo si im f = V

Sean U, V dos espacios vectoriales finitos y f: U → V una aplicación lineal. Entonces:

  1. f es inyectiva si y sólo si dim(ker f) = 0
  2. f es sobreyectiva si y sólo si dim(im f) = dim V

Matriz de una aplicación lineal[editar · editar código]

Sea f:U → V una aplicación lineal. Sea B = (u1, u2, …, un) una base de U.

f(u1) = v1, f(u2) = v2, …, f(un) = vn.

La matriz de la aplicación lineal f en la base U, [f]U, es la matriz cuyas columnas son, en orden, v1, v2, …, vn.

Si B1 = (u1, u2, …, un) es una base de U, B2 = (v1, v2, …, vn) una base de V, [f]B1,B2 × [f]B1,B2 = [f]B1,B2, y [f]B1,B2 × [f]B2,B1 = [f]B1.

Espacio dual[editar · editar código]

Si U y V son dos espacios vectoriales del cuerpo K, se define L(U, V) al conjunto de aplicaciones lineales de U a V. L(U, V) es un espacio vectorial.

Si f1:U → V, f(u)=2v y f2:U → V, f(u)=3v,

  1. (f1 + g1):U → V, f(u)=5v
  2. λ(f1):U → V, f(u)=2λu

Por tanto, el espacio dual es un espacio vectorial.

Si V tiene dimensión 1, es decir, es un cuerpo que pondremos la restricción de que sea K, entonces L(U, K) es el espacio dual de U, escrito como U×.

Endomorfismos y diagonalización[editar · editar código]

Un endomorfismo es una aplicación lineal entre dos espacios vectoriales que en realidad son el mismo, f:V → V. Por tanto, podemos decir que cada vector se envía a si mismo, a un múltiplo de él mismo, o a una combinación de vectores del espacio vectorial, ya que la dimensión, las coordenadas, y todo es igual en el primer espacio vectorial y en el segundo espacio vectorial.

Formalmente, podremos definir algunos vectores como f(v) = λv, donde v es un vector propio, autovector o eigenvector, y λ es un valor propio, autovalor, o eigenvalue.

El conjunto de valores propios son el espectro del endomorfismo f, spec (f), y son las raíces del polinomio característico. Si A es la matriz de la aplicación lineal f, el polinomio característico, Pf(λ), es el determinante de (A-λId). Y los vectores propios son, para cada valor propio, el subespacio propio Vλ generado por el valor propio, λ, el kernel de (A-λId).

La multiplicidad geométrica de un valor propio es la dimensión del subespacio propio del valor propio. La multiplicidad algebraica de un autovalor λ es su multiplicidad como raíz del polinomio característico.

Si Pf(x) = (x-a)1(x-b)2(x-c)3, entonces el eigenvalue a tiene multiplicidad algebraica 1, el valor propio b tiene multiplicidad algebraica 2, el autovalor c tiene multiplicidad algebraica 3. Se cumple:

1 ≤ multiplicidad geométrica ≤ multiplicidad algebraica

Por tanto, si multiplicidad algebraica = 1, multiplicidad geométrica = 1.

Dos matrices, A y B son similares (como una relación de equivalencia) si A se puede convertir elementalmente a B. Dicho de otro modo, existe una matriz invertible P tal que A=P-1BP.

El teorema de diagonalización dice que una matriz (de un endomorfismo V en un cuerpo K) es similar a una matriz diagonal si los valores propios están en el cuerpo K, y las multiplicidades algebraicas y geométricas coinciden para cada valor propio. Si coinciden y son 1, la diagonal tendrá todos los elementos de la diagonal diferentes. Los elementos de la diagonal de la matriz son los valores propios de la matriz. Si un vector tiene multiplicidad k, entonces saldrá k veces en la matriz diagonal.

Dado el polinomio característico del endomorfismo de V del cuerpo K, con matriz de la aplicación lineal A, el polinomio mínimo, es aquel que cumple con las tres siguientes condiciones:

  1. Tiene como raíces las del polinomio característico
  2. La matriz A anula al polinomio mínimo
  3. Es de grado mínimo

Aplicaciones bilineales[editar · editar código]

Aplicaciones multilineales[editar · editar código]

Referencias[editar · editar código]

  1. Y sus combinaciones lineales, es decir, (2, 5, 0) = 2*(1, 0, 0) + 5*(0, 1, 0) también pertenece al espacio vectorial V
  2. Y sus combinaciones lineales, es decir, (2, 5, 0) = 2*(1, 0, 0) + 5*(0, 1, 0) también pertenece al espacio vectorial V