TERCER CORTE

 "Aplicación de propiedades de espacios vectoriales y transformaciones lineales"

Maneja teoremas de espacios vectoriales solucionando problemas del entorno educativo. 

Aplica transformaciones lineales solucionando problemas del entorno educativo.


TEMA 4: Espacios vectoriales.

SUBTEMAS:

1.- Definición de espacio vectorial. 

2.- Definición de subespacio vectorial y sus propiedades. 

3.- Combinación lineal. Independencia lineal. 

4.- Base y dimensión de un espacio vectorial, cambio de base. 

5.- Espacio vectorial con producto interno y sus propiedades. 

6.- Base ortonormal, proceso de orto normalización de Gram Schmidt. 

TEMA 5. Transformaciones lineales.

SUBTEMAS:

1.- Definición de transformación lineal. 

2.- Núcleo e imagen de una transformación lineal.

3.- Representación matricial de una transformación lineal. 

4.- Aplicación de las transformaciones lineales: reflexión, dilatación, contracción y rotación.



"TEMA 4, SUBTEMA 1"
Definición de espacio vectorial. 

Espacio vectorial real:

Un espacio vectorial real V es un conjunto de objetos, denominados vectores, junto con dos operaciones binarias llamadas suma y multiplicación por un escalar y que satisfacen los diez axiomas enumerados a continuación.

Notación. Si “x” y “y” están en V  y si a es un número real, entonces la suma se escribe como

 “x + y” y el producto escalar de a y x como ax.

Lista de las propiedades que satisfacen los vectores en un espacio vectorial deben mencionarse dos asuntos de importancia. En primer lugar, mientras que puede ser útil pensar en R2 o R3  al manejar un espacio vectorial, con frecuencia ocurre que el espacio vectorial parece ser muy diferente a estos cómodos espacios (en breve tocaremos este tema). 
En segunda instancia, la definición 1 ofrece una definición de un espacio vectorial real. La palabra “real” significa que los escalares que se usan son números reales. Sería igualmente sencillo definir un espacio vectorial complejo utilizando números complejos en lugar de reales. Este libro está dedicado principalmente a espacios vectoriales reales, pero las generalizaciones a otros conjuntos de escalares presentan muy poca dificultad. 

Axiomas de un espacio vectorial:

1-     Si X pertenece a V y Y pertenece a V, entonces X+Y pertenece a V.

2-      Para todo X, Y y Z en V, (x+y)+z = x(y+z).

3-     Existe un vector |0 pertenece V tal que para todo X pertenece a V, X+0=0+X=X.

4-     Si x pertenece a V, existe un vector –x en V tal que x+(-x)=0.

5-     Si X y Y están en V, entonces x+y=y+x.

6-     Si x pertenece a V y a es un escalar, entonces ax pertenece a V.

7-     Si X y Y están en V y a es un ecalar, entonces a(x+y)= ax + ay

8-     Si X pertenece a V y a y b son escalares, entonces (a+b) x = ax+ by.

9-     Si X pertenece a V y a y b son escalares, entonces a(bx) = (ab)x.

10-   Para cada vector X pertenece a V, 1x = x.





"TEMA 4, SUBTEMA 2"
Definición de subespacio vectorial y sus propiedades. 

Sea H un subconjunto no vacío de un espacio vectorial V y suponga que H es en sí un espacio vectorial bajo las operaciones de suma y multiplicación por un escalar definidas en V. Entonces se dice que H es un sub espacio de V. 

Existen múltiples ejemplos de sub espacio, sin embargo, en primer lugar, se demostrará un resultado que hace relativamente sencillo determinar si un subconjunto de V es en realidad sub espacio de V

Teorema de sub espacio:

Un subconjunto no vacío de H de un espacio vectorial V es un sub espacio de V si se cumplen las dos reglas de cerradura:

Reglas de cerradura para ver si un subconjunto no vació es un sub espacio

  • Si x € H y y € H, entonces x + y € H.
  • Si x € H, entonces αx € para todo escalar α.

Es obvio que si H es un espacio vectorial, entonces las dos reglas de cerradura se deberán cumplir. De lo contrario, para demostrar que es un espacio vectorial, se deberá demostrar que los axiomas i) a x) de la definición cumplen bajo las operaciones de suma de vectores y multiplicación por un escalar definidas en V. Las dos operaciones de cerradura [axiomas i) y iv)] se cumplen por hipótesis, como los vectores en H son también vectores en V, las identidades asociativa, conmutativa, distributiva y multiplicativa [axiomas ii), v), vii), viii), ix) y x)] se cumplen.

Este teorema demuestra que para probar si es o no es un sub espacio de V, es suficiente verificar que:

x + y y αX están en cuando x y y  están en y α es un escalar.

Propiedades de sub espacio vectorial:

1). El vector cero de V está en H.2

2). H es cerrado bajo la suma de vectores. Esto es, para cada u y v en H, la suma u + v está en H.

3). H es cerrado bajo la multiplicación por escalares. Esto es, para cada una en H y  cada escalar c, el vector cu está en H. 





"TEMA 4, SUBTEMA 3"
Combinación lineal. Independencia lineal. 

Una combinación lineal de dos o más vectores es el vector que se obtiene al sumar esos vectores multiplicados por escalares.

Cualquier vector se puede poner como combinación lineal de otros que tengan distinta dirección.

Esta combinación lineal es única.

Sean v1,v2,…,vn vectores en un espacio vectorial V. Entonces cualquier vector de la forma:

α1v1+α2v2+…+αnvn

donde α1v1+α2v2+…+αnvson escalares se denomina combinación lineal de v1,v2,…,vn

Todo vector V = (a, b, c) en R3 se puede expresar como
i = (1,0,0); 
j = (0,1,0);
k =(0,0,1)

V = (a, b, c) = a(i) + b(j) + c(k)

Entonces se dice que V es una combinación lineal de los 3 vectores i,j,k.





"TEMA 4, SUBTEMA 4"
Base y dimensión de un espacio vectorial, cambio de base.

Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. 

Propiedades de las bases:

1. Una base de S es un sistema generador minimal de S (lo más pequeño posible). 

2. Además es un conjunto independiente maximal dentro de S (lo más grande posible). 

3. Una base de S permite expresar todos los vectores de S como combinación lineal de ella, de manera única para cada vector. 

Teorema y definición: 

Dimensión . Todas las bases de un mismo espacio o subespacio tienen el mismo número de vectores. Se llama dimensión de dicho espacio o subespacio.  

Por tanto, la dimensión es el máximo número de vectores independientes que podemos tener en el espacio o subespacio. En otras palabras, es el máximo rango que puede tener un conjunto de vectores de dicho espacio. Es también el rango de cualquier sistema generador de dicho espacio.

Propiedades de la dimensión:

  1. Significado físico de la dimensión: el espacio tiene dimensión 3, los planos dimensión 2, las rectas dimensión 1, el punto dimensión 0. El subespacio {0} es el único de dimensión 0. 
  2. La dimensión de un subespacio en ℜn , coincide con el número de parámetros libres en su forma paramétrica. (1 parámetro=recta, 2 parámetros= plano...) 
  3. Si S y T son subespacios y S está contenido en T, entonces dim S ≤ dim T. Además, si se da la igualdad, dim S = dim T, entonces ambos espacios han de coincidir. 
  4. El rango de una familia de vectores, es igual a la dimensión del subespacio que generan. Es decir: si v1,v2,. . . vn generan un cierto subespacio S, y si el rango de dicho conjunto es r, entonces dim S = r.
Definición: Matriz del cambio de base. 

En un espacio vectorial V, dadas dos bases B y B’ , se llama matriz de cambio de base (o de cambio de coordenadas) de B a B’ a la matriz que contiene en sus columnas las coordenadas de los vectores de la base B expresados en función de la base B’. 

Su utilidad es la siguiente: Conocidas las coordenadas de un vector en base B, nos permitirá hallar las coordenadas de dicho vector en base B’. 



Propiedades de las matrices de cambio de base:
1. Toda matriz de cambio de base es cuadrada nxn, donde n es la dimensión del espacio al que se refieren las bases. 
2. Toda matriz de cambio de base es inversible (es decir, con determinante no nulo). Además, la matriz de cambio de B a B’ es inversa de la matriz de cambio de B’ a B. Comprobar en el ejemplo anterior que P y Q son inversas entre sí. Por tanto, después de hallar P, podríamos haber hallado Q como P–1. 
3. La matriz de cambio de una base B a la misma base B, es la matriz identidad. 




 

"TEMA 4, SUBTEMA 5"
Espacio vectorial con producto interno y sus propiedades. 

Producto Interno:

Un producto interno sobre un espacio vectorial V es una operación que asigna a cada par de vectores u y v en V un número real <u, v>.

Un producto interior sobre V es una función que asocia un número real ‹u, v› con cada par de vectores u y v cumple los siguientes axiomas:

Propiedades:


i. (v, v) ≥ 0

ii. (v, v) = 0 si y sólo si v = 0.

iii, (u, v +w) = (u, v)+ (u, w)

iv. (u + v, w) = (u, w)+(v, w)

v. (u, v) = (v, u)

vi. (αu, v) = α(u, v)

vii. (u, αv) = α(u, v)

Espacios con producto interior:

El producto interior euclidiano es solo uno más de los productos internos que se tiene que definir en Rn Para distinguir entre el producto interno normal y otros posibles productos internos se usa la siguiente notación.

u ●v = producto punto (producto interior euclidiano para Rn)

‹u, v› = producto interno general para espacio vectorial V.


Propiedades de los productos interiores:

1. ‹0, v› = ‹v, 0› = 0

2. ‹u + v, w› = ‹u, w› + ‹v, w›

3. ‹u, cv› = c‹u, v›.

Un espacio vectorial con producto interno se denomina espacio con producto interno.





"TEMA 4, SUBTEMA 6"
Base ortonormal, proceso de orto normalización de Gram Schmidt. 

Un conjunto S de vectores en un espacio V con producto interior se llama ortogonal si todo par de vectores en S es ortogonal, además cada vector en este conjunto es unitario, entonces S se denomina ortonormal. 


Proceso de ortonormalización de Gram-Schmidt

 

1.       Sea B = {v1, v2, . . ., vn} una base de un espacio V con producto interno

2.      Sea B´= {w1, w2, . . ., wn} donde wi está dado por:

w1= v1

3.      Sea ui= wi ││w1││ entonces el conjunto B´´={ u1, u2, . . ., un} es una base ortonormal de V.

Ejemplo: Forma alternativa del proceso de ortonormalización de Gram-Schmidt

Determine una base ortonormal del espacio solución del siguiente sistema homogéneo de ecuaciones lineales

 

w+ x +           z= 0

2w+x + 2y+ 6z=0


Solución: La matriz aumentada se reduce como se sigue.

 

Entonces cada solución del sistema es de la forma

Una base del espacio solución es:

B= {v1, v2,} = {(-2,2,1,0), (1,-8,0,1)}.

Para hallar una base ortonormal B´= {u1, u2}, se usa la forma alternativa del proceso de ortonormalización de Gram- Schmidt como sigue.









"TEMA 5,SUBTEMA 1"
Definición de transformación lineal. 

Las transformaciones lineales son las funciones y tratan sobre K-espacios vectoriales que son compatibles con la estructura (es
decir, con la operación y la acción) de estos espacios.

Aquí se presentan las funciones entre espacios vectoriales que preservan las cualidades de los
espacios vectoriales. Es decir, de funciones que preservan la suma y la multiplicación por escalares.

Nosotros usaremos el concepto de la función para darle un tratamiento a los sistemas de ecuaciones lineales. La restricción que haremos sera sobre el tipo de funciones: solo estaremos interesados en funciones que preserven las operaciones en el espacio vectorial. Este tipo de funciones serán llamadas funciones lineales. Primeramente las definiremos, veremos algunas propiedades generales y después veremos como se aplican estos resultados a sistemas de ecuaciones.

Sean V y W dos espacios vectoriales posiblemente iguales.
 Una transformación lineal o mapeo lineal de V a W es una función
T : V → W tal que para todos los vectores u y v de V y cualquier escalar c:
         a) T (u + v) = T (u) + T (v)
         b) T (c u) = c T (u)

Demuestre que la transformación T : R2 →R2 definida por
                        
es lineal.
                  
                  

Entonces :
                    
   

Por otro lado, para todo escalar c,
                              
          

Como se cumplen las dos condiciones:      
                      
     
T es lineal.

Una transformación lineal preserva combinaciones lineales. Veremos que, debido a esto, una transformación lineal queda unívoca-mente determinada por los valores que toma en los elementos de una base cualquiera de su dominio.

Teniendo en cuenta que las transformaciones lineales son funciones entre conjuntos, tiene sentido estudiar la validez de las propiedades usuales de funciones: inyectividad, suryectividad y biyectividad. 

Las transformaciones lineales que verifican alguna de estas propiedades reciben nombres particulares:

Definición 3.6 Sean V y W dos K-espacios vectoriales, y sea f : V → W una transformación lineal. Se dice que:


1. f es un monomorfismo si f es inyectiva.

2. f es un epimorfismo si f es suryectiva.

3. f es un isomorfismo si f es biyectiva.


En algunos casos, consideraremos transformaciones lineales de un K-espacio vectorial en s ́ı mismo:

Sea V un K-espacio vectorial. Una transformación lineal f : V → V se llama un endomorfismo de V . Si f es un endomorfismo que es además un isomorfismo, entonces se dice que es un auto morfismo.






"TEMA 5,SUBTEMA 2"
 Núcleo e imagen de una transformación lineal.

Teorema  1

Sea Tuna transformación lineal. Entonces para todos los vectores uvv1,

v2, . . . , ven y todos los escalares a1a2, . . . , an:

i. T(00

ii. T(vTTv

iii. T(a1v+ a2v+. . .+ anvn= a1Tv+ a2Tv+. . .+ anTvn

Nota. En la parte i) el de la izquierda es el vector cero en V; mientras que el de la

derecha es el vector cero en W.

Teorema 2

Sea un espacio vectorial de dimensión finita con base {v1v2, . . . , vn}. Sean w1,

w2, . . . , wvectores en W. Suponga que TTson dos transformaciones lineales de V

en tales que T1vT2vwpara 1, 2, . . . , n. Entonces para cualquier vector 

VT1T2v; es decir TT2.

 

Ejemplo


Núcleo e imagen de una transformación lineal

Sean V y W dos espacios vectoriales y sea T:V W una transformación lineal. Entonces 

i . El núcleo de T, denotado por un, está dado por

ii. La imagen de T, denotado por Im T, esta dado por

Un T es no vacio porque, de acuerdo al teorema 1, T(0) = 0 de manera que 0 ϵ un T para cualquier transformación lineal T. Se tiene interés en encontrar otros vectores en V que “se transformen en 0”. De nuevo, observe que cuando escribimos T(0) = 0, el 0 de la izquierda está en V y el de la derecha en W.

La imagen  de T es simplemente el conjunto de “imajenes” de los vectores en V bajo la transformación T. De hecho, si w = Tv, se dice que w es la imagen de v bajo T.

Antes de dar ejemplos de núcleos e imágenes , se demostrará un teorema de gran utilidad.

Teorema 4

Si T:V W es una transformación lineal, entonces

i.Un T es un subespacio de V.

ii.Im T es un subespacio de W.

Demostracion:

i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) =  = 0 = 0 de forma que u + v y ∝u están en un T.

ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto significa que T(u + v)= Tu + Tv = w + x y T(∝u) = ∝Tu =∝w. Por lo tanto, w + x y ∝w están en Im T.

Ejemplo 3.  Núcleo e imagen de la transformación cero

Sea Tv = 0 para todo vϵ V(T es la transformación cero). Entonces un T = v e Im T = {0}.

Ejemplo 4   Núcleo e imagen de la transformación identidad

Sea Tv = v para vϵ V(T es la transformación identidad). Entonces un T= {0} e Im T = V.

Las transformaciones cero e identidad proporcionan dos extremos. En la primera todo se encuentra en el núcleo. En la segunda sólo el vector cero se encuentra en el núcleo. Los casos intermedios son más interesantes.

Ejemplo 5 Núcleo e imagen de un operador de proyección

Sea T:R3 R3 definida por

T es el operador de proyección de R3 en el plano xy.

Entonces x = y = 0. Así, nu T = {(x,y,z):x  = y = 0, zϵR}, es decir, el eje z, e Im T = {(x,y,z): z = 0}, es decir el  plano xy. Observe que dim un T = 1 y dim Im T = 2.


Nulidad y rango de una transformación lineal

Si T es una transformación lineal de v en w, entonces se define.

Toda matriz A de m*n da lugar a una transformación lineal T:R´´ R´´´ definida por Tx = Ax. Es evidente que un T = NA, Im T = Im A = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que las definiciones de núcleo, imagen, nulidad y rango de una transformación lineal son extensiones del espacio nulo, la imagen, la nulidad y el rango de una matriz.







"TEMA 5,SUBTEMA 3"
 Representación matricial de una transformación lineal.

Consideremos ahora espacios vectoriales V y W de dimensiones n y m respectivamente. Supongamos que tenemos una transformación lineal T:V\to W. Escogemos bases ordenadas B_V=(v_1,\dots, v_n) y B_W=(w_1,\dots,w_m) de V y W respectivamente. Ten cuidado, aquí (v_1,\dots, v_n) no es un vector de F^n, sino una colección ordenada de vectores de V.

Por el teorema de caracterización de espacios vectoriales de dimensión finita, tenemos los isomorfismos

  

\[i_{B_{V}}:F^n\to V, \vspace\]

  

\[i_{B_{W}}:F^m\to W.\]

¿Cómo podemos usar todas estas transformaciones para construir una transformación F^n\to F^m? La idea es usar el inverso de i_{B_W} y componer todo.

Así, consideramos \psi_T como la composición de las transformaciones i_{B_{V}}, T, i_{B_{W}}^{-1}, es decir,

  

\[\psi_T:F^n\to F^m,\]

está dada por

  

\[\psi_T=i_{B_W}^{-1}\circ T\circ i_{B_{V}}.\]

De esta forma, \psi_T es una transformación lineal entre F^n y F^m. ¡Este tipo de transformaciones ya las conocemos! Sabemos que \psi_T se describe de manera única por medio de una matriz A\in M_{m,n}(F). Esta es, por definición, la matriz asociada a T con respecto a las bases B_V y B_W o bien la forma matricial de T. Dicha matriz depende fuertemente de las dos bases, así que la denotaremos como \text{Mat}_{B_W,B_V}(T) . Por el momento sólo pongamos mucha atención en el orden en el que escribimos las bases en los subíndices. Es importante más adelante veremos que resulta útil escribirlo así.

Cuando T:V\to V va de un espacio vectorial a sí mismo y usamos sólo una base B, simplificamos la notación a \text{Mat}_B(T).

Evaluar T usando su forma matricial

La construcción anterior parece muy complicada, pero en realidad es muy natural. Lo que está sucediendo es lo siguiente. Ya sabemos que toda transformación lineal entre F^n y F^m está dada por matrices. Podemos extender esto a una descripción de transformaciones lineales entre V y W identificando V con F^n y W con F^m vía la elección de bases en V y W.

Notemos que si definimos A:=\text{Mat}_{B_{W},B_{V}}(T), entonces tenemos que

i_{B_{W}}(Ax)=T(i_{B_{V}}(x)) … (1)

Esta igualdad nos va a ayudar a decir quién es T en términos de las entradas de la matriz A. Sea \{e_1,\dots,e_n\} la base canónica de F^n y \{f_1,\dots,f_m\} la base canónica de F^m. SiA=[a_{ij}], entonces por definición Ae_i=a_{1i}f_1+\dots+a_{mi}f_{m}, así para x=e_i se tiene

i_{B_{W}}(Ax)=i_{B_{W}}(a_{1i}f_1+\dots + a_{mi}f_m) = a_{1i}w_1+\dots + a_{mi}w_m.

Por otro lado, i_{B_{V}}(e_i)=v_i, de manera que la relación (1) es equivalente a la relación

T(v_i)=a_{1i}w_1+\dots + a_{mi}w_m

Aquí empieza a haber mucha notación, pero no hay que perderse. Hasta ahora lo que tenemos es que «podemos saber cuánto vale la transformación T en cada elemento de la base de V en términos de la matriz A«. ¡Este es un paso importante, pues en la entrada anterior vimos que basta saber qué le hace una transformación a los elementos de la base para saber qué le hace a cualquier vector! Resumimos lo obtenido hasta ahora.

Proposición. Sea T:V\to W una transformación lineal y sean B_V=\{v_1,\dots v_n\}, B_W=\{w_1,\dots,w_m\} bases en V y W, respectivamente. La columna j de \text{Mat}_{B_W,B_V}(T)=[a_{ij}] entonces para toda 1\leq i\leq n se tiene

  

\[T(v_i)=\displaystyle\sum_{j=1}^m a_{ji}w_j.\]

Así, si tenemos la matriz A que representa a T en las bases B_V y B_W y un vector arbitrario v en V, para saber quién es T(V) basta:

  • Usar la proposición anterior para saber quién es T(v_i) para cada v_i en la base B_V.
  • Expresar a v en términos de la base B_V como, digamos, v=c_1v_1+\ldots+c_nv_n.
  • Usar que T es lineal para concluir que T(v)=c_1T(v_1)+\ldots+c_nT(v_n) y usar los valores de T(v_i) encontrados en el primer inciso.

Forma matricial de composiciones de transformaciones lineales

Para finalizar esta entrada queremos entender la relación entre la composición S\circ T de transformaciones lineales y las matrices asociadas de T y S. En otras palabras, sean T:V\to W y S:W\to U transformaciones lineales fijas y supongamos que m=dimVn=dimWp=dimU. También fijemos las bases B_U, B_V, B_W en U,V,W, respectivamente. Para simplificar las cosas escribamos

\mathcal{A}=\text{Mat}_{B_U,B_W}(S) y \mathcal{B}=\text{Mat}_{B_W,B_V}(T)

Con respecto a las bases B_U,B_V,B_W se tienen los isomorfismos i_{B_U}, i_{B_V}, i_{B_W} definidos como lo hicimos anteriormente en esta misma entrada del blog, y por definición de \mathcal{A}, \mathcal{B} se tiene

i_{B_W}(\mathcal{B}x)=T(i_{B_V}(x)) con x\in F^m,

i_{B_U}(\mathcal{A}y)=S(i_{B_W}(y)) con y\in F^n.

Aplicando S en la primera relación y después usando la segunda relación, se tiene para x\in F^m

(S\circ T)(i_{B_V}(x))=S(i_{B_W}(\mathcal{B}x))=i_{B_U}(\mathcal{A} \mathcal{B}x).

Esta última relación y la definición de \text{Mat}_{B_U,B_V}(S\circ T) nos muestra que

\text{Mat}_{B_U,B_V}(S\circ T)=\mathcal{A} \cdot \mathcal{B}.

En otras palabras, la composición de transformaciones lineales se reduce a multiplicar sus matrices asociadas o de manera más formal

Teorema. Sean T:V\to W y S:W\to U transformaciones lineales entre espacios vectoriales de dimensión finita y sean B_U, B_V, B_W bases de U,V,W, respectivamente. Entonces

\text{Mat}_{B_U,B_V}(S\circ T)=\text{Mat}_{B_U,B_W}(S)\cdot \text{Mat}_{B_W,B_V}(T).

Cuando tenemos transformaciones lineales de un espacio vectorial V a sí mismo, y usamos la misma base B, el resultado anterior se puede escribir de una manera más sencilla.

Corolario. Sean T_1,T_2:V\to V transformaciones lineales en un espacio vectorial de dimensión finita V, y sea B una base de V. Entonces

\text{Mat}_{B}(T_1\circ T_2)=\text{Mat}_{B}(T_1)\cdot \text{Mat}_{B}(T_2).





"TEMA 5,SUBTEMA 4" 

Aplicación de las transformaciones lineales: reflexión, dilatación, contracción y rotación.


Existen ciertas propiedades básicas de las transformaciones lineales, las cuales si son tomadas en cuenta y aplicadas al momento de resolver un problema, pueden reducirlo un problema simple. La notación general utilizada para una transformación lineal es T: Rn.


Transformaciones lineales:

Las transformaciones lineales forman un “hilo” que se entreteje en la tela de este texto. Su utilización mejora el sentido geométrico de lo escrito. Por ejemplo, en el capítulo 1, las transformaciones lineales proporcionan una visión dinámica y gráfi ca de la multiplicación matriz-vector.

1. Reflexión:

Cuando un conjunto de puntos dados es graficado desde el espacio euclidiano de entrada a otro de manera tal que este es isométrico al espacio euclidiano de entrada, llamamos a la operación realizada la reflexión del conjunto de puntos dado. Esto puede realizarse también con respecto a la matriz, en tal situación la matriz de salida es llamada la matriz de reflexión. La reflexión es realizada siempre con respecto a uno de los ejes, sea el eje x o el eje y. Esto es como producir la imagen espejo de la matriz actual.

2. Expansión:

Al igual que en la reflexión, también es posible expandir los puntos dados en una dirección particular. La expansión se realiza habitualmente para un cierto grado. Es como realizar una operación de multiplicación de los elementos del conjunto de puntos dados con un término escalar hacia la dirección donde tiene que ser expandido. Sea para un punto (2, 3) si el grado de expansión 2 es la dirección de y, entonces el nuevo punto obtenido es (2, 6).

3. Contracción:

La contracción es el procedimiento inverso de la expansión. Aquí el punto es contraído en un determinado grado hacia una dirección dada. Sea el punto de entrada (4, 8) y este debe ser contraído para el grado dos en la dirección de x entonces el nuevo punto resulta ser (2, 8).

4. Rotación:

El término rotación tiene dos significados, ya la rotación de un objeto puede ser realizada con respecto al eje dado o al eje mismo. La rotación se realiza para un cierto grado el cual es expresado en forma de un ángulo. Asimismo, la rotación puede realizarse en la dirección de las manecillas del reloj, o inverso a las manecillas del reloj.

Como ejemplo, dirijámonos a producir la matriz estándar para la representación de la transformación lineal reflejando un conjunto de puntos en el plano x-y a través de la recta y = (−2x / 3).

El primer paso para esto es determinar los vectores base.

Por lo tanto, podemos afirmar que,R2 es una transformación lineal, entonces podemos escribir que,◊Dado que y pertenece a R2. Imagina que A: R2

La imagen de la matriz base determina la imagen de cualquier elemento. Por lo tanto la imagen de a través de y = (−2x/ 3) es determinada mediante la obtención de una recta que pasa por (1, 0) y es que es ortogonal a . Esto está dado por y = (3x/ 2) – (3/ 2).

El punto donde las dos rectas, esto es, y = (3x/ 2) – (3/ 2) e y = (−2x/ 3) se intersectan se dado como (9/13, −6/13). Tomamos p¬1¬ para ser el punto de reflexión de a través de la recta dada. Este punto es simétrico respecto a (9/13, −6/13) por lo tanto, podemos escribir que,

Esto produce,

De manera similar, la imagen del vector base resulta.

Comentarios