Volvamos a la matriz.
y aplicar la transformación a algunos puntos de muestra.
Observe lo siguiente:
- punto incógnita₁ se ha girado en sentido antihorario y se ha acercado al origen,
- punto incógnita₂, por otro lado, se ha girado en el sentido de las agujas del reloj y se ha alejado del origen,
- punto incógnita₃ solo se ha reducido, lo que significa que se ha acercado al origen manteniendo su dirección,
- punto incógnita₄ ha sufrido una transformación similar, pero se ha ampliado.
La transformación se comprime en el incógnita⁽¹⁾-dirección y se estira en el incógnita⁽²⁾-dirección. Puedes pensar que las líneas de la cuadrícula se comportan como un acordeón.
Direcciones como las representadas por los vectores. incógnita₃ y incógnita₄ juegan un papel importante en el aprendizaje automático, pero esa es una historia para otro momento.
Por ahora, podemos llamarlos direcciones propiasporque los vectores a lo largo de estas direcciones solo pueden escalarse mediante la transformación, sin rotarse. Cada transformación, excepto las rotaciones, tiene su propio conjunto de direcciones propias.
Recuerde que la matriz de transformación se construye apilando los vectores base transformados en columnas. Tal vez le gustaría ver qué pasa si intercambiar las filas y columnas después (la transposición).
Tomemos, por ejemplo, la matriz
dónde Aᵀ representa la matriz transpuesta.
Desde una perspectiva geométrica, las coordenadas de la primera nuevo vector base proviene de las primeras coordenadas de todas los antiguos vectores base, el segundo a partir de las segundas coordenadas, y así sucesivamente.
En NumPy, es tan simple como eso:
import numpy as npA = np.array([
[1, -1],
[1 , 1]
])
print(f'A transposed:\n{A.T}')
A transposed:
[[ 1 1]
[-1 1]]
Debo decepcionarlos ahora, ya que no puedo proporcionar una regla simple que exprese la relación entre las transformaciones. A y Aᵀ en tan sólo unas pocas palabras.
En lugar de eso, déjame mostrarte una propiedad compartida por las transformaciones original y transpuesta, que te resultará útil más adelante.
Aquí está la interpretación geométrica de la transformación representada por la matriz. A. El área sombreada en gris se llama el paralelogramo.
Compare esto con la transformación obtenida al aplicar la matriz. Aᵀ:
Ahora, consideremos otra transformación que aplica escalas completamente diferentes a los vectores unitarios:
El paralelogramo asociado a la matriz. B es mucho más estrecho ahora:
pero resulta que es del mismo tamaño que el de la matriz Bᵀ:
Déjame decirlo de esta manera: tienes un conjunto de números para asignar a los componentes de tus vectores. Si asigna un número mayor a un componente, necesitará usar números más pequeños para los demás. En otras palabras, la longitud total de los vectores que forman el paralelogramo permanece igual. Sé que este razonamiento es un poco vago, así que si buscas pruebas más rigurosas, consulta la literatura en la sección de referencias.
Y aquí está el truco al final de esta sección: el área de los paralelogramos se puede encontrar calculando el determinante de la matriz. Es más, el determinante de la matriz y su transpuesta son idénticos.
Más sobre el determinante en las próximas secciones.
Puede aplicar una secuencia de transformaciones; por ejemplo, comience aplicando A al vector incógnitay luego pasar el resultado a través B. Esto se puede hacer multiplicando primero el vector incógnita por la matriz Ay luego multiplicar el resultado por la matriz B:
Puedes multiplicar las matrices. B y A para obtener la matriz do para uso posterior:
Este es el efecto de la transformación representada por la matriz. do:
Puedes realizar las transformaciones en orden inverso: primero aplica Bluego aplicar A:
Dejar D representar la secuencia de multiplicaciones realizadas en este orden:
Y así es como afecta a las líneas de la cuadrícula:
Así que puedes comprobar por ti mismo que el orden de la multiplicación de matrices importa.
Hay una propiedad genial con la transpuesta de una transformación compuesta. Mira lo que pasa cuando multiplicamos A por B:
y luego transpondremos el resultado, lo que significa que aplicaremos (AB)ᵀ:
Puede ampliar fácilmente esta observación a la siguiente regla:
Para finalizar esta sección, consideremos el problema inverso: ¿es posible recuperar matrices? A y B dado solo do = AB?
Esto es factorización matricialque, como era de esperar, no tiene una solución única. La factorización matricial es una técnica poderosa que puede proporcionar información sobre las transformaciones, ya que pueden expresarse como una composición de transformaciones elementales más simples. Pero ese es un tema para otro momento.
Puedes construir fácilmente una matriz que represente una transformación sin hacer nada eso deja los vectores de base estándar sin cambios:
Se le conoce comúnmente como la matriz de identidad.
tomar una matriz A y considerar la transformación que deshace sus efectos. La matriz que representa esta transformación es A⁻¹. Específicamente, cuando se aplica después o antes Aproduce la matriz identidad I:
Hay muchos recursos que explican cómo calcular la inversa a mano. recomiendo aprender Método de Gauss-Jordan porque implica manipulaciones simples de filas en la matriz aumentada. En cada paso, puede intercambiar dos filas, cambiar la escala de cualquier fila o agregar a una fila seleccionada una suma ponderada de las filas restantes.
Tome la siguiente matriz como ejemplo para cálculos manuales:
Deberías obtener la matriz inversa:
Verifique manualmente que se cumpla la ecuación (4). También puedes hacer esto en NumPy.
import numpy as npA = np.array([
[1, -1],
[1 , 1]
])
print(f'Inverse of A:\n{np.linalg.inv(A)}')
Inverse of A:
[[ 0.5 0.5]
[-0.5 0.5]]
Observe en qué se diferencian las dos transformaciones en las ilustraciones siguientes.
A primera vista, no es obvio que una transformación revierta los efectos de la otra.
Sin embargo, en estas tramas, es posible que notes una historia fascinante y de gran alcance. conexión entre la transformación y su inversa.
Mire de cerca la primera ilustración, que muestra el efecto de la transformación. A sobre los vectores base. Los vectores unitarios originales se representan de forma semitransparente, mientras que sus homólogos transformados, resultantes de la multiplicación por matriz Aestán dibujados de forma clara y sólida. Ahora, imagina que estos vectores recién dibujados son los vectores base que usas para describir el espacio y percibes el espacio original desde su perspectiva. Entonces, los vectores base originales aparecerán más pequeños y, en segundo lugar, estarán orientados hacia el este. Y esto es exactamente lo que muestra la segunda ilustración, que demuestra el efecto de la transformación. A⁻¹.
Esta es una vista previa de un próximo tema que cubriré en el próximo artículo sobre Usar matrices para representar diferentes perspectivas sobre los datos..
Todo esto suena genial, pero hay un problema: algunas transformaciones no se pueden revertir.
El caballo de batalla del próximo experimento será la matriz con unos en la diagonal y b en la antidiagonal:
dónde b es una fracción en el intervalo (0, 1). Esta matriz es, por definición, simétrica, ya que resulta ser idéntica a su propia transpuesta: A=Aᵀ, pero solo menciono esto por cierto; No es particularmente relevante aquí.
Invierta esta matriz usando el método de Gauss-Jordan y obtendrá lo siguiente:
Puedes encontrar fácilmente en línea las reglas para calcular el determinante de matrices 2×2, que te darán
Esto no es una coincidencia. En general, se sostiene que
Note que cuando b = 0, las dos matrices son idénticas. Esto no es ninguna sorpresa, ya que A se reduce a la matriz identidad I.
Las cosas se ponen complicadas cuando b = 1, como det(A) = 0 y det(A⁻¹) se vuelve infinito. Como resultado, A⁻¹ no existe para una matriz A compuesto enteramente por 1s. En las clases de álgebra, los profesores suelen advertir sobre el determinante cero. Sin embargo, cuando consideramos de dónde viene la matriz, se hace evidente que también puede ocurrir un determinante infinito, lo que resulta en un error fatal. De todos modos,
un determinante cero significa que la transformación no es vertible.