El álgebra lineal es la rama de las matemáticas que estudia conceptos tales como vectores, matrices, sistemas de ecuaciones lineales y en un enfoque más formal, espacios vectoriales, y sus transformaciones lineales.
Es un área activa que tiene conexiones con muchas áreas dentro y fuera de las matemáticas como análisis funcional, ecuaciones diferenciales, investigación de operaciones, gráficas por computadora, ingeniería, etc.
La historia del álgebra lineal moderna se remonta a los años de 1843 cuando William Rowan Hamilton (de quien proviene el uso del término vector) creó los cuaterniones; y de 1844 cuando Hermann Grassmann publicó su libro Die lineare Ausdehnungslehre (La teoría lineal de extensión).
El álgebra lineal tiene sus orígenes en el estudio de vectores en el 2º. y 3er. cuadrantes del plano cartesiano. Un vector, aquí, es un segmento de línea orientado, caracterizado por ambas longitudes y magnitudes, así como dirección. Los vectores pueden ser entonces utilizados para representar ciertas magnitudes físicas como fuerzas y pueden ser añadidas (sumadas) y multiplicadas como magnitudes escalares, entonces formando el primer ejemplo real de espacio vectorial.
Puesto que los vectores, como n-múltiplo, son considerados listas ordenadas de n componentes, la mayor parte de la gente puede resumir y manipular información eficientemente en esta estructura. Por ejemplo, en economía, uno puede crear y usar, vectores octo-dimensionales ú óctuples para representar el Producto Interno Bruto para ocho diferentes países. Uno puede simplemente mostrar el Producto Interno Bruto en un año en particular, en donde se especifica el orden que se desea, por ejemplo, (Estados Unidos, Reino Unido, Francia, Alemania, España, India, Japón, Australia), utilizando un vector (v1, v2, v3, v4, v5, v6, v7, v8) en donde el PIB de cada país está en su respectiva posición.
Un espacio vectorial (o espacio lineal), como concepto puramente abstracto en el que podemos probar teoremas, y bien podemos integrar todo esto en un campo. Algunos ejemplos contundentes en este grupo son la inversión lineal de aplicaciones o matrices, y el anillo de aplicaciones lineales de un espacio vectorial. El álgebra lineal también juega un rol importante en el cálculo, notablemente, en la descripción de derivadas de alto grado, en el análisis vectorial y en el estudio de los productos de tensores.
MATRICES:
Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester .El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853 En 1858, A. Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.
Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Además de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometría, estadística, economía, informática, física, etc...
Sea el sistema de ecuaciones lineales:
La utilización de matrices (arrays) constituye actualmente una parte esencial en los lenguajes de programación, ya que la mayoría de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas: hojas de cálculo, bases de datos,...
a11x1 + ... + a1nxn = b1
a21x1 + ... + a2nxn = b2
......................................
am1x1 + ... + amnxn = bm
Los coeficientes de este sistema se pueden escribir de esta forma:
Un conjunto de N números dispuestos en n filas y m columnas, tal que n × m = N es un matriz.
Una matriz se suele representar por una letra mayúscula y los elementos de dicha matriz se representan por la correspondiente letra minúscula con dos subíndices que indican la fila y columna.
Ejemplos
La matriz A y el elemento a12 (elemento de la fila 1, columna 2).
MATRIZ DE 3 X 4:
El primer número nos indica el número de filas que tiene la matriz. El segundo indica la cantidad de columnas que tiene la matriz.
Ejemplo:
imagen matriz de 3 x 4
Si la matriz es A las posiciones de cada número son aij, i es la fila y j es la columna donde se encuentra posicionado el número en la matriz A.
Si la matriz es B las posiciones de cada número son bij, i es la fila y j es la columna donde se encuentra posicionado el número en la matriz B.
Ejemplos:
MATRICES IGUALES
iguales, sí y solo si, tienen en los mismo lugares
elementos iguales, es decir" :
CLASES DE MATRICES
Según su forma, sus elementos,... las matrices reciben nombres diferentes :
MATRIZ FILA
Aquella matriz que tiene una sola fila, siendo su orden 1×n
MATRIZ COLUMNA
Aquella matriz que tiene una sola columna, siendo su orden m×1
MATRIZ RECTANGULAR
Aquella matriz que tiene distinto número de filas que de columnas, siendo su orden m×n ,
MATRIZ
TRASPUESTA
MATRIZ
OPUESTA
La matriz opuesta de una dada es la que resulta de sustituir cada elemento por su opuesto. La opuesta de A es -A.
MATRIZ
NULA
Si todos sus elementos son cero. También se denomina matriz cero y se denota por 0m×n
MATRIZ
CUADRADA
Aquella matriz que tiene igual número de filas que de columnas, m = n, diciéndose que la matriz es de orden n.
Diagonal secundaria : son los elementos aijcon i+j = n+1
Traza de una matriz cuadrada : es la suma de los elementos de la diagonal principal trA.
MATRIZ
SIMÉTRICA
Es una matriz cuadrada que es igual a su traspuesta.
A = At , aij = aji Si "formula matriz cuadrada"
Es una matriz cuadrada que es igual a la opuesta de su traspuesta.
A = -At , aij= -aji Necesariamente aii = 0 MATRIZ
DIAGONAL
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal principal
MATRIZ
ESCALAR
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal principal que son iguales
MATRIZ
IDENTIDAD
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal principal que son iguales a 1. También se denomina matriz unidad.
MATRIZ
TRIANGULAR
Es una matriz cuadrada que tiene todos los elementos por encima (por debajo) de la diagonal principal nulos.
MATRIZ
ORTOGONAL
Una matriz ortogonal es necesariamente cuadrada e invertible: A-1 = AT
La inversa de una matriz ortogonal es una matriz ortogonal. El producto de dos matrices ortogonales es una matriz ortogonal. El determinante de una matriz ortogonal vale +1 ó -1.MATRIZ
INVERSA
Decimos que una matriz cuadrada A tiene inversa, A-1, si se verifica que :
A·A-1 = A-1·A = IMATRIZ
COMPLEJA
3+2i i 5i −4+3i −2i 3 +6i −2+i 3+6i −4i |
MATRIZ
CONJUGADA
A = [4 3+2j; −3–3j 4+4j] 4 3+ 2i -3- 3i 4+ 4i AC = conj.(A) 4 3- 2i -3+ 3i 4- 4i |
Sea A una matriz rectangular o cuadrada compleja. Si se forma otra matriz tomando los complejos de cada elemento de A se obtiene la matriz conjugada de A.
MATRIZ
HERMITICA
Una matriz que es igual a su transpuesta conjugada; en el caso de ser de elementos reales, una matriz hermética es sinónima de simétrica.
RESOLUCION DE EJERCICIOS SOBRE MATRICES
Matriz hermiticaRESOLUCION DE EJERCICIOS SOBRE MATRICES
Ahora realizaremos la aplicación de derive en las diferentes operaciones. Enunciamos cada una de las matrices como a:=(2,5,6;0,3,1;9,4,1) y damos click en enter para que aparezca la matriz así sucesivamente con la matriz b como se ilustra a continuación. b:=(1,2,3;8,3,4;6,2,0)
Ahora realizaremos la operación suma en el icono correspondiente y pulsamos enter; después le damos simplificar, el programa te arroja el resultado.
Así mismo realizaremos las operacion de sustracción; para ello escribimos las matrices y su operación en su icono respectivo para calcular el resultado.
No hay comentarios:
Publicar un comentario