Algebra Lineal VFC

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 495

UNIVERSIDAD AUTÓNOMA

METROPOLITANA
Dr. José Antonio De los Reyes
Heredia
Rector General

Dra. Norma Rondero López


Secretaria General

Mtro. Octavio Mercado González


Rector de la Unidad Cuajimalpa

Dr. Gerardo Francisco Kloss


Fernández del Castillo
Secretario de la Unidad

Dra. Ma. Dayanira I. García Toledo


Coordinadora de Cultura

Lic. Gabriela E. Lara Torres


Jefa del Proyecto Editorial

Esta obra es una de las ganadoras de la “Convocatoria para libros de texto como
apoyo en la impartición de los programas de estudios”, 2023. Fue evaluada para su
publicación por el Consejo Editorial de la UAM Unidad Cuajimalpa, con base en los
dictámenes solicitados a pares académicos mediante un esquema que preserva el
anonimato mutuo. Estos dictámenes resultaron favorables.
Diseño de portada: Aldo Juárez Herrera

D. R. © 2024, de la primera edición:


Universidad Autónoma Metropolitana
Unidad Cuajimalpa
Av. Vasco de Quiroga 4871, col. Santa Fe Cuajimalpa
Alcaldía Cuajimalpa de Morelos
C.P. 05348, Ciudad de México

www.cua.uam.mx

ISBN: 978-607-28-3141-4
ISBN: 978-607-28-3020-2 (Colección)

Se prohíbe la reproducción total o parcial de esta obra, sea cual fuere el medio, elec-
trónico o mecánico, sin el consentimiento por escrito de los titulares de los derechos.
UNIVERSIDAD AUTÓNOMA METROPOLITANA
UNIDAD CUAJIMALPA

DEPARTAMENTO DE MATEMÁTICAS APLICADAS


Y SISTEMAS

Álgebra Lineal,
con Ejercicios en Python,
Aplicaciones y Notas Históricas.

JUAN MANUEL ROMERO SANPEDRO


[email protected]

1
Índice general

1. Espacios vectoriales 15
1.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1. Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.2. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.4. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Unicidad del neutro aditivo . . . . . . . . . . . . . . . . . . . . 18
1.4. Unicidad del inverso aditivo . . . . . . . . . . . . . . . . . . . . 19
1.5. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 21
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2. Subespacios vectoriales 24
2.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1. Ejemplos de subespacios vectoriales . . . . . . . . . . . . 25
2.2. Intersección de espacios vectoriales . . . . . . . . . . . . . . . . 26
2.3. Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . 26
2.4. Espacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . 28
2.6. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.7. Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3. Producto de matrices y sus propiedades 33
3.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Convención de Einstein . . . . . . . . . . . . . . . . . . . . . . . 34
3.3. Matriz identidad . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4. Inversa de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5. Transpuesta de matrices . . . . . . . . . . . . . . . . . . . . . . 40
3.5.1. Transpuesta de un producto de matrices . . . . . . . . . 41

2
3.5.2. Inversa de la matriz transpuesta . . . . . . . . . . . . . . 42
3.6. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 43
3.7. Matriz diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.8. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 49
3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4. Determinante de una matriz 52
4.1. Inversa de una matriz de 2 × 2 . . . . . . . . . . . . . . . . . . . 52
4.2. Tensor de Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3. Propiedades del tensor de Levi-Civita . . . . . . . . . . . . . . . 57
4.3.1. Intercambio de dos índices . . . . . . . . . . . . . . . . . 57
4.3.2. Índices iguales . . . . . . . . . . . . . . . . . . . . . . . 58
4.3.3. Suma de permutaciones . . . . . . . . . . . . . . . . . . 58
4.4. Denición general del determinante . . . . . . . . . . . . . . . . 59
4.5. Propiedades del determinante . . . . . . . . . . . . . . . . . . . 60
4.5.1. Suma de dos renglones . . . . . . . . . . . . . . . . . . . 60
4.5.2. Escalar por un renglón . . . . . . . . . . . . . . . . . . . 62
4.5.3. Escalar por una matriz . . . . . . . . . . . . . . . . . . 63
4.5.4. Combinación lineal en un regón . . . . . . . . . . . . . . 64
4.5.5. Renglones como vectores . . . . . . . . . . . . . . . . . . 66
4.5.6. Renglones linealmente dependientes . . . . . . . . . . . . 68
4.6. Versión alternativa del determinante . . . . . . . . . . . . . . . 71
4.7. Determinante de la transpuesta de una matriz . . . . . . . . . . 74
4.7.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.8. Determinante de un producto de matrices . . . . . . . . . . . . 76
4.8.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.9. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 80
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5. Matriz adjunta e inversa de una matriz 82
5.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2. Matriz de 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.3. Matriz de 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.4. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 87
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6. Sistema de ecuaciones lineales de n × n, método de Cramer 89
6.1. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.2. Caso 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.3. Caso 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4. Ejemplo concreto . . . . . . . . . . . . . . . . . . . . . . . . . . 92

3
6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7. Sistema de ecuaciones lineales de n × n, método de Gauss-
Jordan 94
7.1. Ecuación de una variable . . . . . . . . . . . . . . . . . . . . . . 94
7.2. Sistemas ecuaciones lineales de 2 × 2 . . . . . . . . . . . . . . . 95
7.2.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.3. Sistemas ecuaciones lineales de 3 × 3 . . . . . . . . . . . . . . . 97
7.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.5. Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . 101
7.6. Ejercicios con Python . . . . . . . . . . . . . . . . . . . . . . . . 103
7.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8. Método de Gauss-Jordan usando matrices 105
8.1. Caso 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.2.1. Sistema 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . 107
8.2.2. Sistema 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . 108
8.3. Notación de matriz similar . . . . . . . . . . . . . . . . . . . . . 110
8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9. Método de Gauss-Jordan y la inversa de una matriz 112
9.1. Caso 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
9.2. Ejemplo de 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 114
9.3. Ejemplo de 4 × 4 . . . . . . . . . . . . . . . . . . . . . . . . . . 115
9.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.Sistemas de ecuaciones lineales de n × m 119
10.1. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
10.2. Propiedades de las soluciones . . . . . . . . . . . . . . . . . . . 124
10.3. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 126
10.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
10.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
11.Matriz de cambio de base 129
11.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
11.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

4
12.Transformaciones lineales 134
12.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
12.2. Transformaciones lineales en Rn . . . . . . . . . . . . . . . . . . 135
12.3. Transformaciones entre funciones . . . . . . . . . . . . . . . . . 137
12.3.1. Derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
12.3.2. Producto por una función ja . . . . . . . . . . . . . . . 137
12.3.3. Transformadas integrales . . . . . . . . . . . . . . . . . 138
12.4. Núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
12.4.1. Núcleo y funciones inyectivas . . . . . . . . . . . . . . . 140
12.4.2. Núcleo e independencia lineal . . . . . . . . . . . . . . . 141
12.5. Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
12.5.1. Imagen como subespacio del contradominio . . . . . . . . 142
12.5.2. Imagen y subespacios en el dominio . . . . . . . . . . . . 143
12.6. Imagen inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.6.1. Imagen inversa como subespacio vectorial del dominio . . 144
12.6.2. Imagen inversa e independecia lineal . . . . . . . . . . . 145
12.7. Teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . 146
12.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
13.Combinación lineal y composición de transformaciones linea-
les 151
13.1. Combinación lineal . . . . . . . . . . . . . . . . . . . . . . . . . 151
13.2. Composición de funciones lineales . . . . . . . . . . . . . . . . . 152
13.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
13.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
14.Matriz asociada a una transformación lineal 154
14.1. Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
14.3. Matriz asociada a composición de funciones lineales . . . . . . . 156
14.4. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
14.5. Cambio de base y matriz asociada . . . . . . . . . . . . . . . . . 161
14.6. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
14.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
15.Producto escalar 165
15.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.2. Ejemplos de producto escalar . . . . . . . . . . . . . . . . . . . 166
15.2.1. Producto escalar en Cn . . . . . . . . . . . . . . . . . . . 166
15.2.2. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 169
15.2.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

5
15.2.4. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . 172
15.3. Vectores ortogonales . . . . . . . . . . . . . . . . . . . . . . . . 172
15.4. Vectores normales o unitarios . . . . . . . . . . . . . . . . . . . 174
15.5. Ortonormalidad e independencia lineal . . . . . . . . . . . . . . 176
15.6. Ejemplos de conjuntos de vectores ortonormales . . . . . . . . . 178
15.6.1. Exponencial compleja . . . . . . . . . . . . . . . . . . . . 178
15.6.2. Funciones trigonométricas . . . . . . . . . . . . . . . . . 179
15.6.3. Matrices de Dirac . . . . . . . . . . . . . . . . . . . . . . 182
15.7. Teorema de Pitágoras . . . . . . . . . . . . . . . . . . . . . . . . 183
15.7.1. Desigualdad de Bessel . . . . . . . . . . . . . . . . . . . 185
15.7.2. Desigualdad de Schwarz . . . . . . . . . . . . . . . . . . 186
15.7.3. Desigualdad del triángulo . . . . . . . . . . . . . . . . . 187
15.7.4. Igualdad del paralelogramo . . . . . . . . . . . . . . . . . 187
15.8. Espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . 188
15.8.1. Espacios métricos . . . . . . . . . . . . . . . . . . . . . . 189
15.9. Polinomios trigonométricos . . . . . . . . . . . . . . . . . . . . . 191
15.10.Espacios completos . . . . . . . . . . . . . . . . . . . . . . . . . 194
15.11.Proceso de ornormalización de Gram-Schmidt . . . . . . . . . . 196
15.11.1.Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
15.12.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
16.Valores y vectores propios 205
16.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
16.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
16.3. Vectores propios e independencia lineal . . . . . . . . . . . . . . 207
16.4. Matriz diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
16.5. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 212
16.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
17.Matrices similares 214
17.1. Relación de equivalencia . . . . . . . . . . . . . . . . . . . . . . 214
17.2. Equivalencia entre matrices . . . . . . . . . . . . . . . . . . . . 216
17.3. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
17.4. Polinomios y funciones . . . . . . . . . . . . . . . . . . . . . . . 219
17.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
18.Exponencial de una matriz 223
18.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.2. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
18.3. Matrices de rotación . . . . . . . . . . . . . . . . . . . . . . . . 226
18.4. Matrices de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . 229

6
18.5. Exponencial de una matriz diagonal . . . . . . . . . . . . . . . . 231
18.6. Exponencial de matrices similares . . . . . . . . . . . . . . . . . 233
18.6.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
18.7. Inversa de exponencial de una matriz . . . . . . . . . . . . . . . 236
18.8. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 237
18.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
19.Sistema de ecuaciones diferenciales lineales de primer orden
con coecientes constantes 238
19.1. Sistema de ecuaciones diferenciales . . . . . . . . . . . . . . . 238
19.1.1. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 240
19.2. Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
19.3. Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
19.4. Sistema de osciladores acoplados . . . . . . . . . . . . . . . . . . 245
19.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
20.Relación entre el determinante y la traza de una matriz 250
20.1. Relación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
20.2. Determinante de la exponencial de una matriz . . . . . . . . . . 251
20.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
21.Operador adjunto 253
21.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
21.1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
21.1.2. Derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
21.1.3. Derivada con peso . . . . . . . . . . . . . . . . . . . . . 255
21.1.4. Propiedades del operador adjunto . . . . . . . . . . . . . 256
21.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
22.Operadores hermíticos 258
22.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
22.2. Valores propios de operadores hermíticos . . . . . . . . . . . . . 259
22.3. Ortogonalidad de vectores propios de matrices hermíticas . . . . 260
22.4. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
22.5. Ejemplo con matriz simétrica . . . . . . . . . . . . . . . . . . . 262
22.5.1. Parámetros libres . . . . . . . . . . . . . . . . . . . . . 263
22.6. Matrices de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . 265
22.7. Matrices de Gell-Mann . . . . . . . . . . . . . . . . . . . . . . 267
22.8. Operadores con valores propios positivos . . . . . . . . . . . . . 270
22.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272

7
23.Matrices antihermíticas 273
23.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
23.2. Ejemplo, las matrices de Dirac . . . . . . . . . . . . . . . . . . . 274
23.3. Espectro de operadores antihermíticos . . . . . . . . . . . . . . 274
23.3.1. Parámetros libres . . . . . . . . . . . . . . . . . . . . . 276
23.3.2. Descomposición en operadores hermíticos y antihermíticos277
23.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
24.Matrices ortogonales 279
24.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
24.2. Grupo ortogonal O(n) y grupo SO(n) . . . . . . . . . . . . . . 280
24.3. Determinantes de una matriz ortogonal . . . . . . . . . . . . . . 282
24.4. Parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
24.5. Matriz antisimétrica y matrices ortogonales . . . . . . . . . . . . 285
24.5.1. Matrices de SO(2) . . . . . . . . . . . . . . . . . . . . . 286
24.5.2. Matrices ortogonales de SO(3) . . . . . . . . . . . . . . . 286
24.6. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
24.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
25.Matrices unitarias 290
25.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
25.2. Grupos unitarios U (n) y SU (n) . . . . . . . . . . . . . . . . . . 290
25.3. Parámetros libres . . . . . . . . . . . . . . . . . . . . . . . . . . 292
25.4. Matrices hermíticas y matrices unitarias . . . . . . . . . . . . . 294
25.5. U (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
25.6. Matrices de U (2) y SU (2) . . . . . . . . . . . . . . . . . . . . . 295
25.7. SU (3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
25.8. Matrices antihermíticas y matrices unitarias . . . . . . . . . . . 298
25.9. Matrices unitarias y mecánica cuántica . . . . . . . . . . . . . . 298
25.10.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
26.Integrales Gaussianas 300
26.1. Integrales Gaussianas . . . . . . . . . . . . . . . . . . . . . . . 300
26.1.1. Caso general 2d . . . . . . . . . . . . . . . . . . . . . . . 302
26.2. Integrales Gaussianas 2 . . . . . . . . . . . . . . . . . . . . . . . 304
26.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
27.Transformada discreta de Fourier y la matriz de Fourier 308
27.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
27.2. Matriz de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 310
27.3. La inversa de la matriz de Fourier . . . . . . . . . . . . . . . . . 311

8
27.4. Denición alterna . . . . . . . . . . . . . . . . . . . . . . . . . . 315
27.5. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 315
28.Polinomio característico 317
28.1. Denición y propiedades . . . . . . . . . . . . . . . . . . . . . . 317
28.2. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 320
28.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
29.Espacios invariantes y bloques de Jordan 324
29.1. Espacio invariantes . . . . . . . . . . . . . . . . . . . . . . . . . 324
29.2. Valores propios repetidos . . . . . . . . . . . . . . . . . . . . . . 329
29.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
29.4. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 340
29.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
30.Espacio dual 342
30.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
30.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
30.2.1. Caso Cn . . . . . . . . . . . . . . . . . . . . . . . . . . 342
30.2.2. Caso (Mn×n (C))∗ . . . . . . . . . . . . . . . . . . . . . 343
30.3. Producto escalar y espacio dual . . . . . . . . . . . . . . . . . . 344
30.3.1. Ejemplo R3 . . . . . . . . . . . . . . . . . . . . . . . . 344
30.3.2. Ejemplo Mnn (C) . . . . . . . . . . . . . . . . . . . . . 345
30.3.3. Ejemplo en el espacio de las funciones . . . . . . . . . . 345
30.4. Base del espacio dual V ∗ . . . . . . . . . . . . . . . . . . . . . . 345
30.5. Cambio de base en el espacio dual . . . . . . . . . . . . . . . . . 349
30.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
30.6.1. Ejemplo en R3 . . . . . . . . . . . . . . . . . . . . . . . 350
30.6.2. Ejemplo en el espacio de las matrices M2×2 (R) . . . . . 352
30.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
31.Funciones bilineales 354
31.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
31.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
31.2.1. Ejemplo en C × C . . . . . . . . . . . . . . . . . . . . . 355
31.2.2. Ejemplo en Rm × Rn . . . . . . . . . . . . . . . . . . . . 356
31.2.3. Ejemplo con matrices . . . . . . . . . . . . . . . . . . . . 357
31.2.4. Ejemplo con funciones . . . . . . . . . . . . . . . . . . . 357
31.3. Funciones bilineales actuando en una base . . . . . . . . . . . . 358
31.3.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
31.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361

9
32.Formas bilineales 363
32.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
32.1.1. Ejemplo en Cn × Cm . . . . . . . . . . . . . . . . . . . . 363
32.1.2. Ejemplo con matrices . . . . . . . . . . . . . . . . . . . . 364
32.1.3. Ejemplo con funciones . . . . . . . . . . . . . . . . . . . 364
32.2. Matriz asociada . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
32.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.3.1. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.3.2. Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 368
32.4. Espacio dual y formas bilineales . . . . . . . . . . . . . . . . . . 368
32.5. Base de las Formas Bilineales . . . . . . . . . . . . . . . . . . . 369
32.5.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
32.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
33.Formas cuadráticas 375
33.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
33.2. Matriz asociada . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
33.3. Transformaciones invariantes . . . . . . . . . . . . . . . . . . . . 377
33.4. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
33.5. Pseudodistancia . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
33.6. Espacio de anti de Sitter . . . . . . . . . . . . . . . . . . . . . . 385
34.Funciones multilineales y tensores 387
34.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
34.2. Funciones multilineales actuando en una base . . . . . . . . . . 388
34.3. Formas multilineales . . . . . . . . . . . . . . . . . . . . . . . . 390
34.4. Base de las formas bilineales . . . . . . . . . . . . . . . . . . . . 391
34.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
35.Funciones alternantes, producto exterior y derivada exterior 396
35.1. Funciones bilineales alternantes . . . . . . . . . . . . . . . . . . 396
35.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
35.3. Función alternante actuando en una base . . . . . . . . . . . . 398
35.4. Dimensión de funciones bilineales alternantes . . . . . . . . . . . 400
35.4.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
35.4.2. Caso de dimensión 2 . . . . . . . . . . . . . . . . . . . . 401
35.4.3. Caso de dimensión 3 . . . . . . . . . . . . . . . . . . . . 402
35.5. Producto exterior . . . . . . . . . . . . . . . . . . . . . . . . . . 403
35.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
35.6.1. Caso de dimensión 2 . . . . . . . . . . . . . . . . . . . . 404
35.6.2. Caso de dimensión 3 . . . . . . . . . . . . . . . . . . . . 405

10
35.7. Funciones multilineales alternantes . . . . . . . . . . . . . . . . 406
35.8. Caso de dimensión 3 . . . . . . . . . . . . . . . . . . . . . . . . 409
35.9. Caso de dimensión n . . . . . . . . . . . . . . . . . . . . . . . . 412
35.10.Derivada exterior . . . . . . . . . . . . . . . . . . . . . . . . . . 414
35.11.Caso n = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
36.Producto tensorial 419
36.1. Producto tensorial de dos espacios vectoriales . . . . . . . . . . 419
36.2. Caso de R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
36.2.1. Producto de Kronecker . . . . . . . . . . . . . . . . . . . 424
36.2.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
36.3. Producto de polinomios con el método Maya . . . . . . . . . . . 436
36.3.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
36.4. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
36.5. Tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444
37.Compuertas clásicas y cuánticas 448
37.1. Compuerta NOT . . . . . . . . . . . . . . . . . . . . . . . . . . 448
37.2. Compuerta OR . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
37.3. Compuerta AND . . . . . . . . . . . . . . . . . . . . . . . . . . 451
37.4. Compuerta NAND . . . . . . . . . . . . . . . . . . . . . . . . . 452
37.5. Compuertas paralelas . . . . . . . . . . . . . . . . . . . . . . . . 453
37.6. Leyes de De Morgan . . . . . . . . . . . . . . . . . . . . . . . . 456
37.7. Notación binomial y bits . . . . . . . . . . . . . . . . . . . . . . 458
37.8. Qubits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
37.9. Compuertas cuánticas . . . . . . . . . . . . . . . . . . . . . . . 461
37.10.Compuertas con control o controladas . . . . . . . . . . . . . . . 462
37.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
38.Transformada cuántica de Fourier 465
38.1. Expansión binaria . . . . . . . . . . . . . . . . . . . . . . . . . . 465
38.1.1. Notación binaria fraccionaria . . . . . . . . . . . . . . . 467
38.2. Estados con notación binaria . . . . . . . . . . . . . . . . . . . . 468
38.3. Transformada cuántica de Fourier . . . . . . . . . . . . . . . . . 470
38.3.1. Un qubit . . . . . . . . . . . . . . . . . . . . . . . . . . . 472
38.3.2. Dos qubits . . . . . . . . . . . . . . . . . . . . . . . . . . 473
38.3.3. Tres qubits . . . . . . . . . . . . . . . . . . . . . . . . . 476
38.4. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484
38.5. La inversa de la matriz de Fourier . . . . . . . . . . . . . . . . . 485

11
Dedicatoria
Antes de la llegada de los españoles al territorio que hoy llamamos México,
existían diversas culturas que desarrollaron áreas de las matemáticas como la
geometría, el álgebra, la teoría de números, etc. Mucho de ese desarrollo se
perdió durante la conquista y el período colonial. En la historia de México,
los pueblos indígenas han sido carne de cañón de diferentes luchas como la
independencia, la intervención norteamericana, la intervención francesa y la
revolución. Si México es independiente de las potencias extrajeras es en gran
medida gracias a que los pueblos indígenas metieron las manos al fuego por la
libertad de este país. No obstante, en la actualidad los indígenas son la clase
más discriminada de México. Así, desde hace varios siglos la gran preocupa-
ción de los indígenas se centra en sobrevivir y evitar su desaparición, más que
regresar su mirada al desarollo de las ciencias y las matemáticas.

Este libro está dedicado a los pueblos indígenas de México.

12
Prólogo
La humanidad ha estado interesada en los temas que aborda el álgebra
lineal desde tiempos lejanos. Por ejemplo, uno de los problemas fundamentales
de esta disciplina es resolver sistemas de ecuaciones lineales y, notablemen-
te, desde hace más de dos mil años los babilonios sabían resolver sistemas de
dos ecuaciones lineales con dos incógnitas. De hecho, el llamado método de
Gauss-Jordan que se usa para resolver sistemas de m ecuaciones lineales con
n incógnitas ya era conocido por los chinos al menos 200 años antes de la era
de cristiana.

En la actualidad, gracias a las aportaciones de diferentes matemáticos, fí-


sicos, ingenieros, astrónomos, etc., el álgebra lineal es una de las áreas de las
matemáticas más elegantes en cuanto a su estructura, sus teoremas y demos-
traciones. Además, nos abre las puertas a otras áreas de las matemáticas como
la teoría de grupos, las ecuaciones diferenciales, la geometría diferencia, etcl.

Asimismo el álgebra lineal no solo es un cúmulo de teoremas y demos-


traciones elegantes, también tiene una amplia gama de aplicaciones en áreas
como la mecánica cuántica, probabilidad, nanzas, economía, cálculo, física de
partículas, ecuaciones diferenciales, inteligencia articial, etc. Por ejemplo, el
surgimiento de la mecánica cuántica no hubiera sido posible sin la existencia
previa de los resultados fundamentales del álgebra lineal.

Por estas razones, para estudiantes de matemática puras y aplicadas, de


física y de diversas ingenerías, es importantes entender y dominar los aspectos
puros y aplicados del álgebra lineal.

El objetivo de este libro es introducir al estudiante en el álgebra lineal y sus


diversas aplicaciones. En el escrito se encuentra la justicación de los resulta-
dos fundamentales del álgebra lineal, se realizan varios ejercicios para mostrar
cómo se usa esta disciplina, se muestran diversas aplicaciones y se explica cómo
emplear código de Python para resover diferentes problemas.

13
El material de este libro ha sido utilizado en cursos de Álgebra Lineal I y
II para estudiantes de las carreras de Matemáticas Aplicadas e Ingeniería en
Computación de la Universidad Autónoma Metropolitana-Unidad Cuajimal-
pa. Normalmente los alumnos muestran más interés en las aplicaciones. No
obstante, en el texto se buscó fundamentar los resultados más importantes del
álgebra lineal para que los alumnos obtengan bases sólidas y al mismo tiem-
po sean capaces de aplicar los conocimientos adquiridos. Además, se trató de
incluir una nota histórica sobre las personas que realizaron aportaciones a los
temas estudiados en cada capítulo. Con la idea de no saturar a los estudiantes
con muchos temas en pocos capítulos, el texto se divide en varios capítulos con
pocos temas.

El autor es originario del pueblo Hñahñu del Valle del Mezquital del Estado
de Hidalgo. Los antepasadso de este pueblo habitaron el territorio de México
varios milenios antes de la era cristiana. En español, al pueblo Hñahñu se le
llama Otomí, que es una variante de la palabra náhuatl otómitl, que signica
quien camina con echas o echador de pájaros. Es doctor en Física por la
Universidad Nacional Autónoma de México y Profesor de Tiempo Completo
de la Universidad Autónoma Metropolitana Unidad Cuajimalpa. Ha realizado
investigación en temas como Altas Energías, Biofísica y Finanzas Cuánticas.
Sobre estos temas ha publicado diversos artículos en revistas internacionales.
Ha sio miembro del Sistema Nacional de Investigadores con Nivel II de México.

14
Capítulo 1
Espacios vectoriales
En este capítulo daremos la denición de espacio vectorial y veremos algu-
nas de sus implicaciones.

1.1. Denición
Un espacio vectorial se dene con un conjunto V, un campo K y dos
operaciones
+ : V × V → V,
µ : K × V → V.

Esta operaciones deben cumplir que si u, v pertenecen a V, entonces u + v


pertenece a V y si α pertenece a K, entonces µ(α, v) = α · v pertenece a V.
Además, se debe cumplir
1) ∀u, v ∈ V, u + v = v + u, (1.1)
2) ∀u, v, w ∈ V, (u + v) + w = u + (v + w), (1.2)
3) ∀u, v ∈ V, ∀α, ∈ K, α · (u + v) = α · u + α · v, (1.3)
4) ∀v ∈ V, ∀α, β ∈ K, (α + β) · v = α · v + β · v, (1.4)
5) ∀v ∈ V, ∀α, β ∈ K, (αβ) · v = α · (β · v), (1.5)
6) ∃ 0 ∈ V tal que ∀v ∈ V, 0 + v = v, (1.6)
7) ∀v ∈ V, ∃ − v ∈ V, tal que v + (−v) = 0, (1.7)
8) ∀v ∈ V, e · v = v, (1.8)

15
aquí e representa el neutro multiplicativo de K.

1.2. Ejemplos
Ahora, veremos algunos ejemplos de espacios vectoriales. El lector puede
vericar que los siguientes espacios cumplen las reglas de espacios vectoriales.

1.2.1. Cn
Supongamos que C es el conjunto de los números complejos. Un ejemplo
de espacio vectorial son los arreglos de la forma
Cn = {(c1 , c2 , · · · , cn ), ci ∈ C}.
Si se tienen dos vectores de Cn ,
(c1 , c2 , · · · , cn ), (d1 , d2 , · · · , dn )
la suma se dene como
(c1 + d1 , c2 + d2 , · · · , cn + dn ).
Mientras que si λ es un número complejo, el producto por un escalar se dene
como
λ(c1 , c2 , · · · , cn ) = (λc1 , λc2 , · · · , λcn ).

1.2.2. Sucesiones
Una generalización de Cn es tomar el límite n → ∞, que nos da el espacio
de sucesiones
{an }∞
n=0 , an ∈ C.
Así, si se tienen dos sucesiones
{an }∞
n=0 , {bn }∞
n=0 , an , bn ∈ C
la suma se dene como
{an + bn }∞
n=0 .

Mientras que si λ es un número complejo, el producto por un escalar se dene


como
λ{an }∞ ∞
n=0 = {λan }n=0 .

16
1.2.3. Matrices
Otra generalización de Cn es el espacio de matrices Mnm de entradas com-
plejas
 
M11 M12 · · · M1m
 M21 M22 · · · M2m 
M = .. .. . . .. , Mij ∈ C, i = 1, · · · , n, j = 1, · · · , m.
 
 . . . . 
Mn1 Mn2 · · · Mnm

Si se tienen dos matrices


   
M11 M12 · · · M1m N11 M12 · · · N1m
 M21 M22 · · · M2m   N21 N22 · · · N2m 
M = .. .. . . .. , N = .. .. . . .. ,
   
 . . . .   . . . . 
Mn1 Mn2 · · · Mnm Nn1 Nn2 · · · Nnm

la suma se dene como


 
M11 + N11 M12 + N12 · · · M1m + N1m
 M21 + N21 M22 + N22 · · · M2m + N2m 
M +N = .. .. . . .. .
 
 . . . . 
Mn1 + Nn1 Mn2 + Nn2 · · · Mnm + Nnm

Mientras que el producto por un escalar, λ ∈ C, se dene como


 
λM11 λM12 · · · λM1m
 λM21 λM22 · · · λM2m 
λM =  .. .. . . .. .
 
 . . . . 
λMn1 λMn2 · · · λMnm

1.2.4. Funciones
Otro ejemplo de espacio vectorial es el espacio de funciones f : [a, b] → C,
donde a, b ∈ R, a < b. Supongamos que tenemos dos funciones

f : [a, b] → C, g : [a, b] → C,

17
la suma se dene como
f + g : [a, b] → C,

con la regla de correspondencia


(f + g) (x) = f (x) + g(x), x ∈ [a, b].

Mientras que el producto por un escalar, λ ∈ C, se dene como

λf : [a, b] → C,

con la regla de correspondencia


(λf ) (x) = λf (x), x ∈ [a, b].

1.3. Unicidad del neutro aditivo


Si V es un espacio vectorial existe un elemento 0 ∈ V tal que para todo
v ∈ V se cumple que
v + 0 = v. (1.9)
Supongamos que existe otro elemento 0′ ∈ V que tiene las mismas propiedades
que 0, es decir que para todo v ∈ V se cumple
v + 0′ = v. (1.10)
Por lo que si tomamos v = 0 en esta última ecuación se encuentra
0 + 0′ = 0.

Además, tomando v = 0′ en la ecuación (1.9) se llega a


0′ + 0 = 0′ .

Así, como
0′ + 0 = 0 + 0′ ,
concluimos que
0′ = 0.
Este resultado nos indica que en cualquier espacio vectorial solo existe un ele-
mento con las propiedades del neutro aditivo, es decir el neutro aditivo es único.

18
Otro resultado interesante sobre el neutro aditivo de un espacio vectorial
es que para todo v ∈ V se cumple
0 · v = 0. (1.11)
En efecto, note que para todo v ∈ V se cumple
v+0·v = 1·v+0·v
= (1 + 0) · v
= 1·v
= v,

esto es
v + 0 · v = v. (1.12)
Ahora, sumando en cada término de la expresión (1.12) el inverso aditivo −v
se encuentra
(−v) + v + 0 · v = v + (−v)

de donde
0 + 0 · v = 0,

esto es
0 · v = 0.

Que es lo que queríamos demostrar.

1.4. Unicidad del inverso aditivo


Si V es un espacio vectorial y v ∈ V, entonces existe un elemento −v ∈ V
tal que se cumple que
v + (−v) = 0. (1.13)

Supongamos que existe otros elemento v ′ ∈ V que tiene las mismas propiedades
que −v , es decir, que para todo v ∈ V, se cumple
v + v ′ = 0. (1.14)

19
Ahora, si en esta ecuación sumamos de ambos lados el vector −v se llega a
v + v ′ + (−v) = (−v) + 0,

entonces, usando la propiedad del neutro aditivo y la asociatividad de la suma


de vectores se llega a
−v = v + (−v) + v ′
= 0 + v′
= v′,

es decir,
−v = v ′ .
Por lo tanto, en cualquier espacio vectorial un vector tiene un único inverso
aditivo.

Una implicación de la unicidad del inverso aditivo de un vector un espacio


vectorial es que para todo v ∈ V se cumple

−1 · v = −v. (1.15)

En efecto, observe que para todo v ∈ V se cumple


v + (−1) · v = 1 · v + (−1) · v
= (1 + (−1)) · v
= 0·v
= 0,

esto es
v + (−1) · v = 0.
Como el inverso aditivo es único, al igualdad (1.15) es correcta.

La versión axiomática de los espacios vectoriales se deben a Giuseppe


Peano, quien se basó en los trabajos de Hermann Grassmann. Grasmman desa-
rrolló un espacio que llamó números hipercomplejos, que tiene las propiedades
de lo que hoy llamamos espacio vectorial. Vale la pena mencionar que William
R. Hamilton desarrolló una estructura matemática que llamó cuaterniones en
donde formuló la noción de vector, incluso en la actualidad se sigue usando su
notación de i, j, k para la base canónica del espacio tridimensional. Los axio-
mas de espacio vectorial se hicieron populares después de que en 1918 Hermann

20
Wey los retomó en su libro Space, time, matter, que es una introducción a la
relatividad general de Einsten.

Hermann Grassmann (1809-1877) fue un matemático, físico y lingüista ale-


mán. Realizó sus estudios universitarios en temas de Teología, Filosofía y Li-
teratura en la Universidad de Berlín. A pesar de no tener estudios en mate-
máticas o física, realizó investigaciones por su propia cuenta en esos temas.
Además de desarrollar los conceptos de los espacios vectoriales, fundamentó
lo que en la actualidad se llaman álgebras y números de Grassman, que son
empleados para describir partículas subatómicas. Su sueño profesional fue ser
profesor universitario de matemáticas, pero nunca lo logró. Sus trabajos en
lingüística le permitieron ser reconocido con un doctorado honoris causa por
la Universidad de Tübingen de Alemania.

1.5. Operaciones con Python


Si tenemos los vectores
a = (−1, 9, 5, 2), b = (1, 3, −1, 7)

y queremos realizar la suma de ellos, es decir


a + b,

se puede emplear el siguiente código en Python


1 import numpy as np
2 a = np . array ([ -1 ,9 ,5 ,2])
3 b = np . array ([1 ,3 , -1 ,7])
4 np . add (a , b )
Listing 1.1: Suma de vectores
que da como resultado
array([0,12,4,9])

21
Además, si tenemos los vectores
a = (−1, 9, 5, 2), b = (1, 3, −1, 7)

y queremos realizar la resta


a−b

se puede emplear el código de Python


1 import numpy as np
2 a = np . array ([1 ,0 ,6 ,9])
3 b = np . array ([ -1 ,3 ,4 ,7])
4 np . subtract (a , b )
Listing 1.2: Resta de vectores
que da el resultado
array([2,-3,2,2])
También se puede ver que si se quieren sumar las matrices
   
1 0 6 9 −1 3 4 7
−1 3 6 4  −2 2 1 5 
a=
 3 −1 6 3  ,
 b= 
 1 −2 3 1  (1.16)
1 5 6 −1 2 2 1 −2

se puede emplear el código de Python


1 import numpy as np
2 a = np . array ([[1 ,0 ,6 ,9] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,5 ,6 , -1]
3 ])
4 b = np . array ([[ -1 ,3 ,4 ,7] , [ -2 ,2 ,1 ,5] ,[1 , -2 ,3 ,1] ,[2 ,2 ,1 , -2]
5 ])
6 np . add (a , b )
Listing 1.3: Suma de matrices
que da como resultado
array([[0,3,10,16],
[-3,5,7,9],
[4,-3,9,4],
[3,7,7,-3]])
Para restar las matrices (1.16) se puede emplear el código de Python

22
1 import numpy as np
2 a = np . array ([[1 ,0 ,6 ,9] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,5 ,6 , -1]
3 ])
4 b = np . array ([[ -1 ,3 ,4 ,7] , [ -2 ,2 ,1 ,5] ,[1 , -2 ,3 ,1] ,[2 ,2 ,1 , -2]
5 ])
6 np . subtract (b , a )
Listing 1.4: Suma de matrices
que da el resultado
array([[-2,3,-2,-2],
[-1,-1,-5,1],
[-2,-1,-3,-2],
[1,-3,-5,-1]])

1.6. Ejercicios
1.- Dé un ejemplo de espacio vectoria en la vida real.

2.- Muestre que con la suma usual y el producto de un escalar por una
función, el conjunto de los polinomios con coeentes complejos de grado n
{P (x) = a0 + a1 z + · · · + an z n , ai ∈ R, i = 0, 1, 2, · · · , n}

es un espacio vectorial.

3.- Con la suma usual y el producto de un escalar por una sucesión, muestre
detalladamente que el conjunto suscesiones complejas convergentes forma un
espacio vectorial.

4.- Muestre que con la suma usual y el producto de un escalar por una se-
rie, que el conjunto de las series complejas convergentes es un espacio vectorial.

5.- Con la suma usual y el producto de un escalar por una función, muestre
que el conjunto de funciones {F (x)} que cumplen
Z ∞
|F (x)|2 dx < ∞
−∞

es un espacio vectorial.

23
Capítulo 2
Subespacios vectoriales
En este capítulo daremos la denición de subespacio vectorial, sus implica-
ciones, conceptos relacionados y algunos ejemplos.

2.1. Denición
Sea (V, K, +, ·) espacio vectorial sobre el campo K. Si V1 es subconjunto
de V y (V1 , K, +, ·) es espacio vectorial sobre K se dice que V1 es subespacio
vectorial de V.

Si V es espacio vectorial y V1 ⊂ V, entonces V1 es espacio vectorial si cumple


las condiciones
0 ∈ V1 , (2.1)
∀v, u ∈ V1 , u + v ∈ V1 , (2.2)
∀v ∈ V, ∀α ∈ K, α · v ∈ V1 . (2.3)

Para probar esta armación, note que la condición (2.2) indica que la suma
de vectores en V1 es cerrada en V1 y la condición (2.3) indica que el producto
de vectores con escalares de K es cerrada en V1 . Además, debido a que V1 ⊂ V
y V es espacio vectorial, de manera automática se cumplen las condiciones
(1.1)-(1.5) y (1.8). Ahora, debido a que V1 satisface la condición (2.1), también
satisface la condición (1.6). Adicionalmente, sabemos que para cualquier v ∈ V
se cumple
−1 · v = −v,
en particular si v ∈ V1 . Así, como V1 satisface la condición (2.3), si v ∈ V1
entonces −v ∈ V1 y se cumple la condición (1.7).

24
Por lo tanto, si V es espacio vectorial y V1 es un subconjunto de V que
satisface las condiciones (2.1)-(2.3), entonces V1 es espacio vectorial y en con-
secuencia subespacio vectorial de V.

Existen varias formas de expresar las condiciones para que un subconjunto


sea subespacio vectorial. Por ejemplo, V1 es subespacio vectorial de V si y solo
si V1 ⊂ V y

∀v1 , v2 ∈ V1 , ∀α1 , α2 ∈ K, α1 · v1 + α2 · v2 ∈ V1 . (2.4)

Para probar esta armación, notemos que si tomamos α1 = α2 = 0 la con-


dición (2.4) implica la condición (2.1); si tomamos α1 = α2 = 1 la condición
(2.4) implica la condición (2.2); si tomamos α1 = 1, α2 = 0, v1 = v la condición
(2.4) implica la condición (2.3). Así, la condición (2.4) implica las condiciones
(2.1)-(2.3).

Además, si α1 , α2 ∈ K y v1 , v2 ∈ V1 entonces la condición (2.3) implica


v1′ = α1 v1 ∈ V1 , v2′ = α2 v2 ∈ V2 ,

mientras que la condición (2.2) implica


v1′ + v2′ ∈ V2 ,

es decir
α1 v1 + α2 v2 ∈ V2 .
Así, las condiciones (2.1)-(2.3) implican la condición (2.4). Por lo tanto la con-
dición (2.4) es equivalente a las condiciones (2.1)-(2.3).

2.1.1. Ejemplos de subespacios vectoriales


Por ejemplo, el conjunto de vectores de la forma
(x, y, 0) , x, y ∈ R

es un subespacio vectorial del espacio vectorial R3 .

Además, en el espacio vectorial de la funciones de la forma


f : [a, b] → R,

25
el conjunto de las funciones pares, es decir que cumplen
f (−x) = f (x),

forman un subespacio vectorial.

En el espacio vectorial de las matrices reales de 2 × 2, el conjunto de las


matrices de la forma
 
a b
M= ,
b c

es un subespacio vectorial.

2.2. Intersección de espacios vectoriales


Sea V un espacio vectorial sobre un campo K. Si V1 ⊂ V, V2 ⊂ V, podemos
denir el conjunto V1 ∩ V2 , observe que si V1 y V2 son subespacios vectoriales
de V entonces 0 ∈ V1 ∩ V2 . En general, se puede probar que cuando V1 y V2
son subespacios vectoriales de V, el conjunto V1 ∩ V2 también es subespacio
vectorial de V. Para probar esta aseveración supongamos que v1 , v2 ∈ V1 ∩ V2 ,
entonces v1 , v2 ∈ V1 y v1 , v2 ∈ V2 . Ahora, si α1 , α2 ∈ K, como V1 y V2 son
subespacios vectoriales se satisface
α1 v1 + α2 v2 ∈ V1 , α1 v1 + α2 v2 ∈ V2 ,

entonces
α1 v1 + α2 v2 ∈ V1 ∩ V2 .
Por lo tanto, si V1 , V2 son subespacios vectoriales de V , entonces V1 ∩ V2 es
subespacio vectorial de V.

2.3. Suma de subespacios vectoriales


Sea V1 y V2 subespacios vectoriales del espacio vectorial V, se dene la suma
de subespacios vectoriales como

V1 + V2 = {v ∈ V |∃v1 ∈ V1 , ∃v2 ∈ V2 , v = v1 + v2 }.

26
El conjunto V1 + V2 es subespacio vectorial de V. En efecto, si u1 , u2 son ele-
mentos de V1 + V2 entonces existen v1 , v1′ en V1 y v2 , v2′ en V2 de tal forma
que
u1 = v1 + v2 y u2 = v1′ + v2′ .
Entonces, si α1 , α2 son escalares de K, se obtiene
α1 u1 + α2 u2 = α1 (v1 + v2 ) + α2 (v1′ + v2′ )
= (α1 v1 + α2 v1′ ) + (α1 v2 + α2 v2′ ).
Además como V1 y V2 son subespacios vectoriales tenemos que
v1′′ = α1 v1 + α2 v1′ ∈ V1 , y v2′′ = α1 v2 + α2 v2′ ∈ V2 .
Así, existe v1′′ ∈ V1 y v2′′ ∈ V2 de tal forma que
α1 u1 + α2 u2 = v1′′ + v2′′ .
Por lo tanto,
α1 u1 + α2 u2 ∈ V1 + V2
y V1 + V2 es un subespacio vectorial de V

Cuando
V1 + V2 = V

y para cada
v ∈ V, ∃!v1 ∈ V1 , y ∃!v2 ∈ V2
de tal forma que
v = v1 + v2
dice que V es la suma directa de V1 y V2 y se escribe

V = V1 ⊕ V2 .

2.4. Espacio generado


Sea V un espacio vectorial y

S = {v1 , v2 , · · · , vn } ⊂ V.

27
Sea ⟨S⟩ el conjunto todas las combinaciones lineales de los elementos de S, es
decir
⟨S⟩ = {α1 v1 + α2 v2 + · · · + αn vn }

con
α1 , α2 , · · · , αn ∈ K.

El conjunto ⟨S⟩ es subespacio vectorial de V. En efecto, supongamos que α, β ∈


K y v, w ∈ ⟨S⟩ , entonces existen

α1 , α2 , · · · , αn ∈ K, β1 , β2 , · · · , βn ∈ K

tal que
v = α1 v1 + α2 v2 + · · · + αn vn ,
w = β1 v1 + β2 v2 + · · · + βn vn .

Por lo tanto
αv + βw = α(α1 v1 + α2 v2 + · · · + αn vn ) + β(β1 v1 + β2 v2 + · · · + βn vn )
= (αα1 + ββ1 )v1 + (αα2 + ββ2 )v2 + · · · + (ααn + ββn )vn ,

que es una combinación lineal del conjunto S, entonces


αv + βw ∈ ⟨S⟩ .

Por lo tanto ⟨S⟩ es un subespacio vectorial de V.

Cuando ⟨S⟩ = V se dice que el conjunto S genera a V.

2.5. Independencia lineal


Sean
v1 , v2 , · · · , vn (2.5)

elementos de un espacio vectorial V. Se dice que el conjunto de vectores (2.5)


es linealmente independiente si

α1 , α2 , · · · , αn ∈ K

28
y
α1 v1 + α2 v2 + · · · + αn vn = 0

implica
α1 = α2 = · · · = αn = 0.

Se dice que el conjunto (2.5) es linealmente dependiente si existen escalares


α1 , α2 , · · · , αn ∈ K

no todos nulos tales que

α1 v1 + α2 v2 + · · · + αn vn = 0. (2.6)

Por ejemplo, en R2 los vectores


(1, 0), (0, 1)

son linealmente independientes.

Además, en el espacio vectorial de las matrices reales de 2 × 2, las matrices


       
1 0 0 −1 0 0 0 0
, , ,
0 0 0 0 2 0 0 −4

son linealmente independientes.

2.6. Dependencia lineal


Podemos armar que un conjunto de vectores
{v1 , v2 , · · · , vn }

es linealmente dependiente si alguno de ellos se puede escribir como combina-


ción lineal de los restantes. En efecto, sin pérdida de generalidad, supongamos
que se cumple (2.6) y que α1 ̸= 0. Por lo tanto, de (2.6) se obtiene
α1 v1 = −α2 v2 − · · · − αn vn ,

29
de donde
1
v1 = − (α2 v2 + · · · + αn vn ).
α1
Si v1 se puede escribir como combinación de los vectores
v2 , · · · , vn , (2.7)
se dice que v1 depende linealmente de los vectores (2.7).

Por ejemplo, en R2 los vectores


(1, 0), (0, 1), (1, 2)

son linealmente dependientes.

Además, en el espacio vectorial de las matrices reales de 2 × 2, las matrices


     
1 0 1 0 0 0
, ,
0 0 0 2 0 1

son linealmente dependientes.

2.7. Base y dimensión


Sea V un espacio vectorial. Se dice que el conjunto de vectores

{v1 , v2 , · · · , vn } ⊂ V (2.8)

es base de V si es linealmente independiente y es generador de V. En dicho


caso, se dice que la dimensión de V es la cardinalidad de dicho conjunto.

Si el espacio vectorial V tiene dimensión n y el conjunto de vectores de V

{v1 , v2 , · · · , vr } con r < n (2.9)

es linealmente independiente, este último conjunto se puede completar para


formar una base. En efecto, si el conjunto (2.9) no genera a todo el espacio

30
vectorial V, entonces existe un vector vr+1 en V que no puede ser generado por
los vectores del conjunto (2.9), entonces el conjunto
{v1 , v2 , · · · , vr , vr+1 } (2.10)
es linealmente independiente. Si el conjunto (2.10) no genera a todo el espacio
vectorial V, entonces existe un vector vr+2 en V que no puede ser generado por
dicho conjunto, así el conjunto
{v1 , v2 , · · · , vr , vr+1 , vr+2 }
es linealmente independiente. Si este nuevo conjunto de vectores no genera
al espacio vectorial V podemos seguir con el mismo procedimiento, el cual es
nito si la dimensión de V es nita.

Usando otra notación, los conceptos de combinación lineal, subespacio vec-


torial, dimensión y espacio generado fueron establecidos por Hermann Gunther
Grassmann en las dos versiones de su libro Cálculo de Extensión (1884 y 1862).

2.8. Ejercicios
1.- En el espacio vectorial de la funciones de la forma
f : [a, b] → R,
mostrar que el conjunto de las funciones impares, es decir, que cumplen
f (−x) = −f (x),
forman un subespacio vectorial.

2.- En el espacio vectorial de las matrices reales de 2 × 2, el conjunto de las


matrices antisimétricas, es decir, la matrices de la forma
 
0 b
M= ,
−b 0
es un subespacio vectorial.

3.- Determinar si el siguiente conjunto de polinomios es linealmente depen-


diente o independiente
{P0 = 2x − 3, P1 = 5x2 + 4, P2 = 7}.

31
4.- Determinar si el conjunto de polinomios es linealmente dependientes o
independiente
{P0 = 2x, P1 = x2 + 4x, P2 = x2 }.
5.- Determinar si los siguientes vectores son linealmente dependientes o
independientes
(1, 1, 0, 1), (1, −1, 1, 1), (2, 2, 1, 2), (0, 1, 0, 0).

6.- Determinar si los siguientes vectores son linealmente dependientes o


independientes
(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 0), (1, 1, 1, 1).

7.- Determinar si las siguientes matrices son linealmente dependientes o


independientes
     
2 −1 3 2 −1 4
M1 = , M2 = , M3 = .
−1 4 2 5 4 −3

8.- Encontrar una base para el conjunto de matrices reales de 3 × 3


 
a b c
M =  d e f .
g h i

9.- Obtener una base para los polinomios de coecientes reales de grado 4.

10.- Obtener el espacio generado por las matrices


   
0 0 0 1
M1 = , M2 = .
−1 0 0 0

32
Capítulo 3
Producto de matrices y sus
propiedades
En este capítulo veremos algunas operaciones con matrices como el pro-
ducto, la inversa y la traza.

3.1. Denición
Supongamos que A es una matriz de n × m y B es una matriz de m × l,
ambas matrices con entradas complejas,
   
A11 A12 · · · A1m B11 B12 · · · B1l
 A21 A22 · · · A2m   B21 B22 · · · B2l 
A= .. .. . . .. , B= .. .. . . .. ,
   
 . . . .   . . . . 
An1 An2 · · · Anm Bm1 Bn2 · · · Bml
con
Aij , Bkr ∈ C, i = 1, 2, · · · , n, k, j = 1, 2, · · · , m, r = 1, 2, · · · , l.

33
Entonces denimos el producto de matrices como
  
A11 A12 · · · A1m B11 B12 · · · B1l
 A21 A22 · · · A2m   B21 B22 · · · B2l 
AB =  .
. .
. . . .
. .
. .
. . . .
.
  
. . . .  . . . .
 

An1 An2 · · · Anm Bm1 Bn2 · · · Bml
 
A11 B11 + A12 B21 + · · · + A1m Bm1 · · · A11 B1l + A12 B2l + · · · + A1m Bml
 A21 B11 + A22 B21 + · · · + A2m Bm1 · · · A21 B1l + A22 B2l + · · · + A2m Bml 
= .. . . ..
 
. . .

 
An1 B11 + An2 B21 + · · · + Anm Bm1 · · · An1 B1l + An2 B2l + · · · + Anm Bml
 Pm Pm 
k=1 A 1k B k1 · · · k=1 A 1k Bkl
 Pm A2k Bk1 · · · Pm A2k Bkl 
k=1 k=1
= .. . . .. 
 

Pm . . Pm .
k=1 Ank Bk1 · · · k=1 Ank Bkl
 
A1k Bk1 · · · A1k Bkl
 A2k Bk1 · · · A2k Bkl 
= .
. . . .
.  , k = 1, 2, · · · , m.
 
 . . .
Ank Bk1 · · · Ank Bkl

Por lo tanto

m
(3.1)
X
(AB)ir = Aik Bkr , i = 1, 2, · · · , n, r = 1, 2, · · · , l.
k=1

3.2. Convención de Einstein


Antes de continuar notemos que por simplicidad, en una suma del tipo

n
X
V iW i
i=1

34
es común escribir

n
X
V iW i = V iW i = V 1W 1 + V 2W 2 + · · · + V nW n.
i=1

En donde se entiende que los índices repetidos se suman y se omite el símbolo


de suma Σ. A esta regla se le llama convención de Einstein.

Por ejemplo, con la notación de Einstein el producto de matrices se escribe


como
  
A11 A12 · · · A1m B11 B12 · · · B1l
 A21 A22 · · · A2m   B21 B22 · · · B2l 
AB =  .
. .
. . . .
. .. .. . . ..
  
. . . .  . . . .
 
 
An1 An2 · · · Anm Bm1 Bn2 · · · Bml
 Pm Pm 
k=1 A 1k B k1 · · · k=1 A 1k B kl
 Pm A2k Bk1 · · · Pm A2k Bkl 
k=1 k=1
= .
. . . .
.
 
. . P .


Pm m
k=1 Ank Bk1 · · · k=1 Ank Bkl
 
A1k Bk1 · · · A1k Bkl
 A2k Bk1 · · · A2k Bkl 
= .
. . . .
.  , k = 1, 2, · · · , m.
 
 . . .
Ank Bk1 · · · Ank Bkl

En componentes se tiene

m
(3.2)
X
(AB)ir = Aik Bkr = Aik Bkr , i = 1, 2, · · · , n, r = 1, 2, · · · , l.
k=1

Se puede observar que cuando se trabaja con componentes es más conveniente


ocupar la notación de Einstein.

35
Albert Einstein (1879-1955) fue un físico alemán de origen judío. En su ado-
lecencia asistió a una escuela progresista basada en la losofía pedagógica de
Pestalozzi, en donde aprendió a ser autodidácta y a cuestionar todo tipo de
autoridad y conocimiento. Su estadía en dicha escuela fue una de las épocas
más felices de su vida. Si bien Einstein tenía una habilidad especial para las
matemáticas, como pensador universal también se interesó por la música, lite-
ratura, losofía, política, antropología, geología, etc. Se introdujo por su propia
cuenta en los trabajos de Boltzman, Hertz, Lorentz, Kant, Darwin entre otros.
A pesar de tener un amplio conocimiento de la física de su época, cuando ter-
minó sus estudios universitarios era poco conocido y solo logró conseguir un
empleo en unas ocinas de patentes. En esas ocinas empezó a resolver varios
problemas importantes de la física y en 1905 publicó cinco artículos que cam-
biaron para siempre la física y nuestra percepción de la naturaleza. En uno de
esos artículos dio los fundamentos de lo que hoy conocemos como Relatividad
Especial, la cual cambió nuestro concepto de espacio-tiempo. En otro de los
artículos explicó el movimiento Browiniano, en donde fundamenta el concepto
de mólecula de Boltzman y cambió nuestro concepto de lo microscópico. En
otro de los trabajos explicó el efecto fotoeléctrico. En el aspecto teórico, este
último artículo dio un impulso importante a una naciente Mecánica Cuántica
y desde el punto de vista tecnológico permitió el desarollo de las celdas solares.
1905 es recordado como uno de los años más importantes de la física moder-
na. Después de esos cinco artículos logró encontrar un trabajo de profesor y
empredió un largo viaje intelectual en solitario para formular la llamada Re-
latividad General en 1915, la cual nos permite entender el origen de universo,
las ondas gravitacionales, los hoyos negros, etc. Por ser judío, tuvo que dejar la
Alemania de Hitler para emigrar a Estados Unidos, en donde nalmente murió
un 18 de Abril de 1955. Después de I. Newton, quizá Einstein sea el físico más
relevante de la historia.

3.3. Matriz identidad


A la matriz de n × n que en la diagonal tiene unos y fuera de ella tienen
ceros
 
1 0 ··· 0
 0 1 ··· 0 
I =  .. .. . . .. 
 
 . . . .
0 0 ··· 1

36
se le llama matriz identidad.

Note que si A es una matriz de n × n se tiene


  
A11 A12 ··· A1n 1 0 ··· 0
 A21 A22 ··· A2n   0
  1 ··· 0 
AI =  .. .. ... ..   . .. . . .. 
.   ..
 
 . . . . .
An1 An2 · · · Ann 0 0 ··· 1
  
1 0 ··· 0 A11 A12 · · · A1n
 0 1 ··· 0   A21 A22
  · · · A2n 
=  .. .. . . ..  . .. ... .. 
.   ..
 
 . . . . .

0 0 ··· 1 An1 An2 · · · Ann
 
A11 A12 · · · A1n
 A21 A22 · · · A2n 
=  .. .. ... ..  ,
 
 . . .
An1 An2 · · · Ann

es decir
AI = IA = A.

Otra forma de denir la matriz identidad de n × n es mediante la llamada


delta de Kronecker, que se dene como el símbolo tal que


1 si i = j,
δij = i, j = 1, 2, · · · , n.
0 ̸ j,
si i =

Por ejemplo, para el caso n = 3 se tiene

   
δ11 δ12 δ13 1 0 0
δij =  δ21 δ22 δ23  =  0 1 0  = I.
δ31 δ32 δ33 0 0 1

Observe que usando la delta de Kronecker y la convención de Einstein, el

37
producto de una matriz A por la matriz identidad I se escribe de la forma

  
A11 A12 · · · A1n δ11 δ12 · · · δ1n
 A21 A22 · · · A2n   δ21 δ22 · · · δ2n 
AI =  .. .. . . ..   .. .. . . ..
  
. . . .  . . . .

 
An1 An2 · · · Ann δn1 δn2 · · · δnn
 
A1k δk1 · · · A1k δkn
 A2k δk1 · · · A2k δkn 
= .. . . .. (k = 1, 2, · · · , n)
 
. . .

 
Ank δk1 · · · Ank δkn
 
A11 A12 · · · A1n
 A21 A22 · · · A2n 
= .. .. . . .. .
 
 . . . . 
An1 An2 · · · Ann

En componentes esta igualdad es simplemente

(AI)ij = Aik δkj = Aij .

Así, cuando se trabaja con componentes, es más conveniente usar la delta de


Kronecker.

38
Leopold Kronecker (1823-1891) fue un matemático alemán que aportó re-
sultados relevantes en áreas como teoría de números, álgebra y lógica. Descen-
diente de comerciantes y banqueros judíos, su educación inicial la tomó en su
casa con profesores particulares. Posteriormente asistió al Gymnasium de Lieg-
nitz, en donde se interesó por diferentes disciplinas como la losofía, química,
astronomía y las matemáticas. En 1845 realizó su trabajo doctoral en teoría
de números bajo la supervisión de Peter Gustav Dirichlet, en la Universidad
de Berlín. Después de terminar su doctorado, se dedicó a manejar los negocios
de su familia y tomó a las matemáticas solo como un pasatiempo. Debido a
su talento, recibió ofertas para trabajar como profesor universitario, pero las
rechazó. Durante más de 30 años no fue propiamente un profesor universitario,
pero escribió artículos notables. Por ejemplo, realizó extenciones de algunos re-
sultados de Évariste Galois en la teoría de ecuaciones usando teoría de grupos.
Además, sostenía grandes debates sobre los fundamentos de las matemáticas
con personajes como Cantor, Bolzano, Weierstrass y Dedekind. En 1883 acep-
tó una plaza de profesor en la Universidad de Berlín. Como profesor dirigió
la tesis doctoral de varios alumnos y continuó su debate con respecto al los
fundamentos de las matemáticas. Él defendía las demostraciones constructivas
en un número nitos de pasos. Con respecto a ese debate, es recordado por su
frase Dios hizo los números enteros; el resto es obra del hombre. La muerte de
su mujer fue un duro golpe para él y murió pocos meses después que ella.

3.4. Inversa de matrices


Supongamos que A es una matriz de n × n. La matriz A−1 es la inversa de
A si

AA−1 = A−1 A = I.

Por ejemplo, la matriz


 
1 1
M=
−1 1

tiene como inversa la matriz


1
− 12

−1 2
M = 1 1 .
2 2

39
La inversa de una matriz es única. En efecto, supongamos que existe otra
matriz A′ tal que
A′ A = I.
Entonces, multiplicamos a esta ecuación por la derecha por A−1 obtenemos
A′ AA−1 = A−1 ,

como AA−1 = I, llegamos a


A′ = A−1 .

Por lo que la matriz inversa es única.

3.5. Transpuesta de matrices


Supongamos que A es una matriz de n × m

 
A11 A12 · · · A1m
 A21 A22 · · · A2m 
A= .. .. . . .. .
 
 . . . . 
An1 An2 · · · Anm

Se dene la matriz transpuesta de A como la matriz AT de m × n que tiene


como columnas los renglones de A y como renglones las columnas de A, es
decir
 
A11 A21 · · · An1
 A12 A22 · · · An2 
AT =  .. .. . . .. ,
 
 . . . . 
A1m A2m · · · Anm

por lo que
ATij = Aji . (3.3)

40
Por ejemplo, consideremos la matriz
 
2 0 1
M = 3 4 −9  ,
5 −3 8

entonces su transpuesta es
 
2 3 5
MT =  0 4 −3  .
1 −9 8

3.5.1. Transpuesta de un producto de matrices


Supongamos que A es una matriz de n × m y B es una matriz de m × l,
entonces se cumple la igualdad

(AB)T = B T AT . (3.4)

Para probar esta armación ocuparemos el producto de dos matrices (3.2) y


la denición de transpuesta (3.3), entonces
(AB)Tij = (AB)ji
= Ajk Bki
= Bki Ajk
T T
= Bik Akj
B T AT

= ij

por lo que
(AB)Tij = B T AT

ij
,

que es lo que se quería demostrar.

Por ejemplo, consideremos las matrices


   
3 0 −1 −1 3 2
M1 =  1 4 −5  , M2 =  7 4 −1  ,
2 3 6 −3 2 5

41
cuyas transpuestas son
   
3 1 2 −1 7 −3
M1T =  0 4 3 , M2T =  3 4 2 ,
−1 −5 6 2 −1 5
de donde
   
0 7 1 0 42 1
M1 M2 =  42 9 −27  , M2T M1T =  7 9 30  ,
1 30 31 1 −27 31
así

0 42 1
(M1 M2 )T = M2T M1T =  7 9 30  .
1 −27 31

3.5.2. Inversa de la matriz transpuesta


Si la matriz inversa de la matriz A es A−1 , entonces la inversa de la matriz
transpuesta AT es la transpuesta de la matriz inversa de A, esto es

−1
(3.5)
T
AT = A−1 .

Para mostrar este resultado notemos que


AA−1 = I,

entonces
I = IT
T
= AA−1
= (A−1 )T AT ,

así
(A−1 )T AT = I,

multiplicando esta igualdad por la derecha por (A−1 )T , se encuentra


−1
AT AT (A−1 )T = I(A−1 )T
= (A−1 )T ,

42
de donde
−1
AT = (A−1 )T
Esta igualdad es equivalente a la expresión (3.5).

Por ejemplo, consideremos la matriz


 
2 3 4
M =  4 3 2 ,
0 1 0
cuya inversa es
 
−1 2 −3
1
M −1 =  0 0 6 ,
6
2 −1 −3
por lo que
   
2 4 0 −1 0 2
−1 T 1
MT =  3 3 1  ,

M =  2 0 −1  ,
6
4 2 0 −3 6 −3
de donde

T 1 0 0
MT M −1 =  0 1 0  = I.
0 0 1

3.6. Traza de una matriz


Supongamos que M es una matriz de n × n de entradas complejas
 
M11 M12 · · · M1n
 M21 M22 · · · M2n 
M = .. .. . . .. ,
 
 . . . . 
Mn1 Mn2 · · · Mnn
entonces la traza de M se dene como la suma de las componentes de la
diagonal, es decir

n
X
T r(M ) = M11 + M22 + · · · + Mnn = Mii = Mii .
i

43
Por ejemplo, consideremos la matriz
 
2 0 −1
M =  5 6 −3  ,
2 3 9

así
T r(M ) = 2 + 6 + 9 = 17.

De la denición de traza se deducen los resultados

T r M T =T r (M ) ,


T r(M + N ) =T r(M ) + T r(N ),


T r(N M ) =T r(M N ).

44
En efecto,
n
X
T
MT
 
Tr M = ii
i=1
Xn
= Mii
i=1
= T r (M ) ,
Xn
T r(M + N ) = (M + N )ii
i=1
n
X
= (Mii + Nii )
i=1
n
X n
X
= Mii + Nii
i=1 i=1
= T r(M ) + T r(N ),
Xn
T r (M N ) = (M N )ii
i=1
n X
X n
= Mij Nji
i=1 j=1
Xn X n
= Nji Mij
i=1 j=1
n n
!
X X
= Nji Mij
j=1 i=1
Xn
= (N M )jj
j=1
= T r(N M ).

Más adelante veremos algunas implicaciones de estos resultados.

Para ver un ejemplo consideremos la matriz


 
2 3 4
M =  4 3 2 ,
0 1 0

45
cuya matriz transpuesta es
 
2 4 0
MT =  3 3 1  ,
4 2 0

de donde
T r M T = 6.

T r(M ) = 6,

Además, sean las matrices


   
1 3 0 2 3 0
M =  −1 2 3  , N = 3 1 1 ,
0 1 0 1 2 −8

de donde
 
3 6 0
M +N =  2 3 4 ,
1 3 −8

por lo que
T (M + N ) = −2,
T r(M ) + T r(N ) = 3 − 5 = −2,

por lo que
T (M + N ) = T r(M ) + T r(N ) = −2.

Además, sean las matrices


 
1 2 −1
A =  0 3 0 ,
1 2 3
 
0 2 1
B =  −1 1 0  ,
3 0 1

46
que implican
 
−5 4 0
AB =  −3 3 0  ,
7 4 4
 
1 8 3
BA =  −1 1 1  ,
4 8 0
de donde
T r (AB) = T r(BA) = 2.

3.7. Matriz diagonal


Una matriz A de entradas complejas de n × n es diagonal si todas sus
componentes fuera de la diagonal son cero, por ejemplo
 
a1 0 · · · 0
 0 a2 · · · 0 
A =  .. .. . . . .
. ..
 
 . . 
0 0 · · · an

Note que usando la delta de Kronecker, las componentes de una matriz diagonal
se pueden escribir como

Aij = ai δij , i, j = 1, 2 · · · , n.

Cuando una matriz es diagonal, la mayoría de las operaciones para matrices


son muy fácil de hacer. Por ejemplo, la transpuesta es ella misma
AT = A,
la m-ésima potencia es
 
am
1 0 ··· 0
 0 am · · · 0 
2
Am =  .. . .
.. . . .. .
 
 . . 
0 0 · · · am
n

47
Además, si ai ̸= 0 (i = 1, 2, · · · , n), la inversa es

 
a−1
1 0 ··· 0
 0 a−1 · · · 0 
2
A−1 = .
.. . .
.. . . .. .
 
 . 
0 0 · · · a−1
n

Más adelante, veremos que cierto tipo de matrices se pueden relacionar con
matrices diagonales y que en esas matrices se pueden simplicar muchas ope-
raciones.

La idea de matriz y sus propiedades se encuentra en los trabajos de dife-


rentes matemáticos como Gauss, Cauchy, Hermite y Eiseintein. James Joseph
Sylvester introdujó el término de matriz en 1850. Sin embargo, fue Arthur
Caley quien introdujó de forma general las operaciones de las matrices co-
mo suma, producto, potencia e inversa. Además, probó la asociatividad del
producto de matrices, extendió la idea de determinante para más de dos di-
mensiones y desarrolló la noción de matrices simétricas y antisimétricas.

Arthur Cayley (1821-1895) fue un abogado y matemático inglés que ralizó


diferentes aportaciones relevantes en las matemáticas puras, principalmente en
álgebra y geometría. Además cultivó amistades con grandes cientícos como
William Hamilton, George Boole, William Thomson, entre otros. Notablemen-
te, por sus diferentes aportaciones a la ciencia británica el físico Clerk Maxwell
le escribió un poema. Arthur Cayley murió por múltiples enfermedades causa-
das por su avanzada edad.

48
3.8. Operaciones con Python
Supongamos que tenemos las matrices
   
1 0 6 1 2 3 4 −1
−1 3 6 4  0 1 −2 3 
A= 
 3 −1 6 3  B=
−5 3

4 8
1 0 6 −1 1 −9 3 8
entonces para hacer el producto de ellas se puede emplear el siguiente código
en Python
1 import numpy as np
2 a = np . array ([[1 ,0 ,6 ,1] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,0 ,6 , -1]
3 ])
4 b = np . array ([[2 ,3 ,4 , -1] ,[0 ,1 , -2 ,3] ,[ -5 ,3 ,4 ,8] ,[1 , -9 ,3 ,8]])
5 np . dot (a , b )
Listing 3.1: Producto de dos matrices
que da el resultado
array([[-27,12,31,55],
[-28,-18,26,90],
[-21,-1,47,66],
[-29,30,25,39]])
Además, si para la matriz
 
1 7 8 9
−1 3 6 5
A= 
2 1 0 −3
−1 2 1 8
queremos sacar la transpuesta podemos emplear el código en Python
1 import numpy as np
2 A = np . array ([[1 ,7 ,8 ,9] ,[ -1 ,3 ,6 ,5] ,[2 ,1 ,0 , -3] ,[ -1 ,2 ,1 ,8]
3 ])
4 np . transpose ( A )
Listing 3.2: Transpuesta de una matriz
el cual da el resultado
array([[1,-1,2,-1],
[7,3,1,2],
[8,6,0,1],
[9,5,-3,8]])

49
Ahora, supongamos que queremos sacar la traza de la matriz
 
1 0 6 9
−1 3 6 4 
A= 
 3 −1 6 3 
1 5 6 −1
se tiene el código en Python
1 import numpy as np
2 from numpy . linalg import eig
3 A = np . array ([[1 ,0 ,6 ,9] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,5 ,6 , -1]
4 ])
5 np . trace ( A )
Listing 3.3: Traza de una matriz
que da como resultado
9

3.9. Ejercicios
1.- Obtener el producto de las matrices
   
1 −2 4 −11 2 8
A =  3 3 5 , B= 3 −4 5  .
1 2 7 6 −3 1
2.- Para las matrices
− 33 8 7
   
1 2 1 10 5
− 10
A =  4 5 6 , A−1 =  9
5
− 35 1
5
,
7
3 2 9 10
− 25 3
10

mostrar que se cumple


A−1 A = AA−1 = I.
3.- Obtener la traza de matriz
 
4 −5 6
A =  1 −2 7  .
5 2 9
4.- Obtener la transpuesta de la matriz
 
1 7 −2
A =  11 12 −4  .
4 −2 6

50
5.- Considere las matrices
   
3 −1 0 1 −3 7
A =  1 −3 5  , B =  2 −4 3  .
3 2 4 1 −6 2

a) Obtener AT B T .

b) Obtener T r(AB).

c) Obtener T r(BA).

d) Obtener T r(A + B).

e) Obtener T r (AB)T .


51
Capítulo 4
Determinante de una matriz
En este capítulo daremos la denición determinante de una matriz y alguna
de sus implicaciones. Gauss nombró a esta operación determinante porque
determina varias propiedades de una matrix, en particular si una matriz tiene
inversa.

4.1. Inversa de una matriz de 2 × 2


Consideremos la matriz de 2 × 2 de entradas complejas
 
a b
M= ,
c d

si queremos buscar su matriz inversa podemos proponer la matriz


 
−1 e f
M = ,
g h

la cual debe cumplir


 
−1 1 0
MM = = I.
0 1

Esta condición implica


   
−1 ae + bg af + bh 1 0
MM = = .
ce + dg cf + dh 0 1

52
Resolver este problema implica encontrar los valores e, f, g, h que cumplen
ae + bg = 1, (4.1)
af + bh = 0, (4.2)
ce + dg = 0, (4.3)
cf + dh = 1. (4.4)
De la ecuación (4.3) se obtiene
dg
e=− , (4.5)
c
usando este resultado en la ecuación (4.1), encontramos
c
g=− ,
ad − bc
además ocupando este último resultado en la expresión (4.5), llegamos a
d
e= .
ad − bc
Mientras que, de la ecuación (4.2) se obtiene
bh
f =− , (4.6)
a
sustituyendo este resultado en la ecuación (4.4) encontramos
a
h=
ad − bc
y considerando este resultado en (4.6), se obtiene
b
f =− .
ad − bc
En resumen, tenemos los valores
d
e = ,
ad − bc
b
f = − ,
ad − bc
c
g = − ,
ad − bc
a
h = ,
ad − bc

53
que implican la matriz
 
−1 1 d −b
M = .
ad − bc −c a

Observe que esta matriz existe solo si

ad − bc ̸= 0, (4.7)

a esta cantidad se le llama determinante. Note que el determinante es impor-


tante para conocer la inversa de una matriz de 2 × 2.

4.2. Tensor de Levi-Civita


Si bien el determinante (4.7) fue obtenido para encontrar la inversa de
una matriz de 2 × 2, esta cantidad es interesante por sí misma como objeto
matemático y tiene diversas aplicaciones. Antes de generalizar el determinante
para una matriz de n × n, expresaremos el determinante de una matriz de 2 × 2
de una manera más sugerente. Consideremos la matriz
 
A11 A12
A= ,
A21 A22

entonces el determinante (4.7) tiene la forma

det A = A11 A22 − A12 A21 . (4.8)

Ahora denamos la cantidad

ϵij , i, j = 1, 2 (4.9)

que cumple las propiedades

ϵ12 =1,
ϵij = − ϵij .

54
Observe que esta propiedades implican

ϵ12 = − 1,
ϵ11 =ϵ22 = 0.

Entonces, usando el objeto (4.9) el determinante (4.8) se puede escribir como

det A = ϵi1 i2 A1i1 A2i2 . (4.10)

Ahora consideremos un conjunto de dos objetos,


{1, 2},

de este conjunto tenemos las permutaciones


   
1 2 1 2
σ(12) = , σ(21) = .
1 2 2 1

Deniremos la paridad de una permutación como


P (σ) = (−1)P

donde P es el número de movimientos que se deben hacer para pasar de la


permutación σ a la permutación identidad. Por lo que
P (σ(12)) = 1, P (σ(21)) = −1.

Se puede ver que se cumple


P (σ(12)) = ϵ12 , P (σ(21)) = ϵ21 .

Así, la cantidad ϵij es un objeto totalmente antisimétrico que nos da la paridad


de la permutación σ(ij).

La versión de ϵij para n dimensiones nos ayuradará denir el determinante


para una matriz de n × n.

Ahora denamos la cantidad

ϵijk , ij, k = 1, 2, 3

55
totalmente antisimétrica que satisface

ϵ123 = 1.

Debido a que ϵijk es una cantidad antisimétrica se tiene


ϵ112 = −ϵ112 = 0.

En general se tiene
ϵiij = −ϵiij = 0, ϵijj = −ϵjij = 0, ϵiji = −ϵiij = 0, ϵiii = 0,

es decir, cada que vez que dos índices se repiten la cantidad ϵijk es cero. Además,
usando de nuevo que ϵijk es una cantidad antisimétrica, se encuentra
ϵ123 = 1, ϵ132 = −1, ϵ213 = 1, ϵ231 = −1, ϵ312 = 1, ϵ321 = −1.

Ahora veamos el conjunto de tres objetos


{1, 2, 3},

de este conjunto tenemos las siguientes permutaciones


     
1 2 3 1 2 3 1 2 3
σ(123) = , σ(132) = , σ(213) = ,
1 2 3 1 3 2 2 1 3
     
1 2 3 1 2 3 1 2 3
σ(231) = , σ(312) = , σ(321) = .
2 3 1 3 1 2 3 2 1

La paridad de estas permutaciones es


P (σ(123)) = 1, P (σ(132)) = −1, P (σ(213)) = −1,
P (σ(231)) = 1, P (σ(312)) = 1, P (σ(321)) = −1,

note que se cumple


P (σ(123)) = ϵ123 , P (σ(132)) = ϵ132 , P (σ(213)) = ϵ213 ,
P (σ(231)) = ϵ231 , P (σ(312)) = ϵ312 , P (σ(321)) = ϵ321 .

Así, la cantidad ϵijk es un objeto totalmente antisimétrico que nos da la pari-


dad de la permutación σ(ijk).

56
En general deniremos

ϵi1 i2 ···in ij , j = 1, 2, · · · n

como el objeto totalmente antisimétrico que satisface

ϵ123···n = 1,

a este objeto se le llama tensor de Levi-Civita, símbolo de Levi-Civita o sím-


bolo de permutaciones.

4.3. Propiedades del tensor de Levi-Civita


Antes de denir el determinante, veremos algunas propiedades del tensor
de Levi-Civita.

4.3.1. Intercambio de dos índices


Primero probaremos que si intercambiamos dos índices cualquiera ip y iq ,
se requiere un número impar de permutaciones. En efecto, supongamos que
tenemos la permutación
 
1 2 ··· p p + 1 ··· q − 1 q··· n
,
i1 i2 · · · ip ip+1 · · · iq−1 iq · · · in

con q − p = k. Entonces, si queremos pasar el índice iq del lugar p al lugar q


se deben hacer k movimientos
 
1 2 ··· p p + 1 ··· q−1 q··· n
,
i1 i2 · · · iq ip · · · iq−2 iq−1 · · · in

ahora para pasar al índice p del lugar p + 1 al lugar q debemos hacer k − 1


movimientos
 
1 2 ··· p p + 1 ··· q − 1 q··· n
.
i1 i2 · · · iq ip+1 · · · iq−1 ip · · · in

Por lo tanto, para intercambiar dos índices debemos hacer 2k − 1 movimientos,


es decir debemos hacer una permutación impar. Así, debido a que el tensor

57
de Levi-Civita es totalmente antisimétrico, al intercambiar dos de sus índices
tendremos un signo menos, esto es,
ϵi1 i2 ···ip ···iq ···in = (−1)2k−1 ϵi1 i2 ···iq ···iq ···in = −ϵi1 i2 ···iq ···ip ···in ,

de donde
ϵi1 i2 ···ip ···iq ···in = −ϵi1 i2 ···iq ···ip ···in . (4.11)

4.3.2. Índices iguales


También podemos observar que si el tensor de Levi-Civita tiene dos índices
iguales, entonces es cero. En efecto, al cambiar los dos índices iguales debemos
hacer 2k − 1 permutaciones y en ese cambio el tensor de Levi-Civita tendrá la
misma forma, pero ahora tendremos un número negativo, es decir
ϵi1 i2 ···ip ···ip ···in = −ϵi1 i2 ···ip ···ip ···in = 0.

por lo que
ϵi1 i2 ···ip ···ip ···in = 0.

4.3.3. Suma de permutaciones


Ahora recordemos que si tenemos un conjunto de n elementos, podemos
hacer n! permutaciones. Esto quiere decir que el tensor de Levi-Civita tiene n!
términos diferentes de cero. Además, debido a que se cumple que ϵ123···n = 1,
los términos diferentes de cero del tensor de Levi-Civita tiene el valor 1 o −1.
Por lo tanto, el cuadrado de cualquier componente diferente de cero del tensor
de Levi-Civita siempre es 1. Esta última armación nos permite concluir que
la suma de los cuadrados de todos los términos diferentes de cero del tensor
de Levi-Civita es n!, esto es

ϵi1 i2 ···ip ···in ϵi1 i2 ···ip ···in = n!.

58
Tullio Levi-Civita (1873-1941) fue un matemático italiano que realizó di-
versas contribuciones a las matemáticas y física. Realizó sus estudios en la
Universidad de Padua y a partir de 1918 fue profesor de la Universidad de
Roma. Desarrolló lo que hoy se conoce como cálculo tensorial, que es la base
para la geometría diferencial. También realizó aportaciones en el problema de
los tres cuerpos de la mecánica celeste y en la hidrodinámica. Los trabajos de
Levi-Civita fueron fundamentales para el desarrollo de la Relatividad General
de Einstein. De hecho, Albert Einstein mantuvo una fructífera correspondencia
con él. Debido a sus orígenes judíos, fue despedido de su trabajo en 1938, lo
cual lo hizo caer depresión. No obstante, luchó para que varios matemáticos
italianos pudieran escapar de la Italia fascista de Mussolini.

4.4. Denición general del determinante


Para el caso de una matriz de 2 × 2 el determinante está denido en la
ecuación (4.10). Si tenemos una matriz de n × n
 
A11 · · · A1n
.. . . .. 
A= . . . , Aij ∈ C, i, j = 1, · · · n,

An1 · · · Ann

el determinante se dene como

det A = ϵi1 i2 ···in A1i1 A2i2 · · · Anin . (4.12)

Por ejemplo, para una matriz de 3 × 3


 
A11 A12 A13
A =  A21 A22 A23  ,
A31 A32 A33

tenemos
det A = ϵi1 i2 i3 A1i1 A2i2 · · · A3in .

59
Considerando las propiedades del tensor de Levi-Civita, encontramos
det A = ϵ1i2 i3 A11 A2i2 Ai3n + ϵ2i2 i3 A12 A2i2 Ai3n + ϵ3i2 i3 A13 A2i2 Ai3n
= A11 (ϵ1i2 i3 A2i2 Ai3n ) + A12 (ϵ2i2 i3 A2i2 Ai3n ) + A13 (ϵ3i2 i3 A13 A2i2 Ai3n )
= A11 (ϵ123 A22 A33 + ϵ132 A23 A32 )
+A12 (ϵ213 A21 A33 + ϵ231 A23 A31 )
+A13 (ϵ312 A21 A32 + ϵ321 A22 A31 )
= A11 (A22 A33 − A23 A32 ) − A12 (A21 A33 − A23 A31 ) + A13 (A21 A32 − A22 A31 ).

esto es
det A = A11 (A22 A33 − A23 A32 ) − A12 (A21 A33 − A23 A31 ) + A13 (A21 A32 − A22 A31 ).

4.5. Propiedades del determinante


Antes de continuar veremos algunas propiedades del determinante

4.5.1. Suma de dos renglones


Supongamos que tenemos la siguiente matriz de n × n con entradas com-
plejas
A11 · · ·
 
A1n
.. .. 

 . .
A(p−1)1 · · · A(p−1)n
 
 
A =  A1p1 + A2p1 · · · A1pn + A2pn ,
 
A(p+1)1 · · · A(p+1)n
 
.. .. 
 
. .


An1 · · · Ann

note que de esta matriz se puede obtener las dos matrices


A11 · · · A11 · · ·
   
A1n A1n
.. ..  .. .. 

 . . 
 . .
 A(p−1)1 · · · A(p−1)n  A(p−1)1 · · · A(p−1)n
   
 
A1 =  A1p1 · · · A1pn , A2 =  A2p1 · · · A2pn ,
   
 A(p+1)1 · · · A(p+1)n  A(p+1)1 · · · A(p+1)n
   
.. ..  .. .. 
 
. . . .
 
 
An1 · · · Ann An1 · · · Ann

60
Probaremos que se cumple la igualdad

det A = det A1 + det A2 .

Para realizar esta prueba, observe que por denición se cumple


det A1 = ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 A1pip A(p+1)ip+1 · · · Anin ,
det A2 = ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 A2pip A(p+1)ip+1 · · · Anin ,

además,
det A = ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 (A1pip + A2pip )A(p+1)ip+1 · · · Anin
= ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 (A1pip A(p+1)ip+1 · · · Anin + A2pip A(p+1)ip+1 · · · Anin )
= ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 A1pip A(p+1)ip+1 · · · Anin +
+ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 A2pip A(p+1)ip+1 · · · Anin
= det A1 + det A2 ,

esto es,
det A = det A1 + det A2 ,

que es lo que queríamos demostrar.

Por ejemplo, de la matriz


 
4 3
A= ,
5 2
podemos extraer las matrices
   
2 1 2 2
A1 = , A2 = .
5 2 5 2
Se puede observar que las suma del primer renglón de A1 con el primer renglón
de A2 nos da el primer renglón de A. Así mismo se cumple
det A = −7,
det A1 = −1,
det A2 = −6,

por lo cual se satisface


det A = det A1 + det A2 .

61
4.5.2. Escalar por un renglón
Ahora, supongamos que A y A′ son dos matrices de n×n donde los renglones
de la matriz A′ es son iguales a los de A, salvo el renglón p de A′ que es múltiplo
de renglón de p de A. Es decir, las matrices A y A′ tienen la forma
A11 · · ·
 
A1n

A11 · · · A1n
 .. .. 
.. .. 

 . .

 . .  A(p−1)1 · · ·

A(p−1)n



A =  Ap1 · · · Apn  , A =  λAp1 · · · λApn ,
   
.. ..   A(p+1)1 · · · A(p+1)n
. .
  
.. .. 
 
. .

An1 · · · Ann 
An1 · · · Ann

por lo que las componentes de la matriz A′ se pueden denir como


A′ij = Aij , i ̸= p, A′pj = λApj .

En este caso se cumple


det A′ = λ det A.

Para probar esta armación usaremos la denición de determinante (4.12), de


donde
det A′ = ϵi1 i2 ···in A′1i1 A′2i2 · · · A′nin
= ϵi1 i2 ···ip−1 ip ip+1 ···in A′1i1 A′2i2 · · · A′(p−1)ip−1 A′pip A′(p+1)p · · · A′nin
= ϵi1 i2 ···ip−1 ip ip+1 ···in A1i1 A2i2 · · · A(p−1)ip−1 λAqip A(p+1)p · · · Anin
= λϵi1 i2 ···in A1i1 A2i2 · · · · · · Anin
= λ det A,

que es lo que queríamos demostrar.

Note que este último resultado implica que si A tiene un renglón igual a
cero, entonces el determinante de A es cero.

Por ejemplo consideremos la matriz


 
′ 6 3
A = ,
1 2

62
se puede observar que el primer reglón de esta matriz es multiplo de 3, esto es
 
′ 3·2 3·1
A = .
1 2

Así podemos construir la matriz


 
2 1
A= .
1 2

Además se cumple
det A′ = 9,
det A = 3,

por lo cual se satisface


det A′ = 9 = 3 · det A = 3 · 3.

4.5.3. Escalar por una matriz


Sea A un matriz de n × n y λ un escalar, entonces se cumple

det(λA) = λn det A. (4.13)

Para probar este resultado denamos la matriz A′ = λA, observe que esta
denición implica A′ij = λAij . Por lo cual
det(λA) = det(A′ )
= ϵi1 i2 ···in A′1i1 A′2i2 · · · A′nin
= ϵi1 i2 ···in (λA1i1 )(λA2i2 ) · · · (λAnin )
= λn ϵi1 i2 ···in A1i1 A2i2 · · · Anin
= λn det A,

esto es
det(λA) = λn det A,

por lo que el resultado (4.13) es correcto.

63
Por ejemplo consideremos la matriz
 
21 3
A= ,
12 9
que se puede escribir como
 
7 1
A=3 .
4 3
De donde podemos ver que se cumple
 
21 3
det A = det = 153,
12 9
 
7 1
det = 17,
4 3
por lo cual
 
2 7 1
det A = 3 det = 32 · 17 = 153.
4 3

4.5.4. Combinación lineal en un regón


Ahora veremos que los dos resultados anteriores se pueden unir y generali-
zar.

Supongamos que tenemos la matriz


A11 · · ·
 
A1n
.. .. 

 . .
A(p−1)1 · · · A(p−1)n
 
 
A =  λ1 A1p1 + λ2 A2p1 + · · · + λl Alp1 · · · λ1 A1pn + λ2 A2pn + · · · + λl Alpn ,
 
A(p+1)1 · · · A(p+1)n
 
.. .. 
 
. .


An1 · · · Ann
es decir
A11 · · ·
 
A1n
.. .. 

 . .
 A(p−1)1 · · · A(p−1)n
 

A =  λk Akp1 · · · λk Akpn , k = 1, 2, · · · , l.
 
 A(p+1)1 · · · A(p+1)n
 
.. .. 

. .


An1 · · · Ann

64
Note que de esta matriz se pueden obtener las siguientes l matrices
A11 · · ·
 
A1n
.. .. 

 . .
 A(p−1)1 · · · A(p−1)n
 

A1 =  A1p1 · · · A1pn ,
 
 A(p+1)1 · · · A(p+1)n
 
.. .. 

. .


An1 · · · Ann
A11 · · ·
 
A1n
.. .. 

 . .
 (p−1)1 · · ·
A A(p−1)n
 

A2 =  A2p1 · · · A2pn ,
 
 A(p+1)1 · · · A(p+1)n
 
.. .. 

. .


An1 · · · Ann
..
.
A11 · · ·
 
A1n
.. .. 

 . .
 A(p−1)1 · · · A(p−1)n
 

Al =  Alp1 · · · Alpn .
 
 A(p+1)1 · · · A(p+1)n
 
.. .. 

. .


An1 · · · Ann
Estas matrices satisfacen

det A = λk det Ak . (4.14)

Para realizar esta prueba, primero observemos que


det Ak = ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 Akpip A(p+1)ip+1 · · · Anin ,
además
det A = ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 (λk Akpip )A(p+1)ip+1 · · · Anin
= λk ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 Akpip A(p+1)ip+1 · · · Anin
= λk det Ak ,
que es lo que queríamos demostrar.

65
4.5.5. Renglones como vectores
Supongamos que tenemos la siguiente matriz de n×n de entradas complejas
 
A11 · · · A1n
.. . . .. 
A= . . . , Aij ∈ C, i, j = 1, · · · n,

An1 · · · Ann

con los renglones de esta matriz se pueden formar los siguientes n vectores
R1 = (A11 , A12 , · · · , A1n ),
R2 = (A21 , A22 , · · · , A2n ),
R3 = (A31 , A32 , · · · , A3n ),
..
.
Rn = (An1 , An2 , · · · , Ann ),

Ahora, supongamos que A′ es una matriz de n×n que se obtiene al intercambiar


dos renglones de A, entonces se cumple

det A′ = − det A.

Note que en este caso las matrices tienen la forma


   
A11 · · · A1n A11 · · · A1n
.. ..  .. .. 
. . . .
 
 
A(p−1)1 · · · A(p−1)n A(p−1)1 · · · A(p−1)n
   
   
Ap1 · · · Apn Aq1 · · · Aqn
   
   
A(p+1)1 · · · A(p+1)n A(p+1)1 · · · A(p+1)n
   
.. .. .. ..
   

   
A=
 . . ,
 A =
 . . ,


 A(q−1)1 · · · A(q−1)n 


 A(q−1)1 · · · A(q−1)n 


 Aq1 · · · Aqn 


 Ap1 · · · Apn 

 A(q+1)1 · · · A(q+1)n   A(q+1)1 · · · A(q+1)n 
.. .. .. ..
   
. . . .
   
   
An1 · · · Ann An1 · · · Ann

es decir, las componentes de la matriz A′ se pueden denir como


A′ij = Aij , i ̸= p, i ̸= q, A′pj = Aqj , A′qj = Apj .

66
Por lo que, usando las propiedades del tensor de Levi-Civita (4.11), se obtiene
det A′ = ϵi1 i2 ···in A′1i1 A′2i2 · · · A′nin
= ϵi1 i2 ···ip−1 ip ip+1 ···iq−1 iq iq+1 ···in
A′1i1 A′2i2 · · · A′(p−1)ip−1 A′pip A′(p+1)ip+1 · · · A′(q−1)iq−1 A′qiq A′(q+1)iq+1 · · · A′nin
= ϵi1 i2 ···ip−1 ip ip+1 ···iq−1 iq iq+1 ···in
A1i1 A2i2 · · · A(p−1)ip−1 Aqip A(p+1)ip+1 · · · A(q−1)iq−1 Apiq A(q+1)iq+1 · · · Anin
= (−)ϵi1 i2 ···ip−1 iq ip+1 ···iq−1 ip iq+1 ···in
A1i1 A2i2 · · · A(p−1)ip−1 Apiq A(p+1)ip+1 · · · A(q−1)iq−1 Aqip A(q+1)iq+1 · · · Anin
= − det A,
que es lo que queríamos demostrar.

Observe que este último resultado implica que si A tiene dos renglones
iguales, entonces su determinante es cero.

Por ejemplo, consideremos la matriz


 
1 3
A= ,
2 4
al intercambiar los dos renglones tenemos
 
′ 2 4
A = .
1 3
Además, se cumple
det A = 4 − 6 = −2,
det A′ = 6 − 4 = 2,
por lo cual
det A = − det A′ .

También podemos ver que la matriz


 
3 1 5
A = 2 4 7 ,
3 1 5
tiene dos renglones iguales y se cumple
det M = 0.

67
4.5.6. Renglones linealmente dependientes
Sea la matriz A de la forma
 
A11 · · · A1n
.. . . .. 
A= . . . , Aij ∈ C, i, j = 1, · · · n,

An1 · · · Ann

cuyos renglones son los n vectores


Ri = (Ai1 , Ai2 , · · · , Ain ).

Mostraremos que si uno de estos vectores es linealmente dependiente, el deter-


minante de A es cero.

Sin pérdida de generalidad, supongamos que el renglón p es linealmente


dependiente, es decir,
n n n n
!
X X X X
Rp = λk Rk = λk Ak1 , λk Ak2 , · · · , λk Akn ,
k=1,k̸=p k=1,k̸=p k=1,k̸=p k=1,k̸=p

note que, en este caso la matriz A tienen la forma


A11 · · · A1n
 
.. .. 

 . .
A(p−1)1 · · · A(p−1)n
 
 P 
 n
(4.15)
Pn
A =  k=1,k̸=p λk Ak1 · · · k=1,k̸=p λk Akn ,

A(p+1)1 · · · A(p+1)n
 
.. .. 
 
. .


An1 · · · Ann

es decir la matriz A se puede escribir como


A11 · · ·
 
A1n
.. .. 

 . .
 A(p−1)1 · · · A(p−1)n
 

A =  Ap1 · · · Apn ,
 
 (p+1)1 · · ·
A A(p+1)n
 
.. .. 

. .


An1 · · · Ann
con

68
n
X
Ap1 = λk Ak1 = λ1 A11 + · · · + λp−1 A(p−1)1 + λp+1 A(p+1)1 + · · · + λn An1 ,
k=1,k̸=p
Xn
Ap2 = λk Ak2 = λ1 A12 + · · · + λp−1 A(p−1)2 + λp+1 A(p+1)2 + · · · + λn An2 ,
k=1,k̸=p
..
.
n
X
Apn = λk Akn = λ1 A1n + · · · + λp−1 A(p−1)n + λp+1 A(p+1)n + · · · + λn Ann .
k=1,k̸=p

Observe que de la matriz (4.15) se obtiene las siguientes n − 1 matrices


A11 · · · A11 · · ·
   
A1n A1n
.. ..  .. .. 

 . . 
 . .
 A(p−1)1 · · · A(p−1)n   A(p−1)1 · · · A(p−1)n
   

A1 =  A11 · · · A1n  , A2 =  A21 · · · A2n ,··· ,
   
 (p+1)1 · · ·
A A(p+1)n   (p+1)1 · · ·
A A(p+1)n
   
.. ..  .. .. 

. . . .
 
 
An1 · · · Ann An1 · · · Ann
A11 · · · A11 · · ·
   
A1n A1n
.. ..  .. .. 

 . . 
 . .
 A(p−1)1 · · · A(p−1)n  A(p−1)1 · · · A(p−1)n
   
 
A(p−1) =  A(p−1)1 · · · A(p−1)n  , A(p+1) =  A(p+1)1 · · · A(p+1)n ,··· ,
   
 A(p+1)1 · · · A(p+1)n  A(p+1)1 · · · A(p+1)n
   
.. ..  .. .. 
 
. . . .
 
 
An1 · · · Ann An1 · · · Ann
A11 · · ·
 
A1n
.. .. 

 . .
 A(p−1)1 · · · A(p−1)n
 

An =  An1 · · · Ann .
 
 A(p+1)1 · · · A(p+1)n
 
.. .. 

. .


An1 · · · Ann

También, note que todas estas matrices tienen dos renglones iguales y por lo
tanto su determinante es igual a cero. Además, usado el resultado (4.14), se

69
obtiene
n
X
det A = λk det Ak = 0.
k=1,k̸=p

Por lo tanto, si un rengón de la matriz A es linealmente dependiente, entonces

det A = 0. (4.16)

Así, si una matriz A satisface

det A ̸= 0, (4.17)

ninguno de sus renglones es linealmente dependiente. En otras palabras si se


cumple (4.17), entonces todos los renglones de la matriz A son linealmente
independientes.

Por ejemplo, consideremos la matriz



1 2 3
A = 4 5 6 .
5 4 3
Se puede observa que se cumple
(5, 4, 3) = −3(1, 2, 3) + 2(4, 5, 6),

por lo que el tercer renglón es linealmente dependiente. De donde


det A = 0.

Ahora veamos la matriz


 
1 0 0
M = 1 1 0 .
1 1 1
En este caso los vectores
(1, 0, 0), (1, 1, 0), (1, 1, 1),

son linealmente independientes y se satisface


det M = 1 ̸= 0.

70
4.6. Versión alternativa del determinante
Ahora veremos una versión alternativa del determinante que nos permitirá
obtener resultados de una forma más directa y clara.

Para iniciar, consideremos la expresión


a = ϵi1 i2 i3 ···in A2i1 A1i2 A3i3 · · · Anin . (4.18)
Note que esta a no es el determinante, pues los términos A1i2 y A2i1 están
intercambiados. Al intercambiar estos términos, obtenemos
a = ϵi1 i2 i3 ···in A1i2 A2i1 A3i3 · · · Anin ,

Aún no tenemos el determinante, pues los índices del tensor de Levi-Civita


están intercambiados. Entonces al intercambiar los dos primeros índices del
tensor de Levi-Civita se tiene
a = −ϵi2 i1 i3 ···in A1i2 A2i1 A3i3 · · · Anin .

Adicionalmente, deniendo
i′1 = i2 , i′2 = i1 , i′j = ij , j > 2,

se encuentra
a = −ϵi′1 i′2 ···i′n A1i′1 A2i′2 A3i′3 · · · Ani′n
= − det A,

esto es
det A = −a = −ϵi1 i2 i3 ···in A2i1 A1i2 A3i3 · · · Anin ,

o sea
det A = −ϵi1 i2 i3 ···in A2i1 A1i2 A3i3 · · · Anin . (4.19)
Además, considerando que se cumple
ϵ213···n = −ϵ123···n = −1

la expresión (4.19) se puede escribir como


det A = ϵi1 i2 i3 ···in ϵ213···n A2i1 A1i2 A3i3 · · · Anin . (4.20)

71
El resultado (4.20) se consiguió permutando dos índices del tensor de Levi-
Civita y cambiando de lugar dos términos del producto de los coecientes Aij .

Ahora veremos que se puede obtener un resultado semejante con cualquier


permutación. Para el caso general, consideremos la permutación
 
1 2 ··· n
, (4.21)
σ(1) σ(2) · · · σ(n)

con paridad (−)P . Note que en ese caso se tiene


ϵσ(1)σ(2)···σ(n) = (−)P . (4.22)
Entonces, denamos la cantidad
b = ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in (4.23)
y denamos los números
k1 , k2 , · · · , kn

tales que, bajo la permutación (4.21), se satisface


σ(k1 ) = 1, σ(k2 ) = 2, · · · , σ(kn ) = n. (4.24)
Entonces, reordenando los términos del producto de los coecientes Aij en la
expresión (4.23), se tiene
b = ϵi1 i2 ···in A1ik1 A2ik2 · · · Anikn . (4.25)
Ahora debemos ordenar los índices del tensor de Levi-Civita. Para realizar esta
ordenación, debemos pasar el índice k1 a lugar 1, el índice k2 a lugar 2, el índice
k3 a lugar 3, etc. En otras palabras, en los índices del tensor de Levi-Civita
debemos hacer la permutación (4.21). Se puede observar que al hacer dicha
permutación se obtendrá un factor de
(−1)P .

Por lo cual, la expresión (4.25) se puede escribir de la forma


b = (−1)P ϵik1 ik2 ···ikn A1ik1 A2ik2 · · · Anikn .

Ahora, deniendo
i′1 = ik1 , i′2 = ik2 , · · · , i′n = ikn ,

72
tenemos
b = (−1)P ϵi′1 i′2 ···i′n A1i′1 A2i′2 · · · Ani′n
= (−1)P det A,

esto es
b = (−)P det A.

Este resultado implica la igualdad


det A = (−)P b = (−)P ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in ,

de donde
det A = (−)P ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in .

Además, considerando la igualdad (4.22) se encuentra


det A = (−)P ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in
= ϵσ(1)σ(2)···σ(n) ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in

por lo cual
det A = ϵσ(1)σ(2)···σ(n) ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in . (4.26)
Ahora, por cada permutación tenemos una expresión de la forma (4.26), en-
tonces como existen n! permutaciones, se encuentra
ϵi1 i2 ···in ϵj1 j2 ···jn Ai1 j1 Ai2 j2 · · · Aii jn = n! det A

es decir,
1
det A = ϵi i ···i ϵj j ···j Ai j Ai j · · · Aii jn . (4.27)
n! 1 2 n 1 2 n 1 1 2 2

Esta versión del determinante es muy útil para realizar diversas demostracio-
nes.

73
4.7. Determinante de la transpuesta de una ma-
triz
Supongamos que si A es una matriz de n×n, entonces se cumple la igualdad

det AT = det A. (4.28)

Para probar esta armación, observe que usando la ecuación (4.27), tenemos
1
det AT = ϵi i ···i ϵj j ···j (A)Ti1 j1 (A)Ti2 j2 · · · (A)Tin jn
n! 1 2 n 1 2 n
1
= ϵi i ···i ϵj j ···j Aj i Aj i · · · Ajn in
n! 1 2 n 1 2 n 1 1 2 2
1
= ϵj j ···j ϵi i ···i Aj i Aj i · · · Ajn in ,
n! 1 2 n 1 2 n 1 1 2 2
esto es,
1
det AT = ϵj j ···j ϵi i ···i Aj i Aj i · · · Ajn in .
n! 1 2 n 1 2 n 1 1 2 2
Ahora, deniendo
i′k = jk , jk′ = ik

tenemos
1
det AT = ϵj j ···j ϵi i ···i Aj i Aj i · · · Ajn in
n! 1 2 n 1 2 n 1 1 2 2
1
= ϵi′ i′ ···i′ ϵj ′ j ′ ···j ′ Ai′ j ′ Ai′ j ′ · · · Ai′n jn′ ,
n! 1 2 n 1 2 n 1 1 2 2
= det A,

de donde
det AT = det A.

Así, hemos probado el resultado (4.28).

Particularmente, si A es antisimétrica, es decir, si cumple


AT = −A,

74
se obtiene
det AT = det(−A) = (−)n det A = det A.
es decir
det A = (−)n det A.
Por lo que si n es impar y A es una matriz antisimétrica se encuentra

det A = 0.

4.7.1. Ejemplos
Consideremos la matriz
 
1 −1 2
A =  3 −1 4 ,
2 1 −2
en este caso el determinate es
det A = −6.
Además se puede observar que la transpuesta de A es
 
1 3 2
AT =  −1 −1 1 ,
2 4 −2
que tiene el determinante
det AT = −6.
Por lo que se cumple
det A = det AT = −6.
También se puede observar que la siguiente matriz de 3 × 3
 
0 3 −2
M =  −3 0 4 ,
2 −4 0
es antisimétrica y se cumple
det M = 0.

75
4.8. Determinante de un producto de matrices
Supongamos que A y B son matrices de n × n, probaremos que se cumple

det(AB) = det A det B. (4.29)

Se puede observar que de la ecuación (4.27) se tiene


1
det(AB) = ϵi i ···i ϵj j ···j (AB)i1 j1 (AB)i2 j2 · · · (AB)in jn
n! 1 2 n 1 2 n
1
= ϵi i ···i ϵj j ···j Ai k Bk j Ai k Bk j · · · Ain kn Bkn jn
n! 1 2 n 1 2 n 1 1 1 1 2 2 2 2
1
= (ϵi i ···i Ai k Ai k · · · Ain kn ) (ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn ) .
n! 1 2 n 1 1 2 2
Antes de continuar analicemos la expresión
ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn ,

observe que usando la denición de matriz transpuesta, obtenemos


ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn = ϵi1 i2 ···in ATk1 i1 ATk2 i2 · · · ATkn in . (4.30)
También recordemos que según la ecuación (4.12), el determinante de la matriz
transpuesta se puede escribir como
det AT = ϵi1 i2 ···in AT1i1 AT2i2 · · · ATnin . (4.31)
Notemos que para pasar de la expresión (4.30) a la expresión (4.31) debemos
colocar el índice 1 en lugar del índice k1 , el índice 2 en lugar k2 y así sucesiva-
mente hasta colocar n en el lugar del índice kn . En otras palabras, para pasar
de la expresión (4.30) a la expresión (4.31) debemos realizar la permutación
 
1 2 ··· n
, (4.32)
k1 k2 · · · kn

que supondremos que tiene paridad P . Por lo que las expresiones (4.30) y
(4.31) dieren en un término de la forma (−1)P . Entonces
ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn = ϵi1 i2 ···in ATk1 i1 ATk2 i2 · · · ATkn in
= (−)P det AT
= (−)P det A.

76
esto es
ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn = (−)P det A. (4.33)
De la misma forma se cumple
ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn = (−)P det B. (4.34)
Considerando los resultados (4.33) y (4.34), si los índices k1 , k2 , · · · , kn están
jos, se encuentra
ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn = det A det B.
Así, debido a que existen n! permutaciones, si los índices k1 , k2 , · · · , kn no están
jos y se suman, tenemos
(ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn ) (ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn ) = n! det A det B.
Usando este resultado en la ecuación (4.30) llegamos a
1
det(AB) = (ϵi i ···i Ai k Ai k · · · Ain kn ) (ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn ) .
n! 1 2 n 1 1 2 2
1
= n! det A det B = det A det B.
n!
es decir
det(AB) = det A det B.
Por lo tanto la expresión (4.29) es correcta.

En especial si
A−1 A = I,
entonces
1 = det I = det A−1 A = det A−1 det (A) .
 

Por lo tanto si det(A) ̸= 0, entonces

1
det A−1 =

.
det A

77
4.8.1. Ejemplos
Como un ejemplo consideremos las matrices
   
2 −3 2 −2 1 5
A =  1 −1 0 , B =  3 0 1 ,
2 4 −2 6 1 1

cuyo producto es
 
−1 −4 9
AB =  −5 1 4 .
−4 0 12

Además, los determinantes son


det A = 10,
det B = 20,
det (AB) = 200,

por lo que se cumple


det(AB) = det(A) det(B).

Como otro ejemplo, consideremos la matriz


 
1 1
M=
−1 1
cuya inversa es
 
−1 1 1 −1
M = .
2 1 1

En este caso se tienen los determinantes


det M = 2,
1
det M −1 = ,
2
por lo cual se cumple
1
det M −1 = .
det M
78
En 1812, Augustin-Louis Cauchy introduce la versión moderna de determi-
nante. Sin embargo, en China el uso de determinantes para resolver sistemas
de ecuaciones lineales data de dos siglos antes de Cristo. En la idea de deter-
minante convergen diferentes áreas de las matemáticas como la combinatoria,
el álgebra y la geometría euclidiana. Por ejemplo, en 1773 Lagrange muestra
que los determinantes de 3 × 3 están relacionados con el volumen de un para-
lelépipedo. De la misma forma, el determinante es importante para el cálculo
de varias variables y la geometría diferencial.

Augustin-Louis Cauchy (1789-1857) fue un matemático francés que reali-


zó aportaciones fundamentales en áreas como el análisis matemático, variable
compleja, geometría y mecánica analítica. Publicó un poco menos de 800 ar-
tículos y su nombre está asociado a teoremas de diferentes áreas de las mate-
máticas. Además, a Cauchy se le debe la fundamentación rigurosa de diversos
conceptos matemáticos, como los de límite y convergencia. Cauchy nació un
mes antes de que iniciara la revolución francesa. El padre de Cauchy fue funcio-
nario de la monarquía francesa, pero perdió su cargo cuando la monarquía fue
derrotada. El padre de Cauchy pudo acomodarse en el nuevo régimen republi-
cano francés y cultivó amistad con matemáticos republicanos como Lagrange
y Laplace. En particular, Lagrange inuyó en la educación de Cauchy hijo y lo
recomendó para sus estudios universitarios. Como estudiante, Cauchy destaca
en humanidades, pero se decide por las matemáticas y la física. Al terminar sus
estudios universitarios trabaja como ingeniero en la naval de Napoleón, pero
su sueño era ser profesor de matemáticas y realizar investigación. Mientras tra-
bajaba como ingeniero, dedicó su tiempo libre a la investigación matemática y
logró algunos resultados importantes. Después de que Napoleón es derrotado y
se reinstala la monarquía en Francia, se reestructura la Academia de Ciencias
de Francia y varios acadámicos como Carnot son despedidos. Sin embargo, la
monarquía le ofrece Cauchy un puesto en la Academia de Ciencias y él acepta,
por lo que se le consideró como un traidor por parte de sus colegas republi-
canos. Cuando la Monarquía es derrotada de nuevo, Cauchy tiene que huir
de Francia a Suiza y después a varios países de Europa. Cuando se estabiliza
Francia, Cauchy pudo retomar su trabajo y terminó su vida como profesor de
matemáticas. Cauchy es reconocido como uno de los matemáticos más impor-
tantes de Francia y su nombre se encuentra gravado en la Torre Eiel.

79
4.9. Operaciones con Python
Si queremos calcular el determinante de una matriz de la forma
 
1 7 8 9
−1 3 6 5
A= 
2 1 0 −3
−1 2 1 8

podemos emplear el siguiente código en Python


1 import numpy as np
2 A = np . array ([[1 ,7 ,8 ,9] ,[ -1 ,3 ,6 ,5] ,[2 ,1 ,0 , -3] ,[ -1 ,2 ,1 ,8]
3 ])
4 np . linalg . det ( A )
Listing 4.1: Determinante de una matriz
el cual da el resultado
-4

4.10. Ejercicios
1.- Considere las matrices
 
1 −12 7
A =  3 −11 4 
2 1 −5

a) Obtener det A.

b) Obtener AT y det AT .

c) Obtener det(7A).

2.- Considere las matrices


   
11 −3 1 1 −3 6
A= 0 2 5 , B= 2 4 3 .
3 1 −4 7 5 1

a) Obtener AB.

80
b) Obtener det A y det B

c) Obtener det(B) det(A).

d) Obtener det(BA).

81
Capítulo 5
Matriz adjunta e inversa de una
matriz
En este capítulo veremos la denición de matriz adjunta. Esta denición
es importante porque nos ayuda a obtener la matriz inversa de una matriz.

5.1. Denición
Hemos mostrado que el determinante de una matriz A se puede escribir
como
1
det A = ϵi i ···i ϵj j ···j Ai j Ai j · · · Ain jn .
n! 1 2 n 1 2 n 1 1 2 2

Observe que dado un número jo r tenemos



1
det A = ϵri2 ···in ϵij2 ···jn Ari Ai2 j2 · · · Ain jn +
n!
+ϵi1 ri3 ···in ϵj1 ij3 ···jn Ai1 j1 Ari Ai3 j3 · · · Ain jn +

+ · · · + ϵi1 i2 ···in−1 r ϵj1 ij3 ···jn−1 i Ai1 j1 Ai3 j3 · · · Ain−1 jn−1 Ari ,

note que en esta expresión el índice r es jo, mientras que el índice i se suma.
Además, factorizando el término Ari llegamos a

1
det A = Ari ϵri2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn +
n!
+ϵi1 ri3 ···in ϵj1 ij3 ···jn Ai1 j1 Ai3 j3 · · · Ain jn +

+ · · · + ϵi1 i2 ···in−1 r ϵj1 ij3 ···jn−1 i Ai1 j1 Ai2 j2 · · · Ain−1 jn−1 ,

82
ahora pasado al inicio de cada tensor de Levi-Civita los índices r, i obtenemos
n
det A = Ari ϵki2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn
n!
1
= Ari ϵki2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn .
(n − 1)!
esto es
1
det A = Ari ϵki2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn . (5.1)
(n − 1)!
A la matriz

1
(AdjA)ri = ϵri ···i ϵij ···j Ai j · · · Ain jn . (5.2)
(n − 1)! 2 n 2 n 2 2

le llamaremos matriz adjunta de la matriz A. Observe que en la matriz adjunta


AdjA están todos los renglones de A excepto el renglón r.

También observe que usando la igualdad (5.1) tenemos que


det A = Ari (AdjA)ri = Ari (AdjA)Tir = (A(AdjA)T )rr ,
es decir
det A = A(AdjA)T (5.3)

rr
.

Como este resultado es válido para cualquier número r, entonces las compo-
nentes de la diagonal de la matriz A (AdjA)T son todas iguales al determinante
de A, det A.

Ahora veamos como son las componentes de la matriz A(AdjA)T fuera de


la diagonal. Consideremos r ̸= s y que
A(AdjA)T = Ark (AdjA)Tks = Ark (AdjA)sk , (5.4)

rs

note que en la denición de las componentes de la matriz (AdjA)sk están


todos los renglones de la matriz A excepto el renglón s. En particular, está
el renglón r. Ahora, usando la denición de la matriz adjunta en la expresión
(5.4), obtenemos
1
A(AdjA)T

= Ark ϵsi ···i ϵkj ···j Ai j · · · Ain jn
rs (n − 1)! 2 n 2 n 2 2
1
= ϵsi ···i ϵkj ···j Ark Ai2 j2 · · · Ain jn . (5.5)
(n − 1)! 2 n 2 n

83
Debido a que el reglón r ya está considerado en la denición de la matriz
adjunta (5.2), la ecuación (5.5) representa al determinante de una matriz con
dos renglones que se repiten, entonces se debe cumplir que
A(AdjA)T

rs
= 0, r ̸= s.
Por lo tanto,
A(AdjA)T

rs
= det Aδrs ,
es decir,
A(AdjA)T = (det A)I. (5.6)
de donde
(AdjA)T
A = I.
det A
De este resultado se puede deducir que si

det A ̸= 0,

entonces la inversa de la matriz A es

1
A−1 = (AdjA)T .
det A

Por lo tanto, una matriz A tiene inversa siempre y cuando sus renglones (y
por lo tanto sus columnas) sean linealmente independientes.

5.2. Matriz de 2 × 2
Como un ejemplo veamos la matriz de 2 × 2
 
A11 A12
A= ,
A21 A22
podemos ver que en este caso la matriz adjunta (5.2) es

(Adj)ab = ϵai ϵbj Aij , a, b, i, j = 1, 2.

84
De donde se obtiene
(Adj)11 = ϵ1i ϵ1j Aij = ϵ12 ϵ12 A22 = A22 ,
(Adj)12 = ϵ1i ϵ2j Aij = ϵ12 ϵ21 A21 = −A21 ,
(Adj)21 = ϵ2i ϵ1j Aij = ϵ21 ϵ12 A12 = A12 ,
(Adj)22 = ϵ2i ϵ2j Aij = ϵ21 ϵ21 A11 = A11 ,
así tenemos la matriz
 
A22 −A21
Adj(A) = ,
−A12 A11
por lo que la matriz inversa es
 
−1 1 1 A22 −A12
A = Adj(A)T = .
det A A11 A22 − A12 A21 −A21 A11

5.3. Matriz de 3 × 3
Como otro ejemplo veamos la matriz de 3 × 3
 
A11 A12 A13
A =  A21 A22 A23  .
A31 A32 A33
Podemos ver que en este caso la matriz adjunta (5.2) es

1
(Adj)ab = ϵai i ϵbj j Ai j Ai j , a, b = 1, 2, 3,
2! 1 2 1 2 1 1 2 2

De donde se obtiene
1
(Adj)11 = ϵ1i i ϵ1j j Ai j Ai j
2 12 12 11 22
1
= (ϵ123 ϵ1j1 j3 A2j1 A3j3 + ϵ132 ϵ1j1 j2 A3j1 A2j2 )
2
1
= ϵ1j j (A2j1 A3j3 − A3j1 A2j2 )
2 13
1 1
= ϵ123 (A22 A33 − A32 A23 ) + ϵ132 (A23 A32 − A33 A22 )
2 2
= (A22 A33 − A32 A23 )
 
A22 A23 A22 A23
= det = ,
A32 A33 A32 A33

85
esto es
 
A22 A23 A22 A23
(Adj)11 = (A22 A33 − A32 A23 ) = det = .
A32 A33 A32 A33

De la misma forma, se encuentran


 
A21 A23 A21 A23
(Adj)12 = A23 A31 − A21 A33 = − det =− ,
A31 A33 A31 A33
 
A21 A22 A21 A22
(Adj)13 = A21 A32 − A22 A31 = det = ,
A31 A32 A31 A32
 
A12 A13 A12 A13
(Adj)21 = A13 A32 − A12 A33 = − det =− ,
A32 A33 A32 A33
 
A11 A13 A11 A13
(Adj)22 = A11 A33 − A13 A31 = det = ,
A31 A33 A31 A33
 
A11 A12 A11 A12
(Adj)23 = A31 A12 − A32 A11 = − det =− ,
A31 A32 A31 A32
 
A12 A13 A12 A13
(Adj)31 = A12 A23 − A13 A22 = det = ,
A22 A23 A22 A23
 
A11 A13 A11 A13
(Adj)32 = A13 A21 − A11 A23 = − det =− ,
A21 A23 A21 A23
 
A11 A12 A11 A12
(Adj)33 = A11 A22 − A12 A21 = det = .
A21 A22 A21 A22

Por lo tanto,

 
A22 A23 A21 A23 A21 A22
 + A32 − +
 A33 A31 A33 A31 A32 

 A12 A13 A11 A13 A11 A12 
 − A32
Adj(A) =  + − .
 A33 A31 A33 A31 A32 

 A12 A13 A11 A13 A11 A12 
+ − +
A22 A23 A21 A23 A21 A22

86
Así,

1
A−1 = Adj(A)T
det A
 T
A22 A23 A21 A23 A21 A22
 + A32 − +
 A33 A31 A33 A31 A32 

1   − A12 A13 A11 A13 A11 A12 
= + − 
det A 
 A32 A33 A31 A33 A31 A32 

 A12 A13 A11 A13 A11 A12 
+ − +
A22 A23 A21 A23 A21 A22
 
A22 A23 A12 A13 A12 A13
 + A32 − +
 A33 A32 A33 A22 A23 

1   − A21 A23 A11 A13 A11 A13 
= + − .
det A 
 A31 A33 A31 A33 A21 A23 

 A21 A22 A11 A12 A11 A12 
+ − +
A31 A32 A31 A32 A21 A22

De forma análoga, se puede obtener la matriz inversa de matrices de otras


dimensiones.

5.4. Operaciones con Python


Si queremos obtener la inversa de la matriz
 
1 0 6 9
−1 3 6 4 
A= 
 3 −1 6 3 
1 5 6 −1

podemos emplear el siguiente código en Python


1 import numpy as np
2 A = np . array ([[1 ,0 ,6 ,9] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,5 ,6 , -1]
3 ])
4 np . linalg . inv ( A )
Listing 5.1: Inversa de una matriz
el cual da el resultado

87
array([[0.31428571,-0.57142857,-0.07142857,0.32857143],
[0.25714286,-0.28571429,-0.28571429,0.31428571],
[-0.22857143,0.30952381,0.22619048,-0.14047619],
[0.22857143,-0.14285714,-0.14285714,0.05714286]])

5.5. Ejercicios
1.- Considere la matriz
 
1 2 5
A=4 5 6 .
7 8 9

a) Obtener la matriz adjunta de A.

b) Obtener la matriz inversa de A.

88
Capítulo 6
Sistema de ecuaciones lineales de
n × n, método de Cramer

En este capítulo estudiaremos el llamado método de Cramer para obtener


la solución de un sistema de n ecuaciones lineales con n incógnitas.

6.1. Caso general


Supongamos que tenemos n incógnitas
x1 , x2 , · · · , xn
que satisfacen n ecuaciones lineales

A11 x1 + A12 x2 + · · · + A1n xn =k1 , (6.1)


A21 x1 + A22 x2 + · · · + A2n xn =k2 , (6.2)
..
.
An1 x1 + An2 x2 + · · · + Ann xn =kn , (6.3)

donde Aij , ki (i, j = 1, · · · , n) son constantes dadas. Observe que deniendo la


matriz y los vectores
     
A11 A12 · · · A1n x1 k1
 A21 A22 · · · A2n   x2   k2 
A= .. .. . . .. , X =  ..  , K =  ..  ,
     
 . . . .   .   . 
An1 An2 · · · Ann xn kn

89
el sistema de ecuaciones (6.1)-(6.3) se puede escribir como

AX = K.

Note que cuando det A ̸= 0, la matriz A es invertible y se cumple

X = A−1 K. (6.4)

Si la matriz A no es invertible se debe a que no todos sus renglones son


linealmente independientes, esto nos indica que no todas las ecuaciones son li-
nealmente independientes. Cuando esto ocurre habrá más incógnitas que ecua-
ciones y tendremos un número innito de soluciones. Pero si la matriz A es
invertible, la solución es única y está dada por la ecuación (6.4).

Como podemos observar, que utilizando las herramientas que desarrolla-


mos en el capítulo anterior es posible resolver un sistema de n ecuaciones con
n incógnitas.

6.2. Caso 2 × 2
Supongamos que tenemos el siguiente sistema de ecuaciones
A11 x1 + A12 x2 = k1 ,
A21 x1 + A22 x2 = k2 ,

Por lo que, con la matriz y los vectores


     
A11 A12 x1 k1
A= , X= , K= ,
A21 A22 x2 k2

este sistema de ecuaciones se puede escribir como


AX = K.

Si det A ̸= 0, la matriz A es invertible y se cumple


X = A−1 K.

90
En este caso la matriz inversa es
 
−1 1 A22 −A12
A = ,
A11 A22 − A12 A21 −A21 A11
Así tenemos la solución
    
x1 1 A22 −A12 k1
= ,
x2 A11 A22 − A12 A21 −A21 A11 k2
de donde se obtienen los valores
A22 k1 − A12 k2
x1 = ,
A11 A22 − A12 A21
−A21 k1 + A11 k2
x2 = .
A11 A22 − A12 A21

6.3. Caso 3 × 3
Supongamos que tenemos el siguiente sistema de ecuaciones
A11 x1 + A12 x2 + A13 x3 = k1 ,
A21 x1 + A22 x2 + A23 x3 = k2 ,
A31 x1 + A32 x2 + A33 x3 = k3 .
Por lo que, usando la matriz y los vectores
    
A11 A12 A13 x1 k1
A =  A21 A22 A23  , X =  x2  , K =  k2  ,
A31 A32 A33 x3 k3
este sistema de ecuaciones se puede escribir como
AX = K.
Si det A ̸= 0, la matriz A es invertible y se cumple
X = A−1 K.
esta ecuación tiene la forma concreta
 
A22 A23 A12 A13 A12 A13
 + A32 − +
  A33 A32 A33 A22 A23  
x1   k1
1  − A21
 A23 A11 A13 A11 A13 
 x2  = + −   k2  ,
det A  A31 A33 A31 A33 A21 A23 
x3   k3
 A21 A22 A11 A12 A11 A12 
+ − +
A31 A32 A31 A32 A21 A22

91
es decir
 
1 A22 A23 A12 A13 A12 A13
x1 = k − k + k ,
det A A32 A33 1 A32 A33 2 A22 A23 3
 
1 A21 A23 A11 A13 A11 A13
x2 = − k + k − k ,
det A A31 A33 1 A31 A33 2 A21 A23 3
 
1 A21 A22 A11 A12 A11 A12
x3 = k − k + k .
det A A31 A32 1 A31 A32 2 A21 A22 3
A este método de solución de sistemas ecuaciones lineales se le llama método
de Cramer.

Gabriel Cramer (1704-1752) fue un matemático suizo que trabajó en mecáni-


ca celeste, curvas algebraicas y sistemas de ecuaciones. En particular, demostró
que los sistemas de ecuaciones lineales se pueden resolver mediante determi-
nantes. Fue un matemático precoz que se doctoró a los 18 años y a los 20 años
fue profesor de la Universidad de Ginebra. Murió debido a las complicaciones
de una caída de un carruaje.

6.4. Ejemplo concreto


Ahora consideremos el sistema de ecuaciones
x + 2z = 1, (6.5)
x + 3y + 2z = 4, (6.6)
3y + 2z = 3. (6.7)
En este caso tenemos la matriz asociada y los vectores
     
1 0 2 x 1
A =  1 3 2 , X =  y , K =  4 .
0 3 2 z 3
Podemos ver que
det A = 6,

92
por lo que la matriz A tiene inversa y el sistema de ecuaciones tiene solución.
Además,
 
1 3 2 0 2 0 2
x = − 4+ 3 ,
6 3 2 3 3 3 2
 
1 1 2 1 2 1 2
y = − + 4− 3 ,
6 0 2 0 2 1 2
 
1 1 3 1 0 1 0
z = − 4+ 3 ,
6 0 3 0 3 1 3

por lo cual la solución al sistema de ecuaciones lineales (6.5)-(6.7) es


x = 1, y = 1, z = 0.

El método de Cramer es sistemático y nos indica cuando el sistema de ecua-


ciones tiene solución. Sin embargo, en algunos casos puede ser muy laborioso.
En el próximo capítulo veremos un método de solución diferente al de Cramer.

6.5. Ejercicios
1.- Usando el método de Cramer, resolver el sistema de ecuaciones lineales
x + 2y + 3z = 9,
4x + 5y + 6z = −5,
7x + 8y − z = 3.

2.- Usando el método de Cramer, resolver el sistema de ecuaciones lineales


8x + y − 3z = −1,
x + 3y + 2z = 2,
6x + y + 5z = −7.

93
Capítulo 7
Sistema de ecuaciones lineales de
n × n, método de Gauss-Jordan

En este capítulo veremos el método de Gauss-Jordan para resolver sistemas


de ecuaciones lineales con n ecuaciones y n variables.

Mostraremos este método mediante ejemplos y después daremos una des-


cripción del algoritmo general.

7.1. Ecuación de una variable


Una ecuación lineal de una variable tiene la forma

ax + b = 0, (7.1)

donde se supone que a y b son constantes conocidas, con a ̸= 0. En este pro-


blema debemos determinar el valor de x para que se cumpla la ecuación (7.1).

Sumando de ambos lados de la ecuación (7.1) el inverso aditivo de b, se


obtiene
ax + b + (−b) = 0 + (−b),
es decir
ax = −b. (7.2)
Además, multiplicando en ambos lados de la ecuación (7.2) por el inverso
multiplicativo de a, se obtiene
a−1 ax = −a−1 b,

94
es decir
b
x=− .
a

Esta es la solución de la ecuación (7.1).

7.2. Sistemas ecuaciones lineales de 2 × 2


Ahora veamos el caso de 2 × 2.

Un sistema de ecuaciones lineales de 2 × 2 tiene la forma

ax + by =c, (7.3)
dx + ey =f, (7.4)

donde se supone que a, b, c, d, e, f son constantes conocidas.

En este caso, podemos ocupar que sabemos resolver una ecuación lineal de
una incógnita. En efecto, multipliquemos por d a la ecuación (7.3) y por a a
la ecuación (7.4), así obtenemos
dax + dby = dc,
adx + aey = af,

al restar estas dos últimas ecuaciones, llegamos a


dax − adx + (db − ae)y = dc − af,

es decir,
(db − ae)y = dc − af.

Así, tenemos el sistema de ecuaciones


ax + by = c, (7.5)
(db − ae)y = dc − af. (7.6)

95
Observe que la ecuación (7.6) es una ecuación lineal de una incóngnita, de
hecho tenemos
ax + by = c,
dc − af af − dc
y = = ,
db − ae ae − db
esto es
ax + by = c, (7.7)
af − dc
y = . (7.8)
ae − db
Ahora al multiplicar por b a la ecuación (7.8) y restar el resultado a la ecuación
(7.7) obtenemos el sistema
af − dc
ax + by − by = c − b ,
ae − db
af − dc
y = ,
ae − db
que se puede escribir de la forma
ce − f b
ax = a ,
ae − db
af − dc
y = .
ae − db
Por lo tanto, la solución al sistema de ecuaciones que estamos estudiando es

ce − bf
x= , (7.9)
ae − db
af − dc
y= . (7.10)
ae − db

7.2.1. Ejemplo
Consideremos el sistemas de ecuaciones
2x + 3y = 6,
4x − 5y = 2.

96
Entonces, multiplicando por 2 a la primera ecuación y restándola a la segunda
ecuación, llegamos a
2x + 3y = 6,
−11y = −10.

Ahora, en este nuevo sistema, multiplicando por − 111 a la segunda ecuación


tenemos
2x + 3y = 6,
10
y = .
11
Además, de este último sistema multiplicando por −3 a la segunda ecuación y
sumándola a la primera ecuación tenemos
36
2x = ,
11
10
y = ,
11
que implica la solución
18
x = ,
11
10
y = .
11

7.3. Sistemas ecuaciones lineales de 3 × 3


Ahora veremos el caso de un sistema de ecuaciones de 3 × 3 Un sistema de
ecuaciones lineales de 3 × 3 tiene la forma

a1 x + a2 y + a3 z =a4 , (7.11)
b1 x + b2 y + b3 z =b4 , (7.12)
c1 x + c2 y + c3 z =c4 . (7.13)

Para resolver este problema ocuparemos el mismo método desarrollado para


resolver el sistema de 2 × 2.

97
Primero multiplicamos a la ecuación (7.13) por b1 y a la ecuación (7.12) por
c1 , posteriormente restamos el resultado de estas dos operaciones y colocamos
el resultado en el lugar de la tercera ecuación. Por lo que se obtienen el sistema
a1 x + a2 y + a3 z = a4 ,
b 1 x + b2 y + b3 z = b4 ,
(c1 b1 − b1 c1 )x + (c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ),

esto es
a1 x + a2 y + a3 z = a4 , (7.14)
b 1 x + b2 y + b3 z = b4 , (7.15)
(c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ). (7.16)
Ahora, multiplicamos por a1 a la ecuación (7.15) y por b1 a la ecuación (7.14),
posteriomente restamos el resultado de estas dos operaciones y colocamos el
resultado en el lugar de la segunda ecuación. Así se obtienen el sistema
a1 x + a2 y + a3 z = a4 ,
(b1 a1 − a1 b1 )x + (b2 a1 − b1 a2 )y + (b3 a1 − b1 a3 )z = (b4 a1 − b1 a4 ),
(c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ),

de donde
a1 x + a2 y + a3 z = a4 , (7.17)
(b2 a1 − b1 a2 )y + (b3 a1 − b1 a3 )z = (b4 a1 − b1 a4 ), (7.18)
(c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ). (7.19)
Note, que deniendo las constantes
b̃2 = (b2 a1 − b1 a2 ), b̃3 = (b3 a1 − b1 a3 ), b̃4 = (b4 a1 − b1 a4 ),
c̃2 = (c2 b1 − c1 b2 ), c̃3 = (c3 b1 − c1 b3 ), c̃4 = (c4 b1 − c1 b4 ),

el sistema (7.17)-(7.19) se puede escribir como


a1 x + a2 y + a3 z = a4 , (7.20)
b̃2 y + b̃3 z = b̃4 , (7.21)
c̃2 y + c̃3 z = c̃4 . (7.22)
Observe que en las ecuaciones (7.21)-(7.22) no aparece la incógnita x, por lo
que estas dos ecuaciones forman un sistema de ecuaciones lineales de 2 × 2.

98
Así, usando el método desarrollado anteriormente, llegamos a
a1 x + a2 y + a3 z = a4 , (7.23)
b̃4 c̃3 − b̃3 c̃4
y = B4 = , (7.24)
b̃2 c̃3 − c̃2 b̃3
b̃2 c̃4 − c̃2 b̃4
z = C4 = . (7.25)
b̃2 c̃3 − c̃2 b̃3
Adicionalmente, multiplicando la ecuación (7.24) por −a2 y sumando el resul-
tado a la ecuación (7.23), se obtiene el sistema
a1 x + a3 z = a4 − B4 a2 , (7.26)
y = B4 , (7.27)
z = C4 . (7.28)
Además, multiplicando la ecuación (7.28) por −a3 y sumando el resultado a la
ecuación (7.26), se obtiene el sistema
a1 x = a4 − B4 a2 − C4 a3 ,
y = B4 ,
z = C4 .

Por lo que nalmente se encuentra la solución

a4 − B4 a2 − C4 a3
x =A4 , A4 = ,
a1
y =B4 ,
z =C4 .

7.4. Ejemplos
Consideremos el siguiente sistema de ecuaciones
3x − 5y + 6z = 9, (7.29)
5x − y + 2z = 2, (7.30)
x − 2y + z = −1. (7.31)

99
Para resolver este sistema ecuaciones primero pasamos la tercera ecuación al
inicio y obtenemos
x − 2y + z = −1,
3x − 5y + 6z = 9,
5x − y + 2z = 2.

Ahora, de este sistema multiplicamos por −3 a la primera ecuación y la suma-


mos a la segunda ecuación, el resultado lo ponemos en la segunda ecuación.
Además multiplicamos por −5 a la primera ecuación y la sumamos a la tercera
ecuación, el resultado lo ponemos en la tercera ecuación. Así, obtenemos
x − 2y + z = −1,
y + 3z = 12,
9y − 3z = 7.

Para continuar, de este nuevos sistema multiplicamos por −9 a la segunda


ecuación y la sumamos a la primera ecuación, el resultado de este procedi-
miento lo ponemos en la tercera ecuación. Entonces llegamos al sistema
x − 2y + z = −1,
y + 3z = 12,
−30z = −101

que implica
x − 2y + z = −1,
y + 3z = 12,
101
z = .
30
Adicionalmente, de este nuevo sistema multiplicamos por −3 a la tercera ecua-
ción y la sumamos a la segunda ecuación, el resultado de este procedimiento
lo ponemos en la segunda ecuación y llegamos a
x − 2y + z = −1,
19
y = ,
10
101
z = .
30

100
Además, en el último sistema que hemos obtenido, restando la tercera ecuación
a la primera y colocando el resultado de este procedimiento en la primera
ecuación obtenemos
131
x − 2y = − ,
30
19
y = ,
10
101
z = .
30
Finamente, multiplicando la segunda ecuación por −2 y sumándola a la pri-
mera ecuación llegamos a
17
x = − ,
30
19
y = ,
10
101
z = ,
30
que es la solución del sistema de ecuaciones (7.29)-(7.31).

7.5. Método de Gauss-Jordan


El método que hemos usado para resolver sistemas de ecuaciones lineales
se basa en los siguientes pasos:

1.- Podemos cambiar de lugar las ecuaciones o variables. Note que al hacer
esto no cambia en nada al sistema.

2.- Multiplicar por un escalar a una ecuación y colocar el resultado en el


lugar de dicha ecuación.

3.- Realizar combinaciones lineales de ecuaciones y colocar el resultado en


el lugar de una de las ecuacione involucradas en la combinación lineal.

Todas estas operaciones se realizan con el objetivo de dejar una sola varia-
ble en cada renglón.

101
Wilhelm Jordan (1842-1899) fue un ingeniero alemán. Realizó sus estudios
en el Instituto Politécnico de Stuttgart. Sus libros de Geodesia son considerados
clásicos en su área. Especialmente su libro Handbuch der Vermessungskunde
ha sido usado como texto en diferentes partes del mundo, aún después de más
de un siglo de haber sido escrito. En dicha obra, Jordan introduce lo que hoy
se conoce como método de Gauss-Jordan para resolver sistemas de ecuacio-
nes lineales. Además de la ingeniería, tenía pasión por los viajes y un espíritu
aventurero que lo llevó a realizar expediciones a África. Terminó su vida como
profesor en la Universidad Técnica de Hannover.

Carl Friedrich Gauss (1777-1855) fue un matemático alemán que contribuyó


enormemente en diversas áreas como la teoría de números, geometría diferen-
cial, probabilidad, análisis matemático, electrostática, etc. Sus padres fueron
campesinos alemanes que no sabían leer ni escribir, pero gracias a su trabajo
y talento hoy se le conoce como el Príncipe de las Matemáticas. No sembró en
campos de cultivos como sus padres, pero sembró resultados importantes en
las matemáticas. Por ejemplo, la llamada distribución gaussiana se usa para
modelar fenómenos naturales, sociales, económicos, nancieros, etc.; la llama-
da ley de Gauss se usa para describir fenómenos eléctricos y gravitacionales;
el teorema de Gauss del cálculo de varias variables es una generalización del
teorema fundamental del cálculo; la curvatura gaussiana fue el primer paso
para lo que hoy se conoce como geometría diferencial, que permitió la cons-
trucción de la Relatividad General de Einstein; su ley de mínimos cuadrados
también tiene diversas aplicaciones en diferentes disciplinas. Cuando apenas
era un niño, un profesor rural le ayudó a mejorar su alemán y descubrió su
enorme talento para las matemáticas. Dicho profesor lo recomendó para que
pudiera continuar sus estudios, posteriormente conoció al matemático Martin
Barteles con quien estudió los trabajos clásicos de Newton, Euler y Lagrange.
Realizó sus estudios doctorales en la universidad de Götingen en donde fue
profesor. Gauss murió de un ataque al corazón.

102
Cabe hacer notar que el método de Gauss-Jordan se le atribuye a Carl
Friedrich Gauss y Wilhelm Jordan. Sin embargo, este método se puede ver en
los libros del matemático chino Jiuzhang Suanshu, los cuales se escribieron 150
años antes de Cristo.

7.6. Ejercicios con Python


Si tenemos el sistema de ecuaciones
x − 2y + 6z + 9w = 5,
−x + 3y + 6z + 4w = 7,
3x − y + 6z + 3w = 3,
x + 5y + 6z − w = 1,

donde la matriz
 
1 −2 6 9
−1 3 6 4 
 
 3 −1 6 3 
x 5 6 −1

es invertible, entonces para resolver el sistema de ecuaciones se puede ocupar


el siguiente código de Python
1 import numpy as np
2 a = np . array ([[1 , -2 ,6 ,9] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,5 ,6 , -1]
3 ])
4 b = np . array ([5 ,7 ,3 ,1])
5 c = np . linalg . inv ( a )
6 np . dot (c , b )
Listing 7.1: Sistema de ecuaciones lineales
que arroja el resultado
array([-3.94117647,-2.58823529,2.74509804,-1.41176471])

103
7.7. Ejercicios
1.- Usando el método de Gauss-Jordan, resolver el sistema de ecuaciones
lineales
−x + y + 4z = 8,
x + 5y + 2z = −5,
3x + y − 5z = −7.

Comparar sus resultado con el obtenido con Python.

2.- Usando el método de Gauss-Jordan, resolver el sistema de ecuaciones


lineales
4x − 4y + z = 5,
2x + y + z = −2,
3x + 2y + 9z = 9.

Comparar sus resultado con el obtenido con Python.

104
Capítulo 8
Método de Gauss-Jordan usando
matrices
En este capítulo veremos el método de Gauss-Jornan usando matrices.

8.1. Caso 2 × 2
En el método de Gauss-Jornan para resolver sistemas de ecuaciones lineales
las incógnitas no juegan un papel relevante, por lo que es posible olvidarlas
mientras se resuelve el sistema. Para mostrar este hecho, recordemos un sistema
de ecuaciones de 2 × 2 tiene la forma

ax + by =c,
dx + ey =f,

y su solución es
ce − bf
x = ,
ae − db
af − dc
y = .
ae − db
Ahora, este sistema de ecuaciones se puede escribir de la forma

    
a b x c
= . (8.1)
d e y f

105
Además, usando esta notación su solución se puede escribir como

    ce−bf 
1 0 x
= ae−db
af −dc . (8.2)
0 1 y ae−db

Desde el punto matricial, para obtener la solución un sistema de ecuaciones de


2 × 2 debemos pasar de la matriz

 
a b
d e

a la matriz identidad
 
1 0
.
0 1

Ahora, note que para tener todas las constantes importantes del sistema de
ecuaciones en una matriz podemos proponer la llamada Matriz extendida

 
a b c
, (8.3)
d e f

que es una representación del sistema de ecuaciones (8.1). Con esta represen-
tación la solución del sistema de ecuaciones (8.2) se puede escribir como

 ce−bf 
1 0 ae−db
af −dc , (8.4)
0 1 ae−db

Por lo tanto, resolver el sistema de ecuaciones (8.1) equivale a pasar de la ma-


triz extendida (8.3) a la matriz extendida (8.4) usando los pasos permitidos
del método del Gauss-Jordan.

En este caso el Método de Gauss-Jordan consiste en:

106
1.- Intercambiar renglones o columnas.

2.- Multiplicar por un escalar a un renglón y colocar el resultado en el lugar


de dicho renglón.

3.- Realizar combinaciones lineales de renglones y colocar el resultado en


el lugar de uno de los renglones involucrados en la combinación lineal.

Todas estas operaciones se realizan con el objetivo de dejar una matriz


diagonal de lado izquierdo de la matriz extendida.

8.2. Ejemplos
8.2.1. Sistema 2 × 2
Consideremos el siguiente sistema
2x − y = 6, (8.5)
3x + 5y = 7. (8.6)
En este caso, la matriz extendida es
 
2 −1 6
.
3 5 7

Observe que en este caso tenemos los renglones


R1 = (2 − 1 || 6) ,
R2 = (3 5 || 7) ,

Ahora, en el segundo regón de esta matriz colocaremos la operación


−3R1 + 2R2 ,

por lo que obtenemos


 
2 −1 6
.
0 13 −4

107
Además, de esta última matriz extendida, al multiplicar por el segundo rengón
por 131 se encuentra la matriz
 
2 −1 6
4 .
0 1 − 13
Adicionalmente, colocando en el primer renglón la suma de los dos renglones
de esta última matriz extendida se llega a
74
 
2 0 13 .
0 1 − 14

Finalmente, multiplicando por 21 al primer renglón de la nueva matriz extendida


se encuentra
37
 
1 0 13
4 .
0 1 − 13

Así, la solución del sistema de ecuaciones (8.5)-(8.6) es


37
x = ,
13
4
y = − .
13

8.2.2. Sistema 3 × 3
Consideremos el sistema de ecuaciones
2y + 4z = 2, (8.7)
2x + 4y + 2z = 3, (8.8)
3x + 3y + z = 1. (8.9)
En este caso, tenemos la matriz extendida
 
0 2 4 2
2 4 2 3 ,
3 3 1 1
Al intercambiar el primer renglón por el segundo renglón encontramos la matriz
extendida
 
2 4 2 3
 0 2 4 2 ,
3 3 1 1

108
además, multiplicando por 1
2
al primer renglón de esta matriz, se llega a
3
 
1 2 1 2
 0 1 2 1 .
3 3 1 1
Por lo que multiplicando por −3 al primer renglón y sumando el resultado al
tercer renglón de esta nueva matriz extendida se encuentra
3
 
1 2 1 2
 0 1 2 1 .
0 −3 −2 − 72
Ahora, multiplicando por 3 al segundo renglón y sumando el resultado al tercer
renglón de esta última matriz extendida se obtiene
3
 
1 2 1 2
 0 1 2 1 ,
0 0 4 − 12
así multiplicando por 1
4
al tercer renglón de esta nueva matriz extendida tene-
mos
3
 
1 2 1 2
 0 1 2 1 .
0 0 1 − 18
Además, si en la última matriz extendida multiplicamos por −2 al tercer ren-
glón y sumamos el resultado al segundo renglón se llega a
3
 
1 2 1 2
 0 1 0 5 .
4
0 0 1 − 81
Para continuar con el procedimiento, al primer renglón de la nueva matriz
extendida le restamos su tercer renglón y se obtiene
13
 
1 2 0 8
 0 1 0 5 .
4
0 0 1 − 81
Finalmente, si en la última matriz extendida multiplicamos por −2 al segundo
renglón y sumamos el resultado al primer renglón llegamos a
− 78
 
1 0 0
 0 1 0 5 .
4
0 0 1 − 81

109
Así, la solución al sistema de ecuaciones (8.7)-(8.9) es
7
x = − ,
8
5
y = ,
4
1
z = − .
8

8.3. Notación de matriz similar


Cuando una matriz se obtiene de otra mediante un paso del método de
Gauss-Jordan se dice que son similares mediante Gauss-Jordan y se escribe
∼.

Por ejemplo, supongamos que tenemos el sistema de ecuaciones


2x + y + z = 2, (8.10)
x + 4y + 2z = 1, (8.11)
5x + y + 3z = 0. (8.12)
En este caso tenemos la matriz extendida
 
2 1 1 2
 1 4 2 1 ,
5 1 3 0

por lo que usando el método de Gauss-Jordan se tiene


     
2 1 1 2 1 4 2 1 1 4 2 1
 1 4 2 1  ∼  2 1 1 2  ∼  0 −7 −3 0 
5 1 3 0 5 1 3 0 0 −19 −7 −5
     
1 4 2 1 1 4 2 1 1 4 2 1
∼  0 1 73 0 ∼ 0 1 3
7
0  ∼  0 1 37 0 
7 5 8 5
0 1 19 19
0 0 − 133 19
0 0 1 − 35
8
78 18
     
1 4 2 1 1 4 0 8
1 0 0 8
15 15  15
∼  0 1 0 8
∼ 0 1 0 8
∼  0 1 0 8
.
0 0 1 − 35
8
0 0 1 − 35
8
0 0 1 − 35
8

110
Por lo que la solución al sistema de ecuaciones (8.10)-(8.12) es
18
x =
8
15
y = ,
8
35
z = − .
8

8.4. Ejercicios
1.- Usando el método desarrollado en este capítulo, resolver el sistema de
ecuaciones lineales
x + 2y + 3z = −2,
2x + y + 2 = −1,
−2x + y − z = 8.

2.- Usando el método desarrollado en este capítulo, resolver el sistema de


ecuaciones lineales
3x + 2y − 2z + 10w = 1,
3x + y + z + 2w = −3,
−2x + 2y + 3z + 4w = −2,
x + y + 5z + 2w = −3.

111
Capítulo 9
Método de Gauss-Jordan y la
inversa de una matriz
En este capítulo veremos que usando el método de Gauss-Jordan es posible
obtener la matriz inversa de una matriz.

9.1. Caso 2 × 2
Sabemos que cualquier sistema de ecuaciones de 2 × 2 se puede escribir de
la forma
ax + by =c,
dx + ey =f,

se puede escribir de la forma

M X = X0 , (9.1)

con
     
a b x c
M= , X= , X0 = .
d e y f

Por lo tanto, usando la matriz inversa de la matriz M, de la ecuación (9.1) se


obtiene
X = M −1 X0 .

112
Así, si existe la matriz inversa de M, es posible resolver un sistema de 2 ecua-
ciones lineales con 2 incógnitas. Claramente este resultado se puede generalizar
a un sistema de n ecuaciones con n variables indeterminadas. Por lo que pode-
mos armar que al resolver un sistema de n ecuaciones lineales con n incógnitas
con el método de Gauss-Jordan, de forma indirecta estamos obteniendo la in-
versa de una matriz.

De hecho, con el método de Gauss-Jordan es posible obtener la inversa de


una matriz. Por simplicidad, solo probaremos el caso de 2 × 2.

Supongamos que tenemos la matriz de 2 × 2

 
a b
M= , (9.2)
c d

a esta matriz le asociaremos la matriz extendida


 
a b 1 0
c d 0 1

de donde
   
a b 1 0 a b 1 0
∼ ∼
c d 0 1 0 da − bc −c a
cb ab
   
a b 1 0 a 0 1 + da−bc − da−bc
∼ c a ∼ c a ∼
0 1 − da−bc da−bc 0 1 − da−bc da−bc
da ab d b
   
a 0 da−bc
− da−bc 1 0 da−bc
− da−bc
∼ c a ∼ c a ,
0 1 − da−bc da−bc
0 1 − da−bc da−bc

esto es

d b
   
a b 1 0 1 0 da−bc
− da−bc
∼ c a .
c d 0 1 0 1 − da−bc da−bc

113
Note que del lado derecho de esta última matriz extendida se obtiene la matriz
 
1 d −b
= A−1 ,
da − bc −c a

que es la matriz inversa de A denida en (9.2).

Por lo tanto, usando el método de Gauss-Jordan es posible obtener la in-


versa de una matriz de 2 × 2. Lo mismo ocurre con matrices de n × n. No
probaremos esta última armación, pero veremos algunos ejemplos.

9.2. Ejemplo de 3 × 3
Consideremos la matriz
 
1 0 5
M =  2 1 6 . (9.3)
3 4 0
En este caso tenemos la matriz aumentada
 
1 0 5 1 0 0
 2 1 6 0 1 0 ,
3 4 0 0 0 1
además usando el método de Gauss-Jordan tenemos
   
1 0 5 1 0 0 1 0 5 1 0 0
 2 1 6 0 1 0  ∼  0 1 −4 −2 1 0 
3 4 0 0 0 1 0 4 −15 −3 0 1
   
1 0 5 1 0 1 0 5 1 0 0
∼ 0 1 −4 −2 1 0 ∼ 0 1 0 18 −15 4 
0 0 1 5 −4 1 0 0 1 5 −4 1
 
1 0 0 −24 20 −5
∼  0 1 0 18 −15 4 .
0 0 1 5 −4 1
Observe que la matriz
 
−24 20 −5
 18 −15 4 
5 −4 1
es la inversa de la matriz M denida en (9.3).

114
9.3. Ejemplo de 4 × 4
Consideremos la matriz
 
3 0 2 −1
 1 2 0 −2 
A= , (9.4)
 4 0 6 −3 
5 0 2 0

para la cual tenemos la matriz aumentada


 
3 0 2 −1 1 0 0 0
 1
 2 0 −2 0 1 0 0 
.
 4 0 6 −3 0 0 1 0 
5 0 2 0 0 0 0 1

115
Así, usando el método de Gauss-Jordan tenemos
 
3 0 2 −1 1 0 0 0
 1
 2 0 −2 0 1 0 0 

 4 0 6 −3 0 0 1 0 
5 0 2 0 0 0 0 1
 
3 0 2 −1 1 0 0 0
 0 −6 2 5 1 −3 0 0 
∼ 
 0 0 −10 5 4 0 −3 0 
0 0 4 −5 5 0 0 −3
 
3 0 2 −1 1 0 0 0
 0 −6 2 5 1 −3 0 0 
∼  
 0 0 −10 5 4 0 −3 0 
0 0 0 −30 66 0 −12 −30
 
3 0 2 −1 1 0 0 0
 0 −6 2 5 1 −3 0 0 
∼ 
 0 0 −10 5 4 0 −3 0 
0 0 0 1 − 11
5
0 2
5
1
 
3 0 2 −1 1 0 0 0
 0 −6 2 5 1 −3 0 0 
∼ 
 0 0 −10 0 15 0 −5 −5 
0 0 0 1 − 11
5
0 2
5
1
 
3 0 2 −1 1 0 0 0
 0 −6 2 5 1 −3 0 0 
∼ 
 0 0 1 0 − 32 0 21 21 
0 0 0 1 − 11
5
0 25 1
 
3 0 2 −1 1 0 0 0
 0 −6 2 0 12 −3 −2 −5 
∼ 
 0 0 1 0 − 32 0 1
2
1 
2
0 0 0 1 − 11
5
0 2
5
1

116
además,
 
3 0 2 −1 1 0 0 0
 0 −6 2 0 12 −3 −2 −5 
∼ 
 0 0 1 0 − 32 0 1
2
1
2

11 2
0 0 0 1 −5 0 5
1
 
3 0 2 −1 1 0 0 0
 0 −6 0 0 15 −3 −3 −6 
∼ 
 0 0 1 0 − 32 0 1
2
1
2

0 0 0 1 − 115
0 2
5
1
 
3 0 2 −1 1 0 0 0
 0 1 0 0 − 52 12 12 1 
∼ 
 0 0 1 0 − 23 0 12 21 
0 0 0 1 − 115
0 25 1
− 65 0 52 1
 
3 0 2 0
 0 1 0 0 − 25 21 12 1 
∼ 
 0 0 1 0 − 23 0 21 21 
0 0 0 1 − 11
5
0 25 1
9 3
 
3 0 0 0 5
0 − 5
0
 0 1 0 0 − 25 21 1
1 
∼
 2 
0 0 1 0 − 23 0 1
2
1 
2
0 0 0 1 − 11
5
0 2
5
1
3
0 − 15 0
 
1 0 0 0 5
 0 1 0 0 − 25 21 1
1 
∼ 3
2
1 1 .

 0 0 1 0 −2 0 2 2
0 0 0 1 − 11
5
0 2
5
1

Por que lo tenemos la matriz


3
0 − 51 0
 
5

 − 52 1
2 2
1
1 

 − 32 0 2
1 1 
2
− 11
5
0 5
2
1

que es la inversa de la matriz A denida en (9.4).

117
9.4. Ejercicios
1.- Usando el método de Gauss-Jordan, obtener la inversa de la matriz
 
1 −4 1
 2 1 1 .
0 2 3

2.- Usando el método de Gauss-Jordan, obtener la inversa de la matriz


 
1 −1 2 1
 2 −1 −1 4 
 .
 −4 5 −10 −6 
3 −2 10 −1

118
Capítulo 10
Sistemas de ecuaciones lineales de
n×m

Ahora veremos como resolver un sistema de m ecuaciones con n variables


y algunas propiedades de la soluciones.

10.1. Caso general


Supongamos que tenemos n incógnitas
x1 , x2 , · · · , xn
y m ecuaciones lineales

A11 x1 + A12 x2 + · · · + A1n xn =J1 ,


A21 x1 + A22 x2 + · · · + A2n xn =J2 ,
..
.
Am1 x1 + Am2 x2 + · · · + Amn xn =Jm ,

donde Aij , Ji (i = 1, 2, · · · m, j = 1, · · · , n) son constantes dadas. A este sistema


de ecuaciones se puede asociar a la matriz extendida
 
A11 A12 · · · A1n J1
 A21 A22 · · · A2n J2 
.. .. . . .. .. 
 
. . . . .


Am1 Am2 · · · Amn Jm

119
y para resolver el sistema de ecuaciones podemos ocupar el método de Gauss-
Jordan.

Después de aplicar el método de Gauss-Jordan a la matriz extendida, te-


nemos tres posibles resultados. El primero es que el número de renglones li-
nealmente independientes de la matriz extendida sea mayor al número de in-
cógnitas. En este caso no es posible tener soluciones. En efecto, cada renglón
de la matriz extendida representa una ecuación, de la cual se puede despejar
una incógnita, pero si tenemos menos incógnitas que ecuaciones no es posible
satisfacer todas la ecuaciones.

El segundo caso posible es que el número de renglones linealmente inde-


pendientes de la matriz extendida sea igual al número de incógnitas. Este caso
es equivalente a tener un sistema de ecuaciones con el mismo número de ecua-
ciones que el de incógnitas. Este caso ya fue estudiado anteriormente.

El tercer caso posible es en el cual el número de incógnitas sea mayor


al número de renglones linealmente independientes de la matriz extendida.
Por ejemplo, supongamos que después de aplicar el método de Gauss-Jordan
obtenemos l ecuaciones linealmente independientes, con l < n. Por lo que
tendremos un sistema de ecuaciones de la forma

a11 x1 + a12 x2 + · · · + a1l xl + a1(l+1) xl+1 + · · · + a1n xn = J˜1 ,


a21 x1 + a22 x2 + · · · + a2l xl + a2(l+1) xl+1 + · · · + a2n xn = J˜2 ,
..
.
al1 x1 + al2 x2 + · · · + all xl + al(l+1) xl+1 + · · · + aln xn = J˜l .

En este caso podemos pasar los términos que tengan las incógnitas

xl+1 , xl+2 , · · · , xn

120
al lado derecho del sistema de ecuaciones, de donde se obtiene

a11 x1 + a12 x2 + · · · + a1l xl =J˜1 − a1(l+1) xl+1 − · · · − a1n xn ,


a21 x1 + a22 x2 + · · · + a2l xl =J˜2 − a2(l+1) xl+1 − · · · − a2n xn ,
..
.
al1 x1 + al2 x2 + · · · + all xl =J˜l − al(l+1) xl+1 − · · · − aln xn .

Se puede observar que si suponemos conocidas la últimas n − (l + 1) incóg-


nitas entonces tendremos un sistema de l ecuaciones con l incógnitas, el cual
se puede resolver con el método de Gauss-Jordan obteniendo la inversa de la
matriz asociada del sistema de ecuaciones reducidas. Nótese que en este caso
la soluciones están dadas en términos de las incógnitas xl+1 , xl+2 , · · · , xn que
pueden tomar cualquier valor, por lo que tendremos un número innito de so-
luciones.

Por ejemplo, consideremos el sistema de ecuaciones


3x + y − z = 1, (10.1)
x + y + 3z = 3, (10.2)
el cual tiene la matriz extendida
 
3 1 −1 1
.
1 1 3 3

Aplicando el método de Gauss-Jordan obtenemos


     
3 1 −1 1 3 1 −1 2 3 1 −1 1
∼ ∼ ,
1 1 3 3 0 −2 −10 −8 0 1 5 4

que implica el sistema de ecuaciones equivalente


3x + y − z = 1,
y + 5z = 4.

Pasando los términos con la incógnita z al lado derecho de cada ecuación, se


obtienen
3x + y = 1 + z,
y = 4 − 5z.

121
A este sistema lo trataremos como un sistema de dos ecuaciones con dos in-
cógnitas y puede ser asociado a la matriz extendida
 
3 1 1+z
,
0 1 4 − 5z
aplicando de nuevo el método de Gauss-Jordan se obtiene
 
3 1 1+z
0 1 4 − 5z
 
3 0 −3 + 6z

0 1 4 − 5z
 
1 0 −1 + 2z
∼ .
0 1 4 − 5z

Por lo que la solución al sistema de ecuaciones (10.1)-(10.2) es


x = −1 + 2z,
y = 4 − 5z,

la cual se puede escribir como


       
x −1 + 2z −1 2
= = +z ,
y 4 − 5z 4 −5
de forma tridimensional esta solución se puede escribir como
     
x −1 2
 y  =  4  + z  −5  .
z 0 1
Note que en este caso tenemos un número innito de soluciones, pues z puede
tener cualquier valor.

Para tener desde un inicio un sistema de l ecuaciones con l incógnitas, en


algunos casos es conveniente pasar directamente al lado derecho del sistema de
ecuaciones un número de incógnitas conveniente. Por ejemplo, consideremos el
sistema de ecuaciones
x + 2y + 3z + w = 1,
4x + 5y + 6z − w = 3,
7x + 2y + 9z − 2w = 2,

122
al pasar los términos que tienen w al lado derecho de cada ecuación obtenemos
x + 2y + 3z = 1 − w,
4x + 5y + 6z = 3 + w,
7x + 2y + 9z = 2 + 2w,

que se puede escribir como


    
1 2 3 x 1−w
 4 5 6  y  =  3 + w .
7 2 9 z 2 + 2w

Ahora, debido a que


 −1  
1 2 3 −11 4 1
 4 5 6  = 1  −2 4 −2  ,
12
7 2 9 9 −4 1

se obtiene la solución
    
x −11 4 1 1−w
 y  = 1  −2 4 −2   3 + w  ,
12
z 9 −4 1 2 + 2w

es decir
     
x 3 17
 y = 1  6 + w  2 ,
12 12
z −1 −11

que de forma cuadridimensional se puede expresar como


     
x 3 17
 y  1  6  w  2 
 z  = 12  −1
+
 12  −11  .
    

w 0 12

Note que tenemos un número innito de soluciones pues w puede tomar cual-
quier valor.

123
10.2. Propiedades de las soluciones
Hemos visto cómo resolver un sistema de m ecuaciones lineales con n in-
cógnitas. Vale la pena analizar diferentes propiedades de las soluciones.

De nuevo supongamos que tenemos el sistema de ecuaciones

A11 x1 + A12 x2 + · · · + A1n xn =J1 , (10.3)


A21 x1 + A22 x2 + · · · + A2n xn =J2 , (10.4)
..
.
Am1 x1 + Am2 x2 + · · · + Amn xn =Jm , (10.5)

donde Aij , Ji (i = 1, 2, · · · m, j = 1, · · · , n) son constantes dadas. Nótese que


deniendo la matriz y los vectores

     
A11 A12 · · · A1n x1 J1
 A21 A22 · · · A2n   x2   J2 
A= .. .. . . .. , X =  ..  , J =  ..  ,
     
 . . . .   .   . 
Am1 Am2 · · · Amn xn Jm

el sistema de ecuaciones (10.3)-(10.5) se puede escribir como

AX = J. (10.6)

Al sistema de ecuaciones (10.6) se le puede asociar un sistema de ecuaciones


homogéneo de la forma
AX = 0. (10.7)

El conjunto de soluciones de este sistema de ecuaciones homogéneo forma un


espacio vectorial. En efecto, supongamos que X1 y X2 satisfacen (10.7) entonces
si λ1 y λ2 son constantes la combinación lineal

λ1 X1 + λ2 X2

124
cumple que
A (λ1 X1 + λ2 X2 ) = Aλ1 X1 + Aλ2 X2 = λ1 AX1 + λ2 AX2 = 0 + 0 = 0,

es decir,
A (λ1 X1 + λ2 X2 ) = 0.
Así, cualquier combinación lineal de las soluciones del sistema homogéneo
(10.7) también es solución de dicho sistema homogéneo. Así, el conjunto de
las soluciones del sistema homogéneo (10.7) forman un espacio vectorial.

Ahora, supongamos que Xp es un vector particular que satisface el sistema


de ecuaciones (10.6), es decir que cumple

AXp = J,

también supongamos que XH1 , XH2 , · · · , XHs es la base del espacio vectorial
que satisface el sistema de ecuaciones homogéneo (10.7),

AXHi = 0, i = 1, 2, · · · , s,

entonces el vector

X = λi XHi + Xp , λi ∈ R (10.8)

también satisface el sistema de ecuaciones (10.6). Esta armación es correcta,


pues
AX = A (λi XHi + Xp ) = λi AXHi + AXp = 0 + J = J,

en otras palabras
AX = J.

Como podemos ver un sistema de ecuaciones puede tener muchas solucio-


nes. Esto depende del sistema de ecuaciones homogéneas.

125
10.3. Rango de una matriz
Antes de continuar deniremos como rango r de la matriz A como el número
de renglones linealmente independientes que se obtienen después aplicar el
método de Gauss-Jordan a la matriz A. Nótese que el rango de la matriz A
también nos da el número de ecuaciones linealmente independientes del sistema
de ecuaciones (10.3)-(10.5). Por lo tanto, si tenemos n incógnitas y el rango
del matriz A es r, el número de incógnitas libres es
n−r

y este es la dimensión del espacio de soluciones del sistema homogéneo.

10.4. Ejemplos
Consideremos el sistema de ecuaciones
x + 2y − z + 3w + 2u = 1, (10.9)
−2x + 4y + 2z + 2w − u = 3, (10.10)
x + 2y + 3z + w + u = −2, (10.11)
al pasar los términos que tienen w y u al lado derecho de cada ecuación obte-
nemos
x + 2y − z = 1 − 3w − 2u,
−2x + 4y + 2z = 3 − 2w + u,
x + 2y + 3z = −2 − w − u,

que se puede escribir como


    
1 2 −1 x 1 − 3w − 2u
 −2 4 2   y  =  3 − 2w + u  .
2 2 3 z −2 − w − u

Además, se puede mostrar que


 −1  
1 2 3 2 −2 2
 4 5 6  = 1 2 1 0 ,
8
7 2 9 −2 0 2

126
de donde
    
x 2 −2 2 1 − 3w − 2u
 y = 1 2 1 0   3 − 2w + u  ,
8
z −2 0 2 −2 − w − u

es decir,
       
x −8 −4 −8
 y  = 1  5  + w  −8  + u  −3  .
8 8 8
z −6 4 2

Por lo que, usando las cinco dimensiones del problema se obtiene


       
x −8 −4 −8

 y  
 1 5  
 w −8  
 u −3 


 z = 
 8 −6 + 
 8 4 + 
 8 2 .

 w   0   8   0 
u 0 0 8

Note que tenemos un número innito de soluciones pues w y u puede tomar


cualquier valor. También observe que el vector
 
−8
 5 
1 
Xp =  −6 
8 
 0 
0

es un solución particular del sistema de ecuaciones (10.9)-(10.11), mientras que


los vectores
   
−4 −8

 −8 


 −3 

X1 = 
 4 ,
 X2 = 
 2 .

 8   0 
0 8

son soluciones al sistema de ecuaciones homogéneo asociado al sistema de ecua-


ciones no homogéneo (10.9)-(10.11).

127
10.5. Ejercicios
1.- Resolver el sistema de ecuaciones
5x − y + 2z + w = 7,
2x + y + 4z − 2w = 1,
x − 3y − 6z + 5w = 0.

2.- Resolver el sistema de ecuaciones


x + y + 3z − 2w − q = 1,
5x − 2y + 3z + 7w + 8q = 3,
−3x − y + 2z + 7w + 5q = 2,
5x + 3y + z − 2w − 7q = 3.

128
Capítulo 11
Matriz de cambio de base
En este capítulo veremos la llamada matriz de cambio de base.

11.1. Denición
Sea V un espacio vectorial de dimensión n sobre el campo K y

{v1 , v2 , · · · , vn } (11.1)

una bases de V. Entonces, cualquier vector de V se puede escribir como com-


binación lineal de la base (11.1).

Además, supongamos que

{v1′ , v2′ , · · · , vn′ } (11.2)

es otra base de V. Por lo cual también cualquier vector de V se puede escribir


como combinación lineal de la base (11.2).

En particular, para los vectores de la base (11.1) existen n2 escalares βij ∈


K, j = 1, 2, · · · , n tales que

vi′ = βij vj , (11.3)

129
observe que esta igualdad se puede escribir como

    
v1′ β11 β12 · · · β1n v1
 v ′   β21 β22 · · · β2n   v2 
 2  
 ..  =  .. .. . . ..   ..  .
 
 .   . . . .  . 
vn′ βn1 βn2 · · · βnn vn

Así, el conjunto de números βij dene una matriz.

De la misma forma, usando la base (11.1), para los vectores de la base


(11.2) existen n2 escalares βij′ ∈ K tales que
vi = βij′ vj′ . (11.4)
Usando esta última expresión en la ecuación (11.3), encontramos
vi = βij′ βjk vk , k = 1, 2, · · · , n

es decir
vi = (β ′ β)ik vk . (11.5)
Ahora, debido a que
vi = δik vk ,

la igualdad (11.5) se puede escribir como


vk δik = (β ′ β)ik vk ,

por lo que
(δik − (β ′ β)ik ) vk = 0. (11.6)
Como el conjunto de vectores vk forman una base de V, son linealmente inde-
pendientes. Por lo que la ecuación (11.6) implica la igualdad
δik − (β ′ β)ik = 0

de donde
δik = (β ′ β)ik

130
lo que es lo mismo
β ′ β = I.

Por lo tanto, la matriz β es invertible y su inversa es β ′ .

Ahora, si v ∈ V existe un conjunto de escalares


{λ1 , λ2 , · · · , λn } λi ∈ K, i = 1, 2, · · · , n

tales que
v = λi vi (11.7)

Pero también existen un conjunto de escalares λ′i ∈ K tal que

v = λ′i vi′ . (11.8)

Tomando en cuenta que las ecuaciones (11.7) y (11.8) representan al mismo


vector en diferentes bases, veamos como se relacionan los escalares λi con los
escalares λ′i .

Se puede observar que sustituyendo la igualdad (11.4) en la ecuación (11.7)


encontramos
v = λi vi = λi βij′ vj′ ,

además, considerando la ecuación (11.8) se encuentra la expresión


v = λi vi = λi βij′ vj′ = λ′j vj′ ,

de donde se deduce el resultado


0 = λi βij′ vj′ − λ′j vj′ = λi βij′ − λ′j vj′ .


Es decir,
λi βij′ − λ′j vj′ = 0. (11.9)


Además, como los vectores vj′ forman una base, son linealmente independientes
y la ecuación (11.9) implica la igualdad
λi βij′ − λ′j = 0,

131
de donde se encuentra la expresión
λ′j = λi βij′ = βji
′T
λi . (11.10)
A la matriz
N ′ = β ′T ,

le llamamos matriz de cambio de base. Entonces, la ecuación (11.10) toma la


forma
λ′j = Nji′ λi = Nji−1 λi ,

de donde
λj = Nji λ′i ,

por lo que

    
λ1 N11 N12 · · · N1n λ′1
 λ2   N21 N22 · · · N2n   λ′ 
 2 
 ..  =  .. .. . . ..   ..  .
  
 .   . . . .  . 
λn Nn1 Nn2 · · · Nnn λ′n

11.2. Ejemplo
Como un ejemplo consideremos la base canónica
{v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 1, 0)}

y la base
{v1′ = (1, 0, 0), v2′ = (1, 1, 0), v3′ = (1, 1, 1)}

en este caso tenemos


(1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1),
(1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1),
(1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1),

132
es decir
v1′ = 1v1 + 0v2 + 0v3 ,
v2′ = 1v1 + 1v2 + 0v3 ,
v3′ = 1v1 + 1v2 + 1v3 ,
de donde
 
1 0 0
β= 1 1 0 
1 1 1
y la matriz asociada al cambio de base es
 
1 1 1
N = (β)T =  0 1 1  .
0 0 1
Note que también se cumple
   
1 0 0 1 −1 0
−1 T
β −1 N −1 = β

=  −1 1 0 , = 0 1 −1  ,
0 −1 1 0 0 1
las cuales se obtienen al hacer el cambio de base inverso.

11.3. Ejercicios
1.- Considere las bases
{v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1)}
y
{v1′ = (1, 2, 0), v2′ = (−2, 1, 0), v3′ = (0, 0, 1)} ,
obtener la matriz de cambio de base entre ellas.

2.- Considere las bases


{v1 = (1, 0, 0, 0), v2 = (0, 1, 0, 0), v3 = (0, 0, 1, 0), v4 = (0, 0, 0, 1}
y
{v1′ = (4, −1, −3, 6), v2′ = (−2, 3, 1, 4), v3′ = (0, 5, 0, 0), v4′ = (1, 2, 3, −1)} ,
obtener la matriz de cambio de base entre ellas.

133
Capítulo 12
Transformaciones lineales
En este capítulo veremos la denición de transformación lineal y algunas
implicaciones importantes de dicha denición.

12.1. Denición
Sean dos espacios vectoriales (V, K, +, ·) y (W, K, +, ·) sobre el mismo cam-
po K. Se dice que la función
T : V −→ W

es lineal si satisface las propiedades

T (v1 + v2 ) = T (v1 ) + T (v2 ), ∀v1 , v2 ∈ V, (12.1)


T (λv) = λT (v), ∀λ ∈ K, ∀v ∈ V. (12.2)

Es posible probar que una función T es lineal si y solo si satisface la propiedad

T (λ1 v1 + λ2 v2 ) = λ1 T (v1 ) + λ2 T (v2 ), ∀λ1 , λ2 ∈ K, ∀v1 , v2 ∈ V. (12.3)

En efecto, supongamos que se cumple la propiedad (12.3), en particular se


cumple si λ1 = λ2 = e, con e la identidad del producto del campo K. Entonces
T (ev1 + ev2 ) = eT (v1 ) + eT (v2 ),

por lo que, para cualquier par de vectores v1 , v2 en V se cumple


T (v1 + v2 ) = T (v1 ) + T (v2 ),

134
que es la propiedad (12.1). Ahora, si tomamos λ1 = λ, v1 = v y λ2 = 0, la
ecuación (12.3) toma la forma
T (λv) = λT (v),

que es la propiedad (12.2). Por lo tanto, si una función T satisface la propiedad


(12.3), entonces es lineal.

Ahora supongamos T es lineal y que v1 , v2 ∈ V, λ1 , λ2 ∈ K. Usando las


propiedades (12.1)-(12.2) se cumple
T (λ1 v1 + λ2 v2 ) = T (λ1 v1 ) + T (λ2 v2 ) = λ1 T (v1 ) + λ2 T (v2 ),

que es la propiedad (12.3). Por lo tanto, si una función T es lineal, cumple la


propiedad (12.3).

En conclusión, una función T es lineal si y solo si satisface la propiedad


(12.3).

12.2. Transformaciones lineales en Rn


Si V es un espacio vectorial y λ ∈ K, podemos denir la función
T : V −→ V

tal que
T (v) = λv, v ∈ V,

la cual es un ejemplo de función lineal. En efecto, si α, β ∈ K y v1 , v2 ∈ V, se


cumple
T (αv1 + βv2 ) = λ(αv1 + βv2 )
= λαv1 + λβv2
= αλv1 + βλv2
= αT (v1 ) + βT (v2 ).

esto es
T (αv1 + βv2 ) = αT (v1 ) + βT (v2 ).

135
Para los espacios vectoriales R2 y R2 , la función
T (x, y) = (x + 3y, −2x + 5y) (12.4)
es lineal. En efecto, si λ1 , λ2 ∈ R se cumple
T (λ1 (x1 , y1 ) + λ2 (x2 , y2 )) = T (λ1 x1 + λ2 x2 , λ1 y1 + λ2 y2 )
= (λ1 x1 + λ2 x2 + 3(λ1 y1 + λ2 y2 ), −2(λ1 x1 + λ2 x2 ) + 5(λ1 y1 + λ2 y2 ))
= (λ1 (x1 + 3y1 ) + λ2 (x2 + 3y2 ), λ1 (−2x1 + 5y1 ) + λ2 (−2x2 + 5y2 ))
= (λ1 (x1 + 3y1 ), λ1 (−2x1 + 5y1 )) + (λ2 (x2 + 3y2 ), λ2 (−2x2 + 5y2 ))
= λ1 (x1 + 3y1 , −2x1 + 5y1 ) + λ2 (x2 + 3y2 , −2x2 + 5y2 )
= λ1 T (x1 , y1 ) + λ2 T (x1 , y1 ),

por lo cual
T (λ1 (x1 , y1 ) + λ2 (x2 , y2 )) = λ1 T (x1 , y1 ) + λ2 T (x1 , y1 ).

En general, se puede probar que si tenemos el vector (x1 , x2 , · · · , xm ) donde


xk ∈ R y k = 1, 2, · · · , m, entonces dados los números αlk ∈ R con l =
1, 2, · · · n, la función

T (x1 , x2 , · · · , xm ) = (α1k xk , α2k xk , · · · , αnk xk ) (12.5)


que es una función lineal de Rm en Rn . En este caso se puede obsevar que
deniendo la matriz
 
α11 α12 · · · α1m
 α21 α22 · · · α2m 
M = .. .. . . .. , αij ∈ R, i = 1, · · · n, j = 1, · · · , m.
 
 . . . . 
αn1 αn2 · · · αnm

se tiene
    
α11 α12 · · · α1m x1 α1k xk
 α21 α22 · · · α2m   x2   α2k xk 
.. .. . . ..   ..  =  ..  .
    
. . . .  .   .


αn1 αn2 · · · αnm xm αnk xk

136
Por lo que la transformación lineal (12.5) se puede asociar con una matriz. En
particular, la transformación lineal (12.4) se puede asociar con la matriz
 
1 3
,
−2 5
y se cumple
    
1 3 x x + 3y
= .
−2 5 y −2x + 5y

12.3. Transformaciones entre funciones


12.3.1. Derivada
En el espacio de las funciones suaves, la derivada cumple con las propieda-
des de transformación lineal. En efecto, si denimos


T =
∂x

tenemos

T (αf1 (x) + βf2 (x)) = (αf1 (x) + βf2 (x))
∂x
∂ ∂
= α f1 (x) + β f2 (x)
∂x ∂x
= αT (f1 (x)) + βT (f2 (x)) .

12.3.2. Producto por una función ja


Dado una función f (x), usando el producto por un escalar en un espacio
vectorial V podemos denir una función lineal T de la siguiente forma

T (v) = f (x)v,

donde v es un vector en V. Para probar que T es una función lineal, conside-


remos v1 , v2 ∈ V y α, β ∈ K, entonces
T (αv1 + βv2 ) = f (x)(αv1 + βv2 ) = αf (x)v1 + f (x)βv2
= αT (v1 ) + βT (v2 ) .
Por lo que T es una función lineal.

137
12.3.3. Transformadas integrales
Dada una función g(k, x) integrable se puede denir una transformación
lineal entre funciones integrales. Si f (x) es una función integrable denimos

Z b
f˜(k) = T (f (x)) = dxg(k, x)f (x). (12.6)
a

Esta transformación es lineal, pues si f1 (x), f2 (x) son funciones suaves y α, β


escalares, se encuentra
Z b
T (αf1 (x) + βf2 (x)) = dxg(k, x) (αf1 (x) + βf2 (x))
a
Z b Z b
= α dxg(k, x)f1 (x) + β dxg(k, x)f2 (x)
a a
= αT (f1 (x)) + βT (f2 (x)).
A la transformación (12.6) se le llama transformada integral en base g(k, x).

Por ejemplo, con g(k, x) = e−ikx se dene la transformada de Fourier


Z ∞
f˜(k) = dxe−ikx f (x).
−∞

Para cada función, g(k, x), bien portada (derivable y suave) se puede denir
una transformada integral.

12.4. Núcleo
Sean dos espacios vectoriales (V, K, +, ·) y (W, K, +, ·) sobre el mismo cam-
po K y
T : V −→ W
una función lineal.

Sabemos que si 0 es el neutro aditivo del campo K y v es un vector del


espacio vectorial V, entonces su producto también es el neutro aditivo de V, es
decir,
0v = 0.

138
Por lo que si T es una función lineal, se cumple
T (0) = T (0v) = 0T (v) = 0,
o lo que es lo mismo
T (0) = 0.
Así, si T es una función lineal, T manda el cero de V al cero de W.

Ahora deniremos el conjunto de todos los vectores de V tal que van al


cero de W
Ker(T ) = {v ∈ V | T (v) = 0} .

A este conjunto lo llamamos kernel o núcleo de T. Note que 0 ∈ Ker(T ) por


lo que el núcleo de T es un conjunto no vacío.

El conjunto Ker(T ) es un subespacio vectorial de V. En efecto, supongamos


que
v1 , v2 ∈ Ker(T ), α1 , α2 ∈ K.
Por lo que podemos formar el vector
v = α1 v1 + α2 v2
y como T es una función lineal, se satisface
T (v) = T (α1 v1 + α2 v2 )
= α1 T (v1 ) + α2 T (v2 )
= α1 0 + α2 0 = 0,
es decir
T (v) = 0.
Este resultado nos indica que
v = α1 v1 + α2 v2 ∈ Ker(T ).
En resumen hemos mostrado que si
v1 , v2 ∈ Ker(T )
y α1 , α2 ∈ K, se cumple que
α1 v1 + α2 v2 ∈ Ker(T ).
Este resultado nos indica que Ker(T ) es un subespacio vectorial de V.

139
12.4.1. Núcleo y funciones inyectivas
El conjunto Ker(T ) contiene información de la función T. Por ejemplo,
un resultado interesante es que si el núcleo de T solo contiene al vector cero,
entonces T es una función invectiva. Para probar esta armación supongamos
que
Ker(T ) = {0} .

Ahora si
v1 , v2 ∈ V
y se cumplen
T (v1 ) = T (v2 ),

entonces
0 = T (v1 ) − T (v2 ).

Además, como T es una función lineal, se encuentra


T (v1 − v2 ) = 0,

por lo que
v1 − v2 ∈ Ker(T ) = {0} ,

en consecuencia
v1 − v2 = 0,

es decir
v1 = v2 .

Así, hemos probado que si Ker(T ) = {0} y T (v1 ) = T (v2 ) entonces v1 = v2 .


En otras palabras si Ker(T ) = {0} , la función T es inyectiva.

140
12.4.2. Núcleo e independencia lineal
Otro resultado interesantes es que si el conjunto de vectores de V
v1 , v2 , · · · , vn

es linealmente independiente y Ker(T ) = {0}, entonces el conjunto de vectores


de W
T (v1 ), T (v2 ), · · · , T (vn )
es linealmente independiente. Para probar esta aseveración supongamos que
existen escalares en K
α1 , α2 , · · · , αn
tal que
α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = 0.
Como T es una función lineal, se llega a
0 = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = T (α1 v1 + α2 v2 + · · · + αn vn )

es decir
T (α1 v1 + α2 v2 + · · · + αn vn ) = 0,

lo que implica
α1 v1 + α2 v2 + · · · + αn vn ∈ Ker(T ) = {0}.

Por lo que
α1 v1 + α2 v2 + · · · + αn vn = 0

y como el conjunto v1 , v2 , · · · , vn es linealmente independiente, se obtiene


α1 = α2 = · · · = αn = 0.

En resumen, si v1 , v2 , · · · , vn es linealmente independiente y Ker(T ) = {0}


entonces el conjunto de vectores T (v1 ), T (v2 ), · · · , T (vn ) es linealmente inde-
pendiente.

141
12.5. Imagen
Sean dos espacios vectoriales (V, K, +, ·) y (W, K, +, ·) sobre el mismo cam-
po K y
T : V −→ W
una función lineal. Denimos la imagen de T como el subconjunto de los
vectores w en W tales que existe al menos un vector v en V que cumple
T (v) = w,
es decir,

T (V ) = Im(T ) = {w ∈ W | ∃v ∈ V, T (v) = w} .

12.5.1. Imagen como subespacio del contradominio


El conjunto Im(T ) es un subespacio vectorial de W. En efecto si
w1 , w2 ∈ Im(T ),
entonces existe
v1 , v2 ∈ V
tal que
T (v1 ) = w1 , T (v2 ) = w2 .
Ahora, sea α1 , α2 ∈ K, con estos escalares podemos formar el vector
w = α1 w1 + α2 w2 ∈ W,
el cual se puede escribir como
w = α1 w 1 + α2 w 2
= α1 T (v1 ) + α2 T (v2 )
= T (α1 v1 + α2 v2 ) ,
por lo que existe
v = α1 v1 + α2 v2 ∈ V
tal que
T (v) = w = α1 w1 + α2 w2 .
Así hemos probado que si w1 , w2 ∈ Im(T ) y α1 , α2 ∈ K, se cumple que
α1 w1 +α2 w2 ∈ Im(T ). Lo cual nos indica que Im(T ) es un subespacio vectorial
de W.

142
12.5.2. Imagen y subespacios en el dominio
Ahora supongamos que A es un subconjunto de V, entonces deniremos

T (A) = {w ∈ W | ∃v ∈ A, T (v) = w} .

Observe que T (A) es subconjunto de W , se dice que T (A) es el conjunto ima-


gen de A bajo la función T.

Si A es subespacio vectorial de V, entonces T (A) es subespacio vectorial de


W. Para probar esta armación, supongamos que

w1 , w2 ∈ T (A),

entonces existe
v1 , v2 ∈ A
tal que
T (v1 ) = w1 , T (v2 ) = w2 .
Ahora, sea α1 , α2 ∈ K, con estos escalares podemos formar el vector
w = α1 w1 + α2 w2 ∈ W,

el cual se puede escribir como


w = α1 w1 + α2 w2 = α1 T (v1 ) + α2 T (v2 ) = T (α1 v1 + α2 v2 ) .

Adicionalmente, debido a que A es un subespacio vectorial se cumple que


v = α1 v1 + α2 v2 ∈ A,

así ∃v ∈ A tal que


T (v) = w = α1 w1 + α2 w2 ,

de donde
α1 w1 + α2 w2 ∈ T (A).

Como se puede notar, hemos probado que si w1 , w2 ∈ T (A) y α1 , α2 ∈ K, se


cumple que α1 w1 + α2 w2 ∈ T (A), lo cual nos indica que T (A) es un subespacio
vectorial de W.

143
12.6. Imagen inversa
Ahora supongamos que B es un subconjunto de W, entonces deniremos el
conjunto
T −1 (B) = {v ∈ V | ∃w ∈ B, T (v) = w} .

Note que T −1 (B) es subconjunto de V , se dice que este conjunto es la imagen


inversa de B bajo la función T.

12.6.1. Imagen inversa como subespacio vectorial del do-


minio
Si B es un subespacio vectorial de W, entonces T −1 (B) es subespacio vec-
torial de V.

Para probar este resultado supongamos que


v1 , v2 ∈ T −1 (B),

entonces existe
w1 , w2 ∈ B
tal que
T (v1 ) = w1 , T (v2 ) = w2 .
Ahora, sea α1 , α2 ∈ K, con estos escalares podemos formar la combinación
lineal
v = α1 v1 + α2 v2 .
Considerando que T es un función lineal tenemos
T (v) = T (α1 v1 + α2 v2 )
= α1 T (v1 ) + α2 T (v2 )
= α1 w 1 + α2 w 2 ,

además como B es subespacio vectorial de W se cumple


T (v) = α1 w1 + α2 w2 ∈ W.

Por lo que, existe w ∈ B tal que T (v) = w entonces


v = α1 v1 + α2 v2 ∈ T −1 (B).

144
Así hemos probado que si v1 , v2 ∈ T −1 (B) y α1 , α2 ∈ K, entonces α1 v1 +α2 v2 ∈
T −1 (B). Lo cual dice que si B es subespacio vectorial de W, T −1 (B) es un
subespacio vectorial de V.

12.6.2. Imagen inversa e independecia lineal


Otro resultado interesante es que un conjunto de vectores linealmente in-
dependientes de T (V ) viene de un conjunto de vectores linealmente de V. En
efecto, supongamos que los vectores
w1 , w2 , · · · , wl (12.7)
son linealmente independientes y pertenecen a T (V ). Entonces existen vectores
v1 , v2 , · · · , vl (12.8)
en V tales que
T (v1 ) = w1 , T (v2 ) = w2 , · · · , T (vl ) = wl . (12.9)
Ahora supongamos que existen los escalares
α1 , α2 , · · · , αl

en K tales que
α1 v1 + α2 v2 + · · · + αl vl = 0.

Entonces, como T es una función lineal, se tiene


0 = T (α1 v1 + α2 v2 + · · · + αl vl )
= α1 T (v1 ) + α2 T (v2 ) + · · · + αl T (vl )
= α1 w 1 + α2 w 2 + · · · + αl w l ,

es decir
α1 w1 + α2 w2 + · · · + αl wl = 0.

Además, como los vectores (12.7) son linealmente independientes, se encuentra


que
α1 = α2 = · · · = αl = 0.

145
Por lo tanto si α1 v1 + α2 v2 + · · · + αl vl = 0, entonces α1 = α2 = · · · = αl = 0.
Es decir, el conjunto de vectores (12.8) es linealmente independiente.

Así, podemos armar que si los vectores w1 , w2 , · · · , wl pertenecen a T (V )


y son linealmente independientes, entonces existe un conjunto de vectores
v1 , v2 , · · · , vl en V que son linealmente independientes y satisfacen T (v1 ) =
w1 , T (v2 ) = w2 , · · · , T (vl ) = wl .

12.7. Teorema de la dimensión


Sean dos espacios vectoriales (V, K, +, ·) y (W, K, +, ·) de dimensión nita
sobre el mismo campo K y
T : V −→ W

una función lineal. Mostraremos que la dimensión de Ker(T ) más la dimensión


de Im(T ) es la dimensión del espacio vectorial V.

Sin pérdida de generalidad, podemos suponer que la dimensión del espacio


vectorial V es n y que los vectores
v1 , v2 , · · · , vr , r≤n (12.10)
son una base del espacio Ker(T ). Entonces, existen n − r vectores linealmente
independientes
vr+1 , vr+2 , · · · , vn (12.11)
de tal forma que los vectores
v1 , v2 , · · · vr , vr+1 , · · · , vn (12.12)
formen una base de V.

Observe que si
T (vj ) = 0, j = r + 1, r + 2, · · · , n

entonces
vj ∈ Ker(T )

146
y como los vectores (12.10) forman una base del conjunto Ker(T ), entonces
existen r escalares α1 , α2 , · · · , αr tales que
vj = α1 v1 + α2 v2 + · · · + αr vr .

Esta última ecuación contradice el hecho de que los vectores (12.12) sean li-
nealmente independientes, y por lo tanto, que sean base de V. Entonce, deben
existir n − r vectores no nulos en W de tal forma que
T (vr+1 ) = wr+1 , T (vr+2 ) = wr+2 , · · · , T (vn ) = wn . (12.13)
Estos vectores son linealmente independientes. En efecto, supongamos que exis-
ten n − r escalares
λr+1 , λr+2 , · · · , λn
de tal forma que
λr+1 wr+1 + λr+2 wr+2 + · · · + λn wn = 0,

es decir,
λr+1 T (vr+1 ) + λr+2 T (vr+2 ) + · · · + λn T (vn ) = 0.
Por lo que
T (λr+1 vr+1 + λr+2 vr+2 + · · · + λn vn ) = 0,
así,
λr+1 vr+1 + λr+2 vr+2 + · · · + λn vn ∈ Ker(T ).
Considerando que el conjunto de vectores (12.10) es una base del conjunto
Ker(T ), existen r escalares µ1 , µ2 , · · · , µr tales que

λr+1 vr+1 + λr+2 vr+2 + · · · + λn vn = µ1 v1 + µ2 v2 + · · · + µr vr

o sea
λr+1 vr+1 + λr+2 vr+2 + · · · + λn vn − µ1 v1 − µ2 v2 − · · · − µr vr = 0.

Esta expresión es una combinación lineal nula de los vectores (12.12), los cuales
son una base de V, por lo tanto
λr+1 = λr+2 = · · · = λn = µ1 = µ2 = · · · = µr = 0.

En consecuencia, hemos mostrado que si λr+1 wr+1 +λr+2 wr+2 +· · ·+λn wn = 0,


entonces λr+1 = λr+2 = · · · = λn = 0. Es decir, los n − r vectores (12.13) son
linealmente independientes.

147
Ahora, supongamos que w ∈ Im(T ), entonces existe al menos un vector
v ∈ V de tal forma que
T (v) = w.
Además, debido a que el conjunto de vectores (12.12) son una base de V, existen
n escalares ζ1 , ζ2 , · · · ζn tales que

v = ζ1 v1 + ζ2 + · · · ζr vr + ζr+1 vr+1 + · · · + ζn vn .

Esta igualdad implica


w = T (v) = T (ζ1 v1 + ζ2 v2 + · · · ζr vr + ζr+1 vr+1 + · · · + ζn vn )
= ζ1 T (v1 ) + ζ2 T (v2 ) + · · · ζr T (vr ) + ζr+1 T (vr+1 ) + · · · + ζn T (vn )
= ζr+1 T (vr+1 ) + · · · + ζn T (vn )
= ζr+1 wr+1 + · · · + ζn wn ,

dicho de otro modo


w = ζr+1 wr+1 + · · · + ζn wn .

Así, hemos mostrado que cualquier vector del conjunto Im(T ) se puede escri-
bir como combinación lineal de los n − r vectores (12.13), por lo que dichos
vectores son generadores del Im(T ).

En resumen, el conjunto de vectores (12.13) es base del espacio vectorial


Im(T ), lo cual implica que la dimensión de Im(T ) es n − r. Observe estos
resultados implican

dim (Im(T )) + dim (Ker(T )) = dimV.

La idea de función lineal está de forma implícita en la obra de Grassmann.


Sin embargo, este concepto es formalizado en los trabajo de Peano, quien fue
de los pocos matemáticos que logran apreciar la importancia de los trabajos
de Grassmann.

148
Giuseppe Peano (1858-1932) fue un matemático italiano que realizó contri-
buciones relevantes en los fundamentos de las matemáticas y la lógica. Fue
hijo de dos granjeros del Piamonte italiano. De niño tenía que caminar cinco
kilómetros al día para asistir a la escuela. Realizó sus estudios doctorales ba-
jo la dirección de Enrico D' Ovidio, en la Universidad de Turín. Se interesó
en construir un lenguaje universal escrito para las matemáticas que todos los
matemáticos de Mundo pudieran entender y usar. En este sentido, inventó su
propia notación que la actualidad se sigue usando en la lógica. También se
interesó en dar fundamentos sólidos a las matemáticas, por lo que incursionó
en la lógica y en la teoría de conjuntos. En estos temas sus trabajos inuyeron
a importantes lósofos como Bertrand Russell. Por estas razones es conside-
rado uno de los padres de la Lógica Matemática. Siendo muy joven inició el
proyecto llamado Formulario, una obra en la cual buscó tener todas las demos-
traciones y fórmulas matemáticas conocidas hasta su tiempo. Debido a que no
le gustaba la calidad de las impresiones de los libros de matemáticas, fundó
su propia imprenta. También realizó contribuciones al cálculo y a la geome-
tría. Por ejemplo, construyó la llamada curva de Peano, que tiene propiedades
fractales. Peano estaba interesado en la enseñanza de las matemáticas por lo
que escribió diversos libros que inuyeron a estudiantes italianos de todos los
niveles educativos. Murió de un ataque al corazón en 1932.

12.8. Ejercicios
1.- Suponiendo que g(x) es una función continua, determinar si la siguiente
transformación es lineal
∂2
 
T [f (x)] = + g(x) f (x).
∂x2
2.- Suponiendo que g(x) es una función continua, determinar si la siguiente
transformación es lineal
∂ 2 f (x)
T [f (x)] = + g(x) (f (x))2 .
∂x2
3.- Determinar si la siguiente transformación es lineal
T [f (x)] = ln (f (x)) .
4.- Determinar si la siguiente transformación es lineal
F (x, y) = (2x − y, x + 4y).

149
5.- Determinar si la siguiente transformación es lineal
F (x, y) = (2x − y, x2 + 4y).

6.- Determinar si la siguiente transformación es lineal


Z ∞
1
T [f (x)] = e−sx .
0 f (x)

7.- En el espacio de las funciones derivables de una variable real, sea el


operador lineal
d2
 = m 2
+ mω 2 , m, ω ∈ R, m > 0.
dx
 
Encontrar una función no trivial que pertenezca al conjunto Ker  .

8.- Sea la matriz  


1 −1 0
A= 0 1 −1  .
1 1 −2
Encontrar un vector no trivial que pertenezca al conjunto Ker(A).

9.- Sea el operador lineal


d2 d
 = 2
+ λ + γ.
dx dx
y la función
b
Y (x) = eαx .
α2 + λα + γ
Encontrar la función imagen de Y (x) bajo Â.

10.- La Transformada de Laplace de una función f (x) se dene como


Z ∞
F (s) = L [f (x)] = e−sx f (x)dx.
0

Encontrar la imagen de f (x) = eax bajo la transformada de Laplace.

150
Capítulo 13
Combinación lineal y composición
de transformaciones lineales
En este capítulo mostraremos que al hacer combinaciones lineales de trans-
formaciones lineales o composición de ellas se obtiene otra transformación li-
neal.

13.1. Combinación lineal


Sea V un espacio vectorial de dimensión n sobre el campo K y W un
espacio vectorial de dimensión m sobre el mismo campo y
T1 : V −→ W,
T2 : V −→ W,

son dos transformaciones lineales .

Si a, b ∈ K podemos denir otra transformación


T : V −→ W,

de la forma
T = aT1 + bT2 .

En este caso, si v ∈ V, se dene


T (v) = (aT1 + bT2 ) (v) = aT1 (v) + bT2 (v).

151
Note que esta nueva transformación cumple
T (αv1 + βv2 ) = (aT1 + bT2 ) (αv1 + βv2 )
= aT1 (αv1 + βv2 ) + bT2 (αv1 + βv2 )
= a (αT1 (v1 ) + βT1 (v2 )) + b (αT2 (v1 ) + βT2 (v2 ))
= α (aT1 (v1 ) + bT2 (v1 )) + β (aT1 (v2 ) + bT2 (v2 ))
= α (aT1 + bT2 ) (v1 ) + β (aT1 + bT2 ) (v2 )
= αT (v1 ) + βT (v2 ) .
Así, cualquier combinación lineal de dos operadores lineales nos da otro ope-
rador lineal.

13.2. Composición de funciones lineales


Supongamos que V1 , V2 , V3 son espacios vectoriales sobre el campo K y que
las siguientes funciones
F1 : V1 −→ V2 ,
F2 : V2 −→ V3 ,
son lineales. Entonces podemos realizar la composición de funciones lineales

F = F2 ◦ F1 : V1 −→ V3 ,

Probaremos que F es una función lineal. Para realizar esta prueba supongamos
que v1 , v2 ∈ V1 y α, β ∈ K, de donde
F (αv1 + βv2 ) = (F1 ◦ F2 ) (αv1 + βv2 )
= F1 (F2 (αv1 + βv2 ))
= F1 (αF2 (v1 ) + βF2 (v2 ))
= αF1 (F2 (v1 )) + βF1 (F2 (v2 ))
= α (F1 ◦ F2 ) (v1 ) + β (F1 ◦ F2 ) (v2 )
= αF (v1 ) + βF (v2 ) ,
esto es
F (αv1 + βv2 ) = αF (v1 ) + βF (v2 ) .
Por lo tanto, la composición de dos funciones lineales también da como resul-
tado otro operador lineal.

152
13.3. Ejemplos
Por ejemplo, sabemos que los operadores
∂ ∂ ∂
, ,
∂x ∂y ∂z
son lineales, entonces también lo son
∂2 ∂2 ∂2
, , .
∂x2 ∂y 2 ∂z 2
Esto implica que el operador Laplaciano
∂2 ∂2 ∂2
∇2 = + +
∂x2 ∂y 2 ∂z 2
es lineal. Recordemos que cualquier función V (x, y, z) que cumpla el papel de
operador, es lineal. Entonces el operador Hamiltoniano
ℏ2 2
H=− ∇ + V (x, y, z)
2m
es lineal. Esto se debe a que es combinación lineal de opeadores lineales. Ade-
más las variables
x, y, z
como operadores son lineales. Entonces los operadores
     
∂ ∂ ∂ ∂ ∂ ∂
Lx = −i y −z , Ly = −i z −x , Lz = −i x −y ,
∂z ∂y ∂x ∂z ∂y ∂x
son lineales, puesto que son combinaciones lineales de productos de operadores
lineales. Por la misma razón, el operador
L2 = L2x + L2y + L2z
es lineal.

13.4. Ejercicios
1.- Sin c es una constante, con los siguientes operadores lineales del espacio-
tiempo
x, y, z, ct,
∂ ∂ ∂ ∂
, , ,
∂x ∂y ∂z ∂ct
obtener todos los operadores lineales que se pueden obtener hasta una potencia
2.

153
Capítulo 14
Matriz asociada a una
transformación lineal
En este capítulo mostraremos que las transformaciones lineales que actúan
en espacios vectoriales de dimesión nita tienen asociada una matriz y veremos
algunas propiedades de dicha matriz.

14.1. Matriz
Sea V un espacio vectorial de dimensión n sobre el campo K y sea W un
espacio vectorial de dimensión m sobre el mismo campo y
T : V −→ W

una transformación lineal. Además, supongamos que


{v1 , v2 , · · · , vn } (14.1)
es una base del espacio vectorial V y
{w1 , w2 , · · · , wm } (14.2)
es una base del espacio vectorial W.

Observe que si v ∈ V, entonces T (v) ∈ W. Por lo que, debido a que el


conjunto (14.2) es base de W, existen m escalares λ̃j ∈ K, j = 1, 2, · · · , m tales
que

T (v) = λ̃j wj . (14.3)

154
Ahora, como T (vi ) ∈ W, i = 1, 2, · · · , n, existen nm escalares en K tales que

T (vi ) = αij wj . (14.4)

Además, como el conjunto (14.1) es base de V, existen n escalares λi ∈ K tales


que
v = λi vi
y como T es una función lineal obtenemos
T (v) = T (λi vi )
= λi T (vi )
= λi αij wj ,
es decir
T (v) = λi αij wj .
Igualando este último resultado con la expresión (14.3) encontramos
λi αij wj = λ̃j wj ,
que induce la igualdad
0 = λi αij wj − λ̃j wj
 
= λi αij − λ̃j wj ,
esto es  
λi αij − λ̃j wj = 0.
Entonces, como el conjunto (14.2) es linealmente independiente llegamos a
λi αij − λ̃j = 0,
que implica
λ̃j = λi αij
T
= αji λi ,
esto es
T
λ̃j = αji λi .
A la matriz
M = αT

se le llama matriz asociada a la transformación lineal T.

155
14.2. Ejemplo
Por ejemplo, consideremos la transformación lineal
T (x, y, z) = (3x − y + 5z, 5x − 6y + 7z, x − 7y + 8z), (14.5)
ocupando la base canónica
(1, 0, 0), (0, 1, 0) (0, 0, 1) (14.6)
se encuentra
T (1, 0, 0) = (3, 5, 1) = 3(1, 0, 0) + 5(0, 1, 0) + 1(0, 0, 1)
T (0, 1, 0) = (−1, −6, −7) = −1(1, 0, 0) − 6(0, 1, 0) − 7(0, 0, 1),
T (0, 0, 1) = (5, 7, 8) = 5(1, 0, 0) + 7(0, 1, 0) + 8(0, 0, 1),

de donde se obtiene
 
3 5 1
α =  −1 −6 −7  ,
5 7 8

por lo tanto, usando la base canónica (14.6), la matriz asociada a la transfor-


mación lineal (14.5) es
 
3 −1 5
M = αT =  5 −6 7  .
1 −7 8

Note que
    
3 −1 5 x 3x − y + 5
M = αT =  5 −6 7   y  =  5x − 6y + 7z  ,
1 −7 8 z x − 7y + 8z

así la transformación lineal (14.5) se recupera como el producto de una matriz


por un vector columna.

14.3. Matriz asociada a composición de funcio-


nes lineales

156
Sean V, W1 , W2 espacios vectoriales de dimensión nita sobre un campo K
y
T1 : V −→ W1 ,
T2 : W1 −→ W2

funciones lineales. Supongamos que


{v1 , v2 , · · · , vn }

es base de V, que
{w1 , w2 , · · · , wm1 }
es base de W1 y
{w1′ , w2′ , · · · , wm

2
}
es base de W2 . Además, supongamos que con dichas bases M1 es la matriz
asociada a T1 y M2 es la matriz asociada a T2 . Entonces, la matriz asociada a
la composición de las funciones lineales

T = (T2 ◦ T1 ) : V −→ W2

es el producto de matrices

M = M2 M1 .

Para demostrar esta armación, recordemos que debido a que los conjuntos
{vi }(i = 1, 2, · · · , n), {wj }(j = 1, 2, · · · , m1 ), {wk′ }(k = 1, 2, · · · , m2 ) son bases
de V, W1 , W2 , respectivamente, entonces si v ∈ V existen n números λi tales
que
v = λi vi ;

como T1 (vi ) ∈ W1 existen nm1 números αij tales que


T1 (vi ) = αij wj ;

como T2 (wj ) ∈ W2 existen m1 m2 números αjk



tales que

T2 (wj ) = αjk wk′ ;

157
como T (v) = (T2 ◦ T1 )(v) ∈ W2 existen nm2 números λ̃k tales que
T (v) = λ̃k wk′ . (14.7)
Por lo tanto,
T (v) = (T2 ◦ T1 )(v)
= T2 (T1 (v))
= T2 (T1 (λi vi ))
= T2 (λi T1 (vi ))
= T2 (λi αij wj )
= λi αij T2 (wj )

= λi αij αjk wk′
= λi (αα′ )ik wk′ ,

es decir
T (v) = λi (αα′ )ik wk′ .

Igualando este resultado con la expresión (14.7), tenemos


T (v) = λi (αα′ )ik wk′ = λ̃k wk′ ,

que implica
λi (αα′ )ik wk′ − λ̃k wk′ = (λi (αα′ )ik − λ̃k )wk′ = 0,

esto es
(λi (αα′ )ik − λ̃k )wk′ = 0.

Ahora, como el conjunto {wk′ } es linealmente independiente, el último resultado


induce la igualdad
λi (αα′ )ik − λ̃k = 0

de donde
λ̃k = λi (αα′ )ik = (αα′ )Tki λi ,

así obtenemos
λ̃k = (αα′ )Tki λi .

158
Por lo tanto, la matriz asociada a T es
M = (αα′ )T
= α′T αT
= M2 M1 ,

esto es,
M = M2 M1 ,

que es lo que se quería demostrar.

14.4. Ejemplo
Por ejemplo, consideremos las transformaciones lineal
T1 (x, y, z) = (x − y + z, x + y − z, 2x + y + z),
T2 (x, y, z) = (−x + 2y + z, −x − y + z, −x + y + z),

por lo que
T (x, y, z) = (T2 ◦ T1 ) (x, y, z) = (3x + 4y − 2z, x + z, 2x + 4y − z).

Además, usando la base canónica


(1, 0, 0), (0, 1, 0) (0, 0, 1)

se obtienen
T1 (1, 0, 0) = (1, 1, 2) = 1(1, 0, 1) + 1(0, 1, 0) + 2(0, 0, 1),
T1 (0, 1, 0) = (−1, 1, 1) = −1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1),
T1 (0, 0, 1) = (1, −1, 1) = 1(1, 0, 0) − 1(0, 1, 0) + 1(0, 0, 1),

de donde se obtiene la matriz


 
1 1 2
α1 =  −1 1 1 ,
1 −1 1
por lo cual la matriz asociada a T1 es
 
1 −1 1
M1 = α1T =  1 1 −1  .
2 1 1

159
También utilizando la base canónica se llega a
T2 (1, 0, 0) = (−1, −1, −1) = −1(1, 0, 0) − 1(0, 1, 0) − 1(0, 0, 1),
T2 (0, 1, 0) = (2, −1, 1) = 2(1, 0, 0) − 1(0, 1, 0) + 1(0, 0, 1),
T2 (0, 0, 1) = (1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1),

de donde
 
−1 −1 −1
α2 =  2 −1 1 ,
1 1 1

por lo que la matriz asociada a T2 es


 
−1 2 1
M2 = α2T =  −1 −1 1  .
−1 1 1

Además, con la misma base canónica, se encuentra


T (1, 0, 0) = (3, 0, 2) = 3(1, 0, 1) + 0(0, 1, 0) + 2(0, 0, 1),
T (0, 1, 0) = (4, 1, 3) = 4(1, 0, 0) + 1(0, 1, 0) + 3(0, 0, 1),
T (0, 0, 1) = (−2, 1, −1) = −2(1, 0, 0) + 1(0, 1, 0) − 1(0, 0, 1),

de donde
 
3 0 2
α= 4 1 3 ,
−2 1 −1

así la matriz asociada a T es


 
3 4 −2
M = αT =  0 1 1 .
2 3 −1

Se puede observar que se cumple M = M2 M1 , es decir


    
3 4 −2 −1 2 1 1 −1 1
 0 1 1  =  −1 −1 1   1 1 −1  .
2 3 −1 −1 1 1 2 1 1

160
14.5. Cambio de base y matriz asociada
Sea V un espacio vectorial de dimensión nita y
T : V −→ V

una transformación lineal, además sean


{v1 , v2 , · · · vn }, {v1′ , v2′ , · · · vn′ }

dos bases diferentes de V. Supongamos que N es la matriz de cambio de base,


M la matriz asociada a T con la base {vi }(i = 1, 2 · · · , n) y M ′ la matriz
asociada a T con la base {vi′ }. Entonces, se cumple

M ′ = N −1 M N.

Para mostrar esta armación, primero recordemos que debido a que {vi } y
{vi′ } son bases de V y N es la matriz de cambio de base se tiene

vi′ = NijT vj , j = 1, 2, · · · , n.

También recordemos que como M es la matriz asociada a T con la base {vi }


y M ′ es la matriz asociada a T con la base {vi′ } se cumple
T (vi ) = MijT vj ,
T (vi′ ) = Mij′T vj′ .

Por lo tanto
T (vi′ ) = T NijT vj


= NijT T (vj )
T
= NijT Mjk vk
= (M N )Tik vk ,

además
T (vi′ ) = Mij′T vj′
= Mij′T Njk
T
vk
T
= (N M ′ )ik vk ,

161
de donde
T
(M N )Tik vk = (N M ′ )ik vk ,

es decir
(M N )Tik − (N M ′ )Tik vk = 0.
 

Como el conjunto de vectores {v ′ } es una base de V, se encuentra


(M N )Tik = (N M ′ )Tik ,

que implica
(M N )T = (N M ′ )T .

Esta igualdad se puede escribir como


M N = N M ′,

así obtenemos
M ′ = N −1 M N,

que es lo que se quería demostrar.

14.6. Ejemplo
Por ejemplo, consideremos la transformación lineal
T (x, y, z) = (2x + y + z, −x − y + 3z, 2x − y + 3z),

con la base canónica


(1, 0, 0), (0, 1, 0), (0, 0, 1)

se obtienen
T (1, 0, 0) = (2, −1, 2) = 2(1, 0, 0) − 1(0, 1, 0) + 2(0, 0, 1),
T (0, 1, 0) = (1, −1, −1) = 1(1, 0, 0) − 1(0, 1, 0) − 1(0, 0, 1),
T (0, 0, 1) = (1, 3, 3) = 1(1, 0, 0) + 3(0, 1, 0) + 3(0, 0, 1),

162
por lo que se encuentra
 
2 −1 2
α =  1 −1 −1  ,
1 3 3
entonces la matriz asociada con esta base es

2 1 1
M = αT =  −1 −1 3  .
2 −1 3
Mientras que con la base
(1, 1, 0), (1, −1, 0), (1, 1, 1)
se encuentra
1 5
T (1, 1, 0) = (3, −2, 1) = − (1, 1, 0) + (1, −1, 0) + 1(1, 1, 1)
2 2
5 1
T (1, −1, 0) = (1, 0, 3) = − (1, 1, 0) + (1, −1, 0) + 3(1, 1, 1),
2 2
3 3
T (1, 1, 1) = (4, 1, 4) = − (1, 1, 0) + (1, −1, 0) + 4(1, 1, 1),
2 2
que implica la matriz
− 12 5
 
2
1
α′ =  − 52 1
2
3 ,
− 32 3
2
4
de donde la matriz asociada con esta base es
 
−1 −5 −3
1
M ′ = αT =  5 1 3 .
2
2 6 8
Además podemos ver que
(1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1),
(1, −1, 0) = 1(1, 0, 0) − 1(0, 1, 0) + 0(0, 0, 1),
(1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1),
que induce la matriz
 
1 1 0
β =  1 −1 0  ,
1 1 1

163
así la matriz de cambio de base y su inversa son
   
1 1 1 1 1 −2
1
N = β T =  1 −1 1  , N −1 =  1 −1 0 .
2
0 0 1 0 0 2

Con estas matrices se puede ver que se satisface M ′ = N M N −1 , es decir


     
−1 −5 −3 1 1 −2 2 1 1 1 1 1
1 1
5 1 3  =  1 −1 0   −1 −1 3   1 −1 1  .
2 2
2 6 8 0 0 2 2 −1 3 0 0 1

14.7. Ejercicios
1.- Con la base canónica, obtener la matriz asociada a la transformación
lineal
T (x, y, z) = (2x + 3y − z, x + y + z, x − 2y + 3z).
2.- Suponiendo que se usa la base canónica, encontrar la transformación
lineal está asociada a la matriz
 
3 0 1
M =  4 −1 1  .
1 2 1

3.- Usando la base canónica y la matriz asociada, obtener la función inversa


de transformación lineal
T (x, y, z) = (3x − y + z, x + y + z, y − z).

164
Capítulo 15
Producto escalar
En este capítulo veremos la denición de producto escalar en un espacio
vectorial. Además veremos ejemplos de espacios vectoriales con producto es-
calar.

El concepto de producto escalar para vectores en Rn se encuentra en los


trabajos fundamentales de Hermann Gunther Grassmann, que datan de 1884.
En la actualidad este concepto importante para entender temas de diversas
áreas como geometría diferencial, mecánica cuántica, análisis funcional, entre
otras.

15.1. Denición
Una operación importante entre vectores es el producto escalar. Este
producto manda dos vectores a un número complejo

⟨|⟩ : V × V → C

y debe satisfacer los axiomas:

·) ∀v ∈ V ⟨v|v⟩ ≥ 0, ⟨v|v⟩ = 0 ⇐⇒ v = 0, (15.1)


··) ∀v, u, w ∈ V ⟨v + u|w⟩ = ⟨v|w⟩ + ⟨u|w⟩ , (15.2)
···) ∀v, u ∈ V, λ ∈ C ⟨v|λu⟩ = λ ⟨v|u⟩ , (15.3)
· · · ·) ∀v, u ∈ V, ⟨v|u⟩ = (⟨u|v⟩)∗ . (15.4)

165
Existen diferentes implicaciones de estos axiomas. Por ejemplo, para cual-
quier vector v se cumple
⟨v|0⟩ = 0.

En efecto sabemos que v − v = 0, entonces


⟨v|0⟩ = ⟨v|v − v⟩
= ⟨v|v| − ⟨v|v⟩ = 0,

que es lo que se quería demostrar

Otra implicación es que si λ es un número complejo y v1 , v2 dos vectores,


entonces se cumple
⟨λv1 |v2 ⟩ = λ∗ ⟨v1 |v2 ⟩ .

Esta igualdad es correcta, pues considerando que los número complejos cum-
plen que
(z1 z2 )∗ = z1∗ z2∗ , (z ∗ )∗ = z
y los axiomas (15.3)-(15.4) se encuentra
⟨λv1 |v2 ⟩ = (⟨λv2 |v1 ⟩)∗
= (λ ⟨v2 |v1 ⟩)∗
= λ∗ (⟨v2 |v1 ⟩)∗

= λ∗ ((⟨v1 |v2 ⟩)∗ )
= λ∗ ⟨v1 |v2 ⟩ .

Antes de ver otras propiedades del producto escalar, veremos algunos ejem-
plos de ellos.

15.2. Ejemplos de producto escalar


15.2.1. Producto escalar en Cn
Si tenemos dos vectores en Cn ,
v = (v1 , v2 , · · · , vn ) y w = (w1 , w2 , · · · , wn ),

166
el producto escalar se dene como

n
X
⟨v|w⟩ = v1∗ w1 + v2∗ w2 + ··· + vn∗ wn = vi∗ wi .
i=1

Note que a los vectores v y w se les puede asignar las matrices columna
   
v1 w1
 v2   w2 
v =  ..  , w =  ..  ,
   
 .   . 
vn wn

por lo que

w1
 w2 
 
v ∗T w = v1∗ v2∗ ··· vn  .. 

 . 
wn
=v1∗ w1 + v2∗ w2 + · · · + vn∗ wn
Xn
= vi∗ wi
i=1
= ⟨v|w⟩ ,

así el producto escalar en el espacio Cn se puede escribir como

⟨v|w⟩ = v ∗T w.

Ahora podemos ver que


⟨v|v⟩ = v ∗T v
= v1∗ v1 + v2∗ v2 + · · · + vn∗ vn
= |v1 |2 + |v2 |2 + · · · + |vn |2 ≥ 0,

además si
|v1 |2 + |v2 |2 + · · · + |vn |2 = 0,

167
entonces
v1 = 0, v2 = 0, · · · , vn = 0,

por lo que
v = (0, 0, · · · , 0).
Así esta dención de producto escalar cumple el axioma (15.1).

Además, tenemos que


⟨v|(w1 + w2 )⟩ = v ∗T (w1 + w2 )
= v ∗T w1 + v ∗T w2
= ⟨v|w1 ⟩ + ⟨v|w2 ⟩ ,

entonces esta denición de producto escalar respeta la suma de vectores y se


cumple el axioma (15.2).

También se puede ver que si λ es un número complejo se tiene que


⟨v|λw⟩ = v ∗T λw
= λv ∗T w
= λ ⟨v|w⟩ ,

en este caso podemos concluir este producto escalar cumple el axioma (15.3).

Ahora, recordemos que el complejo conjugado respeta la suma y que cual-


quier número complejo satisface (z ∗ )∗ = z, entonces se puede observar que
(⟨v|w⟩)∗ = (v1∗ w1 + v2∗ w2 + · · · + vn∗ wn )∗
= (v1∗ )∗ w1∗ + (v2∗ )∗ w2∗ + · · · + (vn∗ )∗ wn∗
= v1 w1∗ + v2 w2∗ + · · · + vn wn∗
= w1∗ v1 + w2∗ v2 + · · · + wn∗ vn
= w∗T v
= ⟨w|v⟩,

es decir,
⟨w|v⟩ = ⟨v|w⟩∗

de donde se cumple el axioma (15.4).

168
15.2.2. Funciones
Si q(x) es una función real, continua y positiva en el intervalo (a, b), para
el espacio vectorial de las funciones continuas, {f }, que va del intervalo [a, b]
a los complejos, tales que

Z b
dxq(x)f ∗ (x)f (x) < ∞,
a

se puede denir el producto escalar como

Z b
⟨f |g⟩ = dxq(x)f ∗ (x)g(x). (15.5)
a

Considerando las propiedades de q(x) y f (x), el primer axioma de producto


escalar se cumple pues
Z b
⟨f |f ⟩ = dxq(x)f ∗ (x)f (x)
a
Z b
= dxq(x)|f (x)|2 ≥ 0.
a

Además, como f es una función continua, se tiene


Z b
⟨f |f ⟩ = dxq(x)|f (x)|2 = 0 ⇐⇒ f (x) = 0.
a

El segundo axioma de producto escalar se cumple, en efecto


Z b
⟨f |g1 + g2 ⟩ = dxq(x)f ∗ (x) (g1 (x) + g2 (x))
a
Z b
= dx (q(x)f ∗ (x)g1 (x) + q(x)f ∗ (x)g2 (x))
a
Z b Z b

= dxq(x)f (x)g1 (x) + dxq(x)f ∗ (x)g2 (x)
a a
= ⟨f |g1 ⟩ + ⟨f |g2 ⟩ .

169
Los axiomas restantes también se cumplen, para probar esta armación su-
pongamos que λ es un número complejo, entonces
Z b
⟨f |g⟩ = dxq(x)f ∗ (x)λg(x)
a
Z b
= λ dxq(x)f ∗ (x)g(x) = λ ⟨f |g⟩ ,
a

además
Z b ∗
∗ ∗
⟨f |g⟩ = dxq(x)f (x)g(x)
a
Z b
= dxq(x) (f ∗ (x))∗ g ∗ (x)
a
Z b
= dxq(x)f (x)g ∗ (x)
a
Z b
= dxq(x)g ∗ (x)f (x)
a
= ⟨g|f ⟩ .

Por lo tanto, la ecuaciíon (15.5) es un producto escalar para el espacio vectorial


de las funciones.

15.2.3. Matrices
Supongamos que M y N pertenecen al espacio vectorial de las matrices
de entradas complejas de n × n, deniremos el producto escalar entre estas
matrices como
⟨M |N ⟩ = T r M ∗T N . (15.6)


170
El primer axioma se cumple, pues
⟨M |M ⟩ = T r M ∗T M


Xn
M ∗T M ii

=
i=i
n X
X n
M ∗T

= ik
Mki
i=1 k=1
n X
X n

= Mki Mki
i=1 k=1
Xn X n
= |Mik |2 ≥ 0,
i=1 k=1

esto es
n X
X n
⟨M |M ⟩ = |Mik |2 ≥ 0.
i=1 k=1

De donde, si ⟨M |M ⟩ = 0, entonces Mik = 0, es decir M = 0.

Además, si N1 y N2 son matrices de n × n,


⟨M |N1 + N2 ⟩ = T r M ∗T (N1 + N2 )


= T r M ∗T N1 + M ∗T N2


= T r M ∗T N1 + T r M ∗T N2
 

= ⟨M |N1 ⟩ + ⟨M |N2 ⟩ .

Por lo que se cumple el segundo axioma de producto escalar.

También se puede observar que si λ es un número complejo, entonces


⟨M |λN ⟩ = T r M ∗T λN


Xn
M ∗T λN ii

=
i=i
n
X
M ∗T N

= λ ii
i=i
= λT r M ∗T N


= λ ⟨M |N ⟩ .

171
Adicionalmente, se encuentra
⟨M |N ⟩ = T r M ∗T N

 T 
= T r M ∗T N
= T r NT M∗

∗ ∗
T r NT M∗

=
∗
= T r N ∗T M
= (⟨N |M ⟩)∗ .

Por lo tanto, (15.6) es un producto escalar para el espacio vectorial de las ma-
trices de n × n.

Por ejemplo, consideremos las matrices de Pauli


     
0 1 0 −i 1 0
σ1 = , σ2 = , σ3 = ,
1 0 i 0 0 −1

que tienen diferentes aplicaciones en mecánica cuántica. Suponiendo que I es


matriz identidad, se puede probar que estas matrices satisfacen
⟨I|σi ⟩ = T r(σi ) = 0,
 
⟨σi |σj ⟩ = T r (σi )∗T σj = T r(σi σj ) = 2δij .

15.2.4. Sucesiones
P Si tenemos dosPsucesiones s1 = {an }∞
n=0 y s2 = {bn }n=0 donde an , bn ∈ C y

n≥0 |bn | < ∞, se puede denir el producto escalar como


2 2
n≥0 |an | < ∞,
X
⟨s1 |s2 ⟩ = a∗n bn .
n≥0

Observe que éste es una generalización del producto escalar entre vectores.

15.3. Vectores ortogonales

172
Se dice que los vectores v1 y v2 son ortogonales si

⟨v1 |v2 ⟩ = 0.

Por ejemplo, los vectores


v1 = (1, −1, 1), v2 = (2, 2, 0)

son ortogonales, pues


⟨v1 |v2 ⟩ = (1, −1, 1) · (2, 2, 0)
= 1 · 2 + (−1) · 2 + 1 · 0
= 2 − 2 + 0 = 0.

De la misma forma, tomando q(x) = 1 y el intervalo [−1, 1] , la funciones


f (x) = x, g(x) = x2

son ortogonales, pues


Z 1
⟨f (x)|g(x)⟩ = x · x2
−1
Z 1
= x3
−1
1
x4
= = 0.
4
−1

Además, las matrices


   
1 1 1 −1
M1 = , M2 =
0 −1 1 0

173
son ortogonales, pues
⟨M1 |M2 ⟩ = T r M1T M2

 T  !
1 1 1 −1
= Tr
0 −1 1 0
  
1 0 1 −1
= Tr
1 −1 1 0
 
1 −1
= Tr
0 −1
= 1 − 1 = 0.

15.4. Vectores normales o unitarios


Se dice que un vector v es normal o unitario si cumple que

⟨v|v⟩ = 1.

Por ejemplo, el vector


1
v = √ (1, −1, 2)
6
es normal, pues
1 1
⟨v|v⟩ = √ (1, −1, 2) · √ (1, −1, 2)
6 6
1 · 1 + (−1)(−1) + 2 · 2
=
6
6
= = 1.
6

De la misma forma, tomando q(x) = 1 y el intervalo [−1, 1] , la función


r
3
f (x) = x,
2

174
es normal, pues
Z 1
r r
3 3
⟨f (x)|f (x)⟩ = x· x
−1 2 2
Z 1
3
= x2
2 −1
1
3
3x
= = 1.
2 3
−1

Además, la matriz
 
1 2 1
M=√ ,
6 0 1

cumple que
⟨M |M ⟩ = T r M T M

 T  !
1 2 1 1 2 1
= Tr √ √
6 0 1 6 0 1
  
1 2 0 2 1
= Tr
6 1 1 0 1
 
1 4 2
= Tr
6 2 2
4+2
= = 1.
6
Así, M es una matriz normal.

En general, si v es un vector diferente de cero, siempre podemos construir


un vector unitario. De hecho, en este caso se cumple que ⟨v|v⟩ > 0 y se puede
denir el vector
v
u= p ,
⟨v|v⟩

175
el cual es unitario. En efecto, se satisface
v v
⟨u|u⟩ = ⟨ p |p ⟩
⟨v|v⟩ ⟨v|v⟩
!2
1
= p ⟨v|v⟩
⟨v|v⟩
1
= ⟨v|v⟩ = 1,
⟨v|v⟩
es decir
⟨u|u⟩ = 1,
por lo que u es un vector unitario.

15.5. Ortonormalidad e independencia lineal


Se dice que un conjunto de vectores,
{vi }ni=1 = {v1 , v2 , · · · , vn },

es ortonormal si

⟨vi |vj ⟩ = δij , i, j = 1, 2, · · · , n.

En otras palabras, un conjunto de vectores, {vi }ni=1 , es ortonormal si cada vec-


tor es unitario y es ortogonal al resto de los vectores del conjunto.

Si un conjunto de vectores es ortonomal, entonces es linealmente indepen-


diente. Para probar esta armación, recordemos que un conjunto de vectores
{wi }ni=1 es linealmente independiente si cualquier combinación lineal de la for-
ma
n
X
0= bi w i ,
i=1

implica bi = 0.

Ahora, supongamos que


{a1 , a2 , · · · , an }

176
son un conjunto de escalares tales que
n
X
0= ai vi .
i=1

Entonces, como los vectores del conjunto {vi }ni=1 son ortonormales, si el vector
vj es un vector de ese conjunto se encuentra que
* n
+
X
0 = ⟨vj |0⟩ = vj ai v i
i=1
n
X
= ⟨vj |ai vi ⟩
i=1
Xn
= ai ⟨vj |vi ⟩
i=1
Xn
= ai δij = aj ,
i=1

esto es aj = 0, lo que completa la prueba.

Un conjunto de vectores ortonormal, {vi }ni=1 , tiene varias propiedades in-


teresantes. Por ejemplo, si v es una combinación lineal de estos vectores, es
decir, si
n
X
v= ai vi ,
i=1

se cumple
n
X
⟨v|v⟩ = |ai |2 .
i=1

177
En efecto,
Xn n
X
⟨v|v⟩ = ⟨ ai vi aj v j ⟩
i=1 j=1
n
XX n
= ⟨ai vi |aj vj ⟩
i=1 j=1
Xn X n
= a∗i aj ⟨vi |vj ⟩
i=1 j=1
Xn X n
= a∗i aj δij
i=1 j=1
Xn
= |ai |2 ,
i=1

que es lo que queríamos demostrar.

15.6. Ejemplos de conjuntos de vectores orto-


normales
En esta sección veremos diferentes conjuntos de vectores ortonormales.

15.6.1. Exponencial compleja


Sea el conjunto de funciones

einφ
 
{Φn (φ)} = √ , n∈Z (15.7)

denidas en el intervalo [0, 2π]. Este conjunto de funciones es ortonormal con


el producto escalar Z 2π
⟨f |g⟩ = dxf ∗ (x)g(x).
0

178
De hecho
Z 2π
⟨Φn (φ)|Φm (φ)⟩ = dφ (Φn (φ))∗ Φm (φ)
0
Z 2π
1
= dφei(m−n)φ .
2π 0
Si m = n, es claro que
Z 2π Z 2π
1 i(n−n)φ 1
dφe = dφ = 1.
2π 0 2π 0

Adicionalmente, si n ̸= m se tiene
Z 2π 2π
1 i(m−n)φ 1 1
dφe = ei(m−n)φ
2π 0 2π i(n − m) 0
1 1
(−1)2(m−n) − 1 = 0.

=
2π i(m − n)

Por lo tanto,
⟨Φn (φ)|Φm (φ)⟩ = δmn , (15.8)

es decir, el conjunto (15.7) es ortonormal y en consecuencia linealmente inde-


pendiente.

15.6.2. Funciones trigonométricas


Consideremos el conjunto de funciones trigonométricas

 
1 cos nx sin nx
{ψ(x)} = √ , √ , √ , n∈N (15.9)
2π π π

Este conjunto forman un conjunto de funciones ortonormales en el intervalo


[−π, π] con el producto escalar
Z π
⟨f |g⟩ = dxf (x)g(x). (15.10)
−π

179
Para mostrar esta armación ocuparemos las identidades
1
cos(α) cos(β) = [cos(α − β) + cos(α + β)] , (15.11)
2
1
sin(α) sin(β) = [cos(α − β) − cos(α + β)] , (15.12)
2
1
sin(α) cos(β) = [sin(α + β) + sin(α − β)] . (15.13)
2

Ahora, obsérvese que se cumple


Z π
1 1 1
⟨√ √ ⟩ = dx = 1,
2π 2π −π 2π
Z π
1 sin nx 1 sin nx
⟨√ √ ⟩ = dx √ √ = 0,
2π π −π 2π π
Z π
1 cos nx 1 cos nx
⟨√ √ ⟩ = dx √ √ = 0.
2π π −π 2π π

Esto nos indica que la función constante


1


es ortogonal a las funciones
{cos nx, sin nx}.

Ahora, denamos l = n − m y k = n + m, entonces considerando las


identidades (15.11)-(15.13) se llega a
Z π
sin mx cos nx sin mx cos nx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx sin mx cos nx
π −π
Z π  
1
= dx sin kx + sin lx = 0.
2π −π

180
Para el caso en que n ̸= m, usando de nuevo las identidades (15.11)-(15.13) se
encuentra
Z π
cos nx cos mx cos nx cos mx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx cos mx cos nx
π −π
Z π  
1
= dx cos(n − m)x + cos(n + m)x
2π −π
Z π  
1
= dx cos lx + cos kx = 0,
2π −π
Z π
sin nx sin mx sin nx sin mx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx sin mx sin nx
π −π
Z π  
1
= dx cos(n − m)x − cos(n + m)x
2π −π
Z π  
1
= dx cos lx − cos kx = 0.
2π −π

Además, se cumplen
Z π
cos nx cos nx cos nx cos nx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx cos nx cos nx
π −π
Z π  
1
= dx cos(n − n)x + cos(2n)x
2π −π
Z π Z π
1 1
= dx + dx cos(2n)x = 1,
2π −π 2π −π
Z π
sin nx sin nx sin nx sin nx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx sin nx sin nx
π −π
Z π  
1
= dx cos(n − n)x − cos(2n)x
2π −π
Z π Z π
1 1
= dx − dx cos(2n)x = 1.
2π −π 2π −π

181
En resumen tenemos
 
sin mx sin nx
√ √ =δnm , (15.14)
π π
 
cos mx cos nx
√ √ =δnm , (15.15)
π π
 
1 1
√ √ =1, (15.16)
2π 2π
 
sin mx cos nx
√ √ =0, (15.17)
π π
 
1 cos nx
√ √ =0, (15.18)
2π π
 
1 sin nx
√ √ =0. (15.19)
2π π

Por lo tanto, el conjunto de funciones (15.9) es un conjunto de funciones orto-


normales en el intervalo [−π, π] con el producto escalar (15.10).

15.6.3. Matrices de Dirac


Como otro ejemplo, consideremos las llamadas matrices de Dirac
   
1 0 0 0 0 0 0 1
 0 1 0 0 
 , γ1 =  0
 0 1 0 
γ0 =  ,
 0 0 −1 0   0 −1 0 0 
0 0 0 −1 −1 0 0 0
   
0 0 0 −i 0 0 1 0
 0 0 i 0 
 0
 0 0 −1 
γ2 =  3
 0 i 0 0  , γ =  −1
,
0 0 0 
−i 0 0 0 0 1 0 0

que se usan en mecánica cuántica relativista. Se puede mostrar que las matrices
de Dirac cumplen
⟨I|γ µ ⟩ = T r (γ µ ) = 0,
 
µ ∗T ν
⟨γ |γ ⟩ = T r (γ ) γ = 4δ µν .
µ ν

182
Así, el conjunto de matrices
 
1 1 µ
I, γ , µ = 0, 1, 2, 3,
2 2

forman un conjunto de matrices ortonormales.

15.7. Teorema de Pitágoras


Supongamos que v es un vector y {vi }ni=1 es un conjunto de vectores or-
tonormales, mostraremos que v se puede descomponer como la suma de dos
vectores ortogonales w1 y w2 y además que se cumple

⟨v|v⟩ = ⟨w1 |w1 ⟩ + ⟨w2 |w2 ⟩ .

En la gura (15.1) se muestra una representación geométrica de este resultado.

v
w2

w1

Figura 15.1: Representación geométrica de la descomposición de un vector v


en dos vectores w1 , w2 ortogonales.

Para demostrar esta armación primero notemos que se pueden formar los
vectores n X
w1 = ⟨vi |v⟩ vi
i=1
y
n
X
w2 = v − ⟨vj |v⟩ vj ,
j=1

183
los cuales satisfacen
v = w1 + w2 .

Así, hemos descompuesto al vector v en los vectores w1 y w2 .

Ahora mostraremos que los vectores w1 y w2 son ortogonales, para probar


esta armación observemos que
* n
! n
!+
X X
⟨w1 |w2 ⟩ = ⟨vi |v⟩ vi v− ⟨vj |v⟩ vj
i=1 j=1
* n
! +
X
= ⟨vi |v⟩ vi v
i=1
* n
! n
!+
X X
− ⟨vi |v⟩ vi ⟨vj |v⟩ vj
i=1 j=1
n
X
= ⟨vi (⟨vi |v⟩) |v⟩
i=1
n X
X n
− ⟨(⟨vi |v⟩ vi ) | (⟨vj |v⟩ vj )⟩
i=1 j=1
n
X n X
X n

= ⟨vi |v⟩ ⟨vi |v⟩ − ⟨vi |v⟩∗ ⟨vj |v⟩ ⟨vi |vj ⟩
i=1 i=1 j=1
Xn Xn X n
= ⟨vi |v⟩∗ ⟨vi |v⟩ − ⟨vi |v⟩∗ ⟨vj |v⟩ δij
i=1 i=1 j=1
Xn Xn
= ⟨vi |v⟩∗ ⟨vi |v⟩ − ⟨vi |v⟩∗ ⟨vi |v⟩ = 0,
i=1 i=1

es decir
⟨w1 |w2 ⟩ = 0

y los vectores w1 y w2 son ortogonales.

Además, recordando que {vi }ni=1 es un conjunto de vectores ortonormales


se cumple
n
X
⟨w1 |w1 ⟩ = | ⟨vi |v⟩ |2 .
i=1

184
Adicionalmente, considerando que w1 y w2 son vectores ortonormales, se puede
observar que
 
⟨v v⟩ = w1 + w2 w1 + w2
       
= w1 w1 + w1 w2 + w2 w1 + w2 w2

= ⟨w1 |w1 ⟩ + ⟨w2 |w2 ⟩ ,

que es lo que queríamos demostrar.

Tomando en cuenta los resultados anteriores, claramente se cumple que si


{vn } es un conjunto de vectores ortonormales, para cualquier vector v se tiene
que

n
* n
! n
!+
X X X
⟨v|v⟩ = | ⟨vi |v⟩ |2 + v− ⟨vi |v⟩ vi v− ⟨vi |v⟩ vi .
i=1 i=1 i=1

Esta igualdad tiene diversas implicaciones importantes, algunas de ellas las


veremos en las siguientes secciones.

15.7.1. Desigualdad de Bessel


Note que el teorema de Pitágoras implica la desigualdad
n
(15.20)
X
| ⟨vi |v⟩ |2 ≤ ⟨v|v⟩ ,
i=1

que es conocida como desigualdad de Bessel.

Friedrich Bessel (1784-1846) nació en Alemania y trabajó en diversas disci-


plinas como astronomía, física y matemáticas. Las aportaciones más importan-
tes de Bessel se dieron en el campo de la astronomía, incluso fue director del
observatorio de Königsberg y es considerado el mejor astrónomo de su época.

185
Una de sus contribuciones más relevantes en matemáticas son funciones que
llevan su nombrel y que tienen aplicaciones en astronomía, electrodinámica,
nanzas, etc. Además, la desigualdad que tiene su nombre es fundamental en
análisis matemático y análisis funcional. Fue hijo de una sirvienta alemana.
Por problemas económicos, de adolescente dejó la escuela para trabajar. En
sus trabajos adquirió diferentes habilidades matemáticas. Primero trabajó con
un comerciante, después en una compañía naval y posteriormente fue contra-
tado en un observatorio en donde mostró su gran potencial para la astronomía
y las matemáticas. No tenía una eduación universitaria, pero recibió un grado
de Doctor honorario por parte de la Universidad de Göttingen, por recomenda-
ción de Gauss. Como profesor realizó contribuciones relevantes para reformar
la educación universitaria de su época.

15.7.2. Desigualdad de Schwarz


Sea w un vector diferente de cero, claramente el conjunto formado por
( )
w
p
⟨w|w⟩

es ortonormal. Entonces, de acuerdo con la desigualdad de Bessel (15.20), para


cualquier vector v se cumple
2
w
⟨p v⟩ ≤ ⟨v|v⟩ =⇒ |⟨w|v⟩|2 ≤ ⟨w|w⟩ ⟨v|v⟩
⟨w|w⟩

que implica

(15.21)
p p
|⟨w|v⟩| ≤ ⟨w|w⟩ ⟨v|v⟩.

Esta eta desigualdad se atribuye H. Schwarz.

Hermann Schwarz (1843-1921) fue un matemático y químico alemán que


realizó contribuciones notables en áreas como análisis complejo, geometría di-
ferencial y cálculo de variaciones. Realizó su tesis doctoral bajo la dirección

186
de Karl Weierstrass en la Universidad de Berlín. Sus trabajos inuenciaron
a Emile Picard para mostrar la existencia de soluciones de ecuaciones dife-
renciales ordinarias. Fue profesor de la Universidad de Berlín y miembro de
la Academia de Ciencias de Berlín. Como profesor inuyó a varias generacio-
nes de matemáticos. Fue director de 20 tesis doctorales y entre sus estudiantes
se encuentran matemáticos importantes como L. Fejér, P. Koebe y E. Zermelo.

15.7.3. Desigualdad del triángulo


Sean v y w dos vectores, entonces
⟨v + w|v + w⟩ = ⟨v|v + w⟩ + ⟨w|v + w⟩
= ⟨v|v⟩ + ⟨v|w⟩ + ⟨w|v⟩ + ⟨w|w⟩
= ⟨v|v⟩ + ⟨w|w⟩ + (⟨w|v⟩∗ + ⟨w|v⟩)
= ⟨v|v⟩ + ⟨w|w⟩ + 2Re (⟨w|v⟩)
≤ ⟨v|v⟩ + ⟨w|w⟩ + 2| ⟨w|v⟩ |.

De donde, recurriendo a la desigualdad de Schwarz (15.21) se tiene


p p
⟨v + w|v + w⟩ ≤ ⟨v|v⟩ + ⟨w|w⟩ + 2 ⟨w|w⟩ ⟨v|v⟩
p p 2
= ⟨w|w⟩ + ⟨v|v⟩ ,

es decir,
p p 2
⟨v + w|v + w⟩ ≤ ⟨w|w⟩ + ⟨v|v⟩

esta igualdad se nombra como del triángulo.

15.7.4. Igualdad del paralelogramo


Además, si v y w son dos vectores, entonces
⟨v + w|v + w⟩ + ⟨v − w|v − w⟩ =
= ⟨v|v + w⟩ + ⟨w|v + w⟩ + ⟨v|v − w⟩ − ⟨w|v − w⟩
= ⟨v|v⟩ + ⟨v|w⟩ + ⟨w|v⟩ + ⟨w|w⟩ + ⟨v|v⟩ − ⟨v|w⟩
− ⟨w|v⟩ + ⟨w|w⟩
= 2 (⟨v|v⟩ + ⟨w|w⟩) ,

187
es decir,

⟨v + w|v + w⟩ + ⟨v − w|v − w⟩ = 2 (⟨v|v⟩ + ⟨w|w⟩) ,

que es la llamada igualdad del paralelogramo.

15.8. Espacios normados


Sea V un espacio vectorial y || || una función de V en los reales. Se dice
que (V, || ||) es un espacio normado si

I) ||v|| ≥ 0,
II) ||v|| = 0, ⇐⇒ v = 0,
III) ||αv|| = |α|||v||, α ∈ C,
IV ) ||v + w|| ≤ ||v|| + ||w||.

Observe que si V es un espacio vectorial con producto escalar, entonces se


puede denir un espacio normado con la norma dada por
p
||v|| = ⟨v|v⟩.

Las propiedades I y II se cumplen, pues por los axiomas de producto escalar


se tiene que ⟨v|v⟩ ≥ 0 y ⟨v|v⟩ = 0 ⇐⇒ v = 0. La propiedad III se cumple,
pues si α es un escalar, se tiene
p
||αv|| = ⟨αv|αv⟩
p
= α∗ α ⟨v|v⟩
p
= |α|2 ⟨v|v⟩
p
= |α| ⟨v|v⟩
= |α| ||v||.
La propiedad IV también se cumple, pues usando la desigualdad del triángulo
se encuentra
||v + w||2 = ⟨v + w|v + w⟩
p p 2
≤ ⟨w|w⟩ + ⟨v|v⟩
= (||w|| + ||v||)2 ,

188
es decir,
||v + w|| ≤ ||w|| + ||v||.

Por lo tanto, un espacio vectorial


p con producto escalar es un espacio normado
con la norma dada por ||v|| = ⟨v|v⟩.

Note que utilizando la notación de espacios normados, la igualdad del pa-


ralelogramo toma la forma
||v + w||2 + ||v − w||2 = 2 ||v||2 + ||w||2 .


Mientras que, si {vi }ni=1 es un conjunto de vectores ortonormales, el teorema


de Pitágoras se puede escribir como
n n 2
X X
2 2
||v|| = | ⟨vi |v⟩ | + v − ⟨vi |v⟩ vi .
i=1 i=1

Además, la desigualdad de Bessel toma la forma


n
X
| ⟨vi |v⟩ |2 ≤ ||v||2
i=1

y la desigualdad de Schwarz es
|⟨w|v⟩| ≤ ||w|| ||v||.

15.8.1. Espacios métricos


Sea un conjunto M y d una función de M × M en los reales. Se dice que
(M, d) es un espacio métrico si satisface que ∀x, y ∈ M se cumple

A) d(x, y) ≥ 0,
B) d(x, y) = 0, ⇐⇒ x = y,
C) d(x, y) = d(y, x),
D) d(x, z) ≤ d(x, y) + d(y, z).

A la función d se le llama distancia.

189
Si V es un espacio normado, entonces se tiene un espacio métrico con la
distancia denida por

d(v1 , v2 ) = ||v1 − v2 ||.

Los dos primeros axiomas de distancia se cumplen, pues


d(v1 , v2 ) = ||v1 − v2 || ≥ 0 (15.22)
y
d(v1 , v2 ) = ||v1 − v2 || = 0 ⇐⇒ v1 − v2 = 0,

es decir v1 = v2 .

También se cumple,
d(v1 , v2 ) = ||v1 − v2 ||
= ||(−)(v2 − v1 )||
= |(−)| ||v2 − v1 ||
= ||v2 − v1 ||
= d(v2 , v1 ),

por lo tanto, se cumple el axioma C .

Además, por la desigualdad del triángulo, se tiene


d(v1 , v3 ) = ||v1 − v3 ||
= ||(v1 − v2 ) + (v2 − v3 )||
≤ ||v1 − v2 || + ||v2 − v3 ||
= d(v1 , v2 ) + d(v2 , v3 ),

de donde se cumple el axioma D.

Así, un espacio normado es métrico. Lo que quiere decir que cualquier


espacio con producto escalar es normado y por lo tanto métrico.

190
15.9. Polinomios trigonométricos
Supongamos que {ψn (x)}∞ n=0 es un conjunto de funciones ortonormales en
el intervalo [a, b], es decir

Z b
⟨ψn |ψm ⟩ = dxq(x)ψn∗ (x)ψm (x) = δnm ,
a

aquí q(x) es una función de peso positiva en el intervalo (a, b). Con este con-
junto de funciones podemos hacer las combinaciones lineales

n
X
Tn (x) = bi ψi (x),
i=1

las cuales llamaremos polinomios trigonométricos. Observe que debido a que


n=0 es un conjunto de funciones ortonormales, la norma de Tn (x) es
{ψn (x)}∞
n
X
2
||Tn || = |bi |2 .
i=1

Sea F (x) una función del intervalo (a, b) a los reales tal que

Z b
2
⟨F |F ⟩ = ||F || = dxq(x)|F (x)|2 < ∞,
a

entonces deniremos los coecientes de Fourier de F como


Z b
an = ⟨ψn |F ⟩ = dxq(x)ψn∗ (x)F (x). (15.23)
a

Ahora veremos que tanto se puede aproximar la función F (x) con polinomios
de la forma Tn (x). El sentido de la distancia en este espacio está dada por la
norma de la funciones. Así, el problema es encontrar los polinomios tales que
Z b
2
d (F, Tn ) = ||F − Tn || = 2
dxq(x)|F (x) − Tn (x)|2 (15.24)
a

191
es mínimo. Basicamente se trata de encontrar los coecientes bi que hacen
mínimo (15.24). Podemos iniciar notando que
d2 (F, Tn ) = ||F − Tn ||2 = ⟨F − Tn |F − Tn ⟩
= ⟨F |F ⟩ − ⟨F |Tn ⟩ − ⟨Tn |F ⟩ + ⟨Tn |Tn ⟩
= ||F ||2 + ||Tn ||2 − ⟨F |Tn ⟩ − ⟨Tn |F ⟩
* n
+ * n +
X X
= ||F ||2 + ||Tn ||2 − F bi ψ i − bi ψ i F
i=1 i=1
n
X   Xn  

= ||F ||2 + ||Tn ||2 − bi F ψi − bi ψ i F ,
i=1 i=1

considerando la norma de Tn (x) y la denición de los coecientes de Fourier


se llega a
n
X
2 2
|bi |2 − bi a∗i − b∗i ai .

||F − Tn || = ||F || +
i=1

Además, como
|bi − ai |2 = (bi − ai )(bi − ai )∗
= |bi |2 + |ai |2 − (bi a∗i + b∗i ai ),

se tiene
|bi − ai |2 − |ai |2 = |bi |2 − (bi a∗i + b∗i ai ),

de donde,
n
X n
X
2 2 2
||F − Tn || = ||F || + |bi − ai | − |ai |2 .
i=1 i=1

Claramente la distancia entre esta dos funciones es mínima cuando bi = ai , es


decir, cuando el polinomio tienen los coecientes de Fourier.

Si bi = ai se encuentra

n
X
2 2
||F − Tn || = ||F || − |ai |2 ≥ 0.
i=1

192
Por lo que, para cualquier n

n
X
2
||Tn || = |ai |2 ≤ ||F ||2 < ∞.
i=1

Esta es la desigualdad de Bessel, la cual implica que la sucesión ||Tn ||2 =


i=1 |ai | está acotada.
P n 2

Un resultado de cálculo diferencial nos dice que si una sucesión es monótona


creciente y está acotada, entonces converge [8]. Note que la sucesión ||Tn ||2 es
monótona creciente y está acotada, por lo tanto converge. La pregunta es:¾
hacia donde converge? Sin demostrarlo, supondremos que converge a ||F ||2 , es
decir,

n
(15.25)
X X
2
lı́m ||Tn || = lı́m |ai |2 = |an |2 = ||F ||2 .
n→∞ n→∞
i=1 n≥0

A esta igualdad se nombra de Parseval. Demostrar esta igualdad es un proble-


ma importante [9, 10], pero altamente no trivial y rebasa el propósito de este
escrito, por lo que solo tocaremos este tema en casos particulares.

Un resultado de cálculo diferencial es que si n≥0 |an |2 converge, entonces


P
an → 0. Este resultado tiene diferentes implicaciones físicas. Por ejemplo, en
mecánica cuántica signica que es más probable que el sistema esté en el esta-
do base. Mientras que en electrostática, signica que en un sistema de cargas,
los términos más importantes son el monopolo, dipolo, cuádrupolo.

Marc-Antoine Parseval (1755-1836) fue un matemático francés miembro de


la aristocracia francesa. Debido a su origen aristócrata, durante el inicio de
la revolución francesa fue tomado preso por un tiempo. Cuando Napoleón era
emperador de Francia y dominaba a toda Europa, Perseval escribió un poema
en su contra y tuvo que huir a otro país para no caer en la cárcel de nuevo.

193
Regresó a París cuando Napoleón fue derrotado. Intentó ser miembro de la
Academia de Ciencia de Francia, pero fue rechazado cinco veces. No probó
el teorema que lleva su nombre, pero mostró la importancia del teorema al
usarlo para obtener soluciones a diferentes ecuaciones diferenciales. Escribió
solo cinco artículos, pero le bastó para que su nombre pasara a la historia de
las Matemáticas.

15.10. Espacios completos


Cuando se cumple la igualdad de Parseval se dice que el conjunto de
funciones {ψn (x)}n≥0 es completo. En este caso, cualquier función F (x) con
||F || < ∞, se puede escribir como combinación lineal de {ψn (x)}n≥0 , es decir,
X
F (x) = an ψn (x),
n≥0

con an el coeciente de Fourier denido en (15.23).

En particular, cuando tenemos el conjunto ortonormal de funciones

 
1 cos nx sin nx
{ψ(x)} = √ , √ , √ , n∈N
2π π π

tenemos las series de Fourier

a0 X  cos nx sin nx

F (x) = √ + an √ + bn √
2π n≥0 π π

con
  Z π
1 1
a0 = √ F (x) = √ dxF (x),
2π 2π −π
  Z π
cos nx 1
an = √ F (x) = √ dxF (x) cos x,
π π −π
  Z π
sin nx 1
bn = √ F (x) = √ dxF (x) sin x.
π π −π

194
Las series de Fourier tienen aplicaciones en diversas disciplinas como electró-
nica, electrodinámica, nanzas, mecánica analítica, mecánica cuántica, etc.

Joseph Fourier (1768-1830) fue un matemático y físico francés cuyos resul-


tados inuyeron en diferentes áreas de las matemáticas. Fue el décimo hijo de
una pareja de artesanos. A los 10 años quedó huérfano de ambos padres y seis
de sus hermanos habían muerto. A esa edad fue adoptado por un músico que le
enseñó a leer y escribir. A los 14 años ingresó a una academia de corte militar
en donde destacó por su gusto por las matemáticas. Durante la revolución fran-
cesa participó en un Comité Revolucionario apoyando a las ideas republicanas.
Después ingresó a la Escuela Normal Superior de París donde fue alumno de
Lagrange y Laplace. Al término de sus estudios adquirió una plaza de profesor
en la École Polytechnique. Fue parte del grupo que acompañó a Napoleón a
Egipto. Como físico, trató de extender la ley de enfriamiento de Newton a
casos más generales, por lo que se interesó en modelar la propagación del calor
en los metales. En particular, obtuvo la ecuación de calor, que es una ecuación
diferencial parcial que modela la difusión del calor. Sus trabajos fueron puestos
en duda por físicos y matemáticos, incluidos Laplace y Lagrange. Sin embargo,
los experimentos le daban la razón. En la física, sus trabajos ayudaron a fun-
damentar las leyes de la termodinámica. Desde el punto de vista matemático,
sus contemporáneos cuestionaban sus métodos, pues tenía un número innito
de soluciones para la ecuación de calor. Sin embargo, a pesar de ser poco en-
tendidos, los métodos de Fourier fueron ocupados para resolver con éxito otras
ecuaciones diferenciales parciales. En realidad, Fourier estaba presentando a
sus contemporáneos por primera vez lo que en la actualidad conocemos como
un espacio vectorial de dimensión innita, por lo que nadie era capaz de com-
prender las herramientas que él usaba de manera intuitiva. Para asimilar los
resultados de Fourier, las matemáticas tuvieron que evolucionar en conceptos
fundamentales como el de derivada, continuidad, función, serie de funciones,
teoría de la medida, convergencia, etc. En su honor, las series de funciones y la
transformada integral que se usan para estudiar la ecuación del calor llevan su
nombre. Para Lord Kelvin, Fourier fue un poeta de las matemáticas. Fourier
murió por problemas del corazón en 1830, su nombre está grabado en la Torre
Eiel.

195
15.11. Proceso de ornormalización de Gram-Schmidt
Sea V un espacio vectorial y supongamos que en este espacio el conjunto
de vectores
{u1 , u2 , · · · , un } (15.26)

es ortormal, es decir, que se satisface

⟨ui |uj ⟩ = δij .

Ahora, supongamos que v ∈ V, entonces se puede construir el vector

n
X
ũ = v − ui ⟨ui |v⟩ .
i=1

Este vector es ortogonal a todos los vectores del conjunto (15.26). En efecto,
se cumple que
n
X
⟨uk |ũ⟩ = ⟨uk v − ui ⟨ui |v⟩⟩
i=1
* n
+
X
= ⟨uk |v⟩ − uk ui ⟨ui |v⟩
i=1
n
X
= ⟨uk |v⟩ − ⟨uk |ui ⟩ ⟨ui |v⟩
i=1
n
X
= ⟨uk |v⟩ − δki ⟨ui |v⟩
i=1
= ⟨uk |v⟩ − ⟨uk |v⟩
= 0.

Además, si se satisface

n
(15.27)
X
ũ = v − ui ⟨ui |v⟩ =
̸ 0.
i=1

196
podemos formar el vector

v − ni=1 ui ⟨ui |v⟩


P
u=
||v − ni=1 ui ⟨v|ui ⟩ ||
P

el cual es unitario.

Por lo tanto, si se satisface la condición (15.27), podemos construir el vector


u el cual es unitario y ortogonal a todos los vectores del conjunto (15.26).
Entonces el conjunto
{u, u1 , u2 , · · · , un } (15.28)
es ortonormal. El procedimiento que hemos mostrado nos ayudará a construir
conjuntos de vectores ortonormales.

Supongamos que
{v1 , v2 , · · · , vn } (15.29)

es un conjunto de vectores linealmente independiente. Usando el vector v1


podemos construir el vector unitario

v1
u1 = .
||v1 ||

Observe que el conjunto


{u1 }

es ortonormal. Además, como v2 es linealmente independiente de u1 podemos


formar el vector no nulo

v2 − ⟨u1 |v2 ⟩ u1
u2 = ,
||v2 − ⟨u1 |v2 ⟩ u1 ||

el cual es ortogonal a u1 . Por lo tanto el conjunto

{u1 , u2 }

197
es ortonormal. Además, como v3 es linealmente independiente de u1 y u2 po-
demos forma el vector

v3 − ⟨u2 |v3 ⟩ u2 − ⟨u1 |v3 ⟩ u1


u3 = ,
||v3 − ⟨u2 |v3 ⟩ u2 − ⟨u1 |v3 ⟩ u1 ||

el cual es unitario y ortogonal a u1 y u2 . Por lo tanto el conjunto

{u1 , u2 , u3 }

es ortonormal. Siguiendo este procedimiento, del conjunto linealmente inde-


pendiente (15.29) se puede obtener un conjunto ortonormal. A este proceso se
le llama proceso de ornormalización de Gram-Schmidt.

15.11.1. Ejemplos
Consideremos el conjunto de vectores
{v1 = (1, −1, 1) , v2 = (1, 1, 1) , v3 = (−1, −1, 1)},
el cual es linealmente independiente.

En este caso tenemos



||v1 || = 3,
por lo que
v1 (1, −1, 1)
u1 = = √ .
||v1 || 3
Además tenemos que
1
⟨u1 |v2 ⟩ = √ ,
3
de donde
ũ2 = v2 − ⟨u1 |v2 ⟩ u1
1 (1, −1, 1)
= (1, 1, 1) − √ √
3 3
1
= (1, 1, 1) − (1, −1, 1)
3
2
= (1, 2, 1),
3
198
que implica
2√
||ũ2 || = 6,
3
así
ũ2 1
u2 = = √ (1, 2, 1).
||ũ2 || 6
Adicionalmente, se encuentra que
1 2
⟨u1 |v3 ⟩ = √ , ⟨u2 |v3 ⟩ = − √ ,
3 6
entonces
ũ3 = v3 − ⟨u1 |v3 ⟩ u1 − ⟨u2 |v3 ⟩ u2
1 (1, −1, 1) 2 1
= (−1, −1, 1) − √ √ + √ √ (1, 2, 1)
3 3 6 6
−(1, −1, 1) + (1, 2, 1)
= (−1, −1, 1) + (1, −1, 1)
3
= (−1, 0, 1),
de donde

||ũ3 || = 2
así
ũ3 (−1, 0, 1)
u3 = = √ .
||u3 || 2
Por lo tanto el conjunto de vectores
 
(1, −1, 1) (1, 2, 1) (−1, 0, 1)
u1 = √ , u2 = √ , u3 = √
3 6 2
es ortonormal.

Como otro ejemplo, estudiemos el conjunto de polinomios


Q3 (x) = x − 2x2 ,

Q1 (x) = 3, Q2 (x) = 2x − 1,
el cual es linealmente independiente. En este caso tomaremos el producto es-
calar
Z 1
⟨f (x)|g(x)⟩ = f (x)g(x).
−1

199
Con este producto escalar obtenemos
Z 1
2
||Q1 (x)|| = Q1 (x)Q1 (x)dx
−1
Z 1
= 32 dx
−1
2
= 3 · 2,

de donde

||Q1 (x)|| = 3 2,

por lo que el polinomio


Q1 (x) 1
P1 (x) = =√
||Q1 (x)|| 2
es unitario.

Además tenemos que


Z 1
1 √
⟨P1 (x)|Q2 (x)⟩ = dx √ (2x − 1) = − 2,
−1 2
de donde
P̃2 (x) = Q2 (x) − ⟨P1 (x)|Q2 (x)⟩ P1 (x)
√ 1
= (2x − 1) + 2 √
2
= 2x,

por lo que
1
22 · 2
Z
2 2
||P̃2 (x)|| = (2x) = ,
−1 3

que implica
r
2
||P̃2 (x)|| = 2 ,
3

200
así el polinomio
r
P̃2 (x) 3
P2 (x) = = x
||P̃2 (x)|| 2
es unitario.

También podemos ver que


Z 1
1 4
⟨P1 (x)|Q3 (x)⟩ = √ dx(x − 2x2 ) = − √ ,
2 3 2
r Z−11 r
3 2
⟨P2 (x)|Q3 (x)⟩ = dxx(x − 2x2 ) = ,
2 −1 3
entonces
P̃3 (x) = Q3 (x) − ⟨P1 |Q3 (x)⟩ u1 − ⟨P2 (x)|Q3 (x)⟩ P2 (x)
r r
2 4 1 2 3
= (x − 2x ) + √ √ − x
3 2 2 3 2
2
= x − 2x2 + − x
3
2
1 − 3x2 ,

=
3
por lo que
 2 Z 1  2
2 2 2 2
 22 2
||P̃3 (x)|| = 1 − 3x =2 ,
3 −1 5 3
de donde
r
2 2
||P̃3 (x)|| = 2 ,
3 5
así el polinomio
r
P̃3 (x) 1 5
x − 3x2 ,

P3 (x) = =
||P3 (x)|| 2 2
es unitario.

Por lo tanto el conjunto de polinomios


( r r )
1 3 1 5
x − 3x2

P1 (x) = √ , P2 (x) = x, P3 (x) =
2 2 2 2

201
es ortonormal.

Jørgen Pedersen Gram (1850-1916) fue un matemático y actuario danés.


Realizó contribuciones en la teoría de números y en el estudio de la función
zeta de Riemann. También se interesó en la probabilidad, estadística y en los
métodos numéricos. Gram fue hijo de un granjero danés, por lo que se interesó
en la silvicultura y en la aplicación de las matemáticas a la reforestación de
los bosques. Gram murió en un accidente con una bicicleta.

Erhard Schmidt (1876-1959) fue un matemático alemán. Cotribuyó de forma


relevante al análisis funcional. De hecho, es considerado uno de los fundadores
de esta rama de las matemáticas. Fue alumno de H. A. Schwarz y de David
Hilbert. En la Segunda Guerra Mundial apoyó a Hitler a quien admiraba y le
deseaba la victoria. En la época nazi fue autoridad de la Universidad de Berlín
y aplicó algunas medidas en contra de judíos.

El método de ortogonalización de Gram-Schmidt se le atribuye a Gram y


Schmidt, pero en realidad Laplace y Cauchy ya lo habían empleado antes.

15.12. Ejercicios
1.- Realizar el producto escalar de los vectores
(−2i, 4, 5), (6, 5, i).

2.- En el intervalo [−1, 1] y la función de peso q(x) = 1, realizar en producto


escalar de las funciones
x, −x + 3x2 .

202
3.- Realizar el producto escalar de las matrices
   
−i 1 3 1
A= , B= .
0 2 5 0

4.- Obtener un vector unitario del vector


(3, −1 + 2i, 4).

5.- De la matriz  
1 −3i
A=
2 1
obtener una matriz de norma uno.

6.- En el intervalo [−1, 1] y con la función de peso q(x) = 1, obtener una


función unitaria de la función
f (x) = x2 − 2x

.
7.- Determinar si el siguiente conjunto de vectores es ortonormal
1 1 1
√ (i, −i, 2), √ (−i, i, 1), √ (1, 1, 0).
6 3 2
8.- Determinar si las funciones
f (x) = x, g(x) = x2

son ortogonales con el producto escalar


Z 1
f (x)g(x).
0

9.- Determinar si las funciones de la forma


r
2
fn (x) = sin nx
L
son ortogonales con el producto escalar
Z L
f (x)g(x)dx, n∈N
0

203
10.- Determinar si las matrices de Pauli
     
0 1 0 −i 1 0
σ1 = , σ2 = , σ3 =
1 0 i 0 0 −1

son ortogonales.

11.- De los vectores


(2, 0, 0), (1, 3, 0), (1, 2, 1)

obtener un conjunto ortnormal de vectores.

12.- Con el producto escalar


Z ∞
2
⟨f (x)|g(x)⟩ = e−x f ∗ (x)g(x)dx,
−∞

del conjunto de polinomios


Q2 (x) = 2x2 − x

Q0 = 2, Q1 (x) = x − 1,

obtener un conjunto ortonormal de polinomios.

204
Capítulo 16
Valores y vectores propios
En este capítulo veremos las deniciones de vector y valor propio. Daremos
algunos ejemplos y mostraremos que usando los vectores y valores propios la
representación matricial de una transformación lineal se puede simplicar.

16.1. Denición
Sean M una matriz de n × n, v un vector de dimensión n y λ un escalar.
Se dice que v es vector propio de M y λ es valor propio de V si se cumple
la igualdad
M v = λv.

Note que esta igualdad implica


M v − λv = (M − Iλ) v = 0. (16.1)
Esta ecuación siempre tiene como solución a v = 0, con λ arbitrario. Si la
matriz
M − Iλ
es invertible, la única solución de la ecuación (16.1) es v = 0. Por lo tanto, si
queremos soluciones no triviales de dicha ecuación debemos pedir que existan
valores λ tal que la matriz M − Iλ no sea invertible, que implica

det (M − Iλ) = 0. (16.2)

205
16.2. Ejemplo
Antes de ver los resultados importantes sobre valores y vectores propios,
veremos un ejemplo. Con este propósito consideremos la matriz
 
2 1 0
M =  0 5 −1  ,
0 0 4

los valores y vectores propios de esta matriz satisfacen


    
2 1 0 x x
 0 5 −1   y  = λ  y  ,
0 0 4 z z

de donde se obtiene la matriz


 
2−λ 1 0
M − λI =  0 5−λ −1  .
0 0 4−λ

Entonces, para tener soluciones no triviales se debe cumplir


 
2−λ 1 0
det (M − λI) = det  0 5−λ −1 
0 0 4−λ
= (2 − λ)(5 − λ)(4 − λ) = 0,

por lo tanto, tenemos los valores propios


λ1 = 2, λ2 = 5, λ3 = 4.

Para obtener los vectores propios se deben resolver las ecuaciones


    
2 1 0 x x
 0 5 −1  y  = 2 y ,
0 0 4 z z
    
2 1 0 x x
 0 5 −1  y  = 5 y ,
0 0 4 z z
    
2 1 0 x x
 0 5 −1  y  = 4 y 
0 0 4 z z

206
que implican
     
1 1 1
v1 = x1  0  , v2 = x2  3  , v3 = x3  2  ,
0 0 2

con x1 , x2 , x3 son arbitrarios.

Note que con los valores propios se puede formar la matriz diagonal
   
λ1 0 0 2 0 0
D =  0 λ2 0  =  0 5 0  ,
0 0 λ3 0 0 4

mientras que con los vectores v1 , v2 , v3 se puede formar la matriz


 
1 1 1
U =  0 3 2 ,
0 0 2

que tiene la inversa


1 − 31 − 61
 

U −1 = 0 1
3
− 31  .
1
0 0 2

Se puede observar que con estas matrices se cumple la igualdad


D = U −1 M U,

es decir
1 − 13 − 16
     
2 0 0 2 1 0 1 1 1
1
 0 5 0 = 0
3
− 13   0 5 −1   0 3 2  .
1
0 0 4 0 0 2
0 0 4 0 0 2

Así, la matriz M es similar a la matriz diagonal D.

16.3. Vectores propios e independencia lineal


Sean {v1 , v2 , · · · , vm } un conjunto de vectores propios no nulos con valores
propios {λ1 , λ2 , · · · , λm }. Si todos los valores propios son diferentes, es decir,
λi ̸= λj con i ̸= j, entonces el conjunto de vectores propios {v1 , v2 , · · · vm } es

207
linealmente independiente.

Veamos el caso m = 1, para el cual tenemos


{v1 } , {λ1 } ,

en donde
M v1 = λ1 v1 .
Como el conjunto
{v1 }

consta de un solo vector, claramente es linealmente independiente.

Para m = 2, tenemos
{v1 , v2 } , {λ1 , λ2 } ,

en donde
M v1 = λ1 v1 , M v2 = λ2 v2 , λ1 ̸= λ2
Supongamos que
α1 v1 + α2 v2 = 0, (16.3)
entonces
M 0 = M (α1 v1 + α2 v2 )
= α1 M v1 + α2 M v2
= α1 λ1 v1 + α2 λ2 v2 = 0,

es decir
α1 λ1 v1 + α2 λ2 v2 = 0. (16.4)
Ahora, multiplicando la ecuación (16.3) por λ2 tenemos
α1 λ2 v1 + α2 λ2 v2 = 0. (16.5)
Restando la ecuaciones (16.4) y (16.5) tenemos
α1 (λ1 − λ2 )v1 = 0,

como λ1 ̸= λ2 tenemos que


α1 = 0.

208
Sustituyendo este valor en (16.3) encontramos
α2 = 0.

Por lo tanto, si λ1 ̸= λ2 cualquier combinación lineal de la forma (16.3) implica


que α1 = α2 = 0. Así, el conjunto de vectores propios
{v1 , v2 }

es linealmente independiente.

Para el caso general haremos la prueba por inducción, la base de la induc-


ción m = 1 ya la hemos demostrado.

Ahora por hipótesis de inducción supondremos que todo conjunto de


{v1 , v2 , · · · , vm }

vectores propios no nulos con valores propios diferentes


(λi ̸= λj , i, j = 1, · · · , m)

es linealmente independiente.
En el paso inductivo tenemos que probar que todo conjunto de
{v1 , v2 , · · · , vm , vm+1 } (16.6)
vectores propios no nulos con valores propios diferentes
λi ̸= λj , i, j = 1, · · · , m, m + 1

es linealmente independiente.

Supongamos que tenemos una combinación lineal nula de los vectores (16.6)
α1 v1 + α2 v2 + · · · + αm vm + αm+1 vm+1 = 0, (16.7)
entonces
M 0 = M (α1 v1 + α2 v2 + · · · + αm vm + αm+1 vm+1 )
= α1 M v1 + α2 M v2 + · · · + αm M vm + αm+1 M vm+1
= α1 λ1 v1 + α2 λ2 v2 + · · · + αm λm vm + αm+1 λm+1 vm+1 = 0,

209
es decir
α1 λ1 v1 + α2 λ2 v2 + · · · + αm λm vm + αm+1 λm+1 vm+1 = 0. (16.8)
Ahora, multiplicando la ecuación (16.7) por λm+1 tenemos
α1 λm+1 v1 + α2 λm+1 v2 + · · · + αm λm+1 vm + αm+1 λm+1 vm+1 = 0. (16.9)
Restando la ecuaciones (16.8) y (16.9) tenemos
α1 (λ1 − λm+1 ) v1 + α2 (λ2 − λm+1 ) v2 + · · · + αm (λm − λm+1 ) vm = 0. (16.10)
Note que esta última igualdad es una combinación lineal del conjunto de vec-
tores propios no nulos {v1 , v2 , · · · , vm } con valores propios diferentes
(λi ̸= λj , i, j = 1, · · · , m).
Por hipótesis de inducción, este conjunto es linealmente independiente, enton-
ces como (16.10) es una combinación lineal nula temos que
α1 (λ1 − λm+1 ) = α2 (λ2 − λm+1 ) = · · · = αm (λm − λm+1 ) = 0.
Además, como λi ̸= λj tenemos que
α1 = α2 = · · · = αm = 0.
sustituyendo estos valore en (16.7) encontramos
αm+1 = 0.
Por lo tanto, si λi ̸= λj , i, j = 1, · · · m, m + 1 cualquier combinación lineal de
la forma (16.7) implica que α1 = α2 = · · · = αm = αm+1 = 0. Así, el conjunto
de vectores propios
{v1 , v2 , · · · , vm , vm+1 }
es linealmente independiente. Esto termina la demostración.

16.4. Matriz diagonal


Sean {v1 , v2 , · · · , vn } vectores propios de M, entonces M es equivalente a
un matriz diagonal. Para probar esta armación, primero observemos que con
estos vectores propios
     
a11 a21 an1
 a12   a22   an2 
v1 =  ..  , v2 =  ..
   
, · · · , vn =

.. 

(16.11)
 .   . .
 
 
a1n a2n ann

210
podemos construir los renglones de la matriz
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
a =  .. .. . . .. ,
 
 . . . . 
an1 an2 · · · ann

la cual tiene la traspuesta


 
a11 a21 · · · an1
 a12 a22 · · · an2 
aT =  ..

.. . . .. .

(16.12)
 . . . . 
a1n a2n · · · ann

Note que las columnas de esta última matriz están dadas por los vectores pro-
pios de la matriz M.

Se puede observar que si los vectores (16.11) son linealmente independien-


tes, entonces los renglones de la matriz a son linealmente independientes y
por lo tanto el determinante de a es diferente de cero. Es decir, si los vectores
(16.11) son linealmente independientes, la matriz a es invertible.

Ahora, sabemos que los vectores propios satisfacen la ecuación


M vi = λi vi ,

por lo que usando las componentes de estos vectores (16.11) se tiene


Mjk aik = λi aij .

Además, usando la matriz (16.12), esta última expresión se puede escribir como
Mjk aTki = λi aTji ,

entonces,
M aT = λi aTji .

ji

Ahora, como la matriz a es invertible tenemos


−1 −1
aT M aT = λ i aT aTji ,

lj ji lj

211
por lo que
 −1 
aT M aT = λi δli .
li

Así,
−1
aT M aT = D, (16.13)
en donde D es la matriz diagonal
 
λ1 0 · · · 0
 0 λ2 · · · 0 
D =  .. .
. . . . .
. ..
 
 . . 
0 0 · · · λn
Se puede observar que el resultado (16.13) se puede escribir como
−1
M = aT D aT , (16.14)
es decir,
D = U −1 M U, U = aT . (16.15)
Como sabemos, la mayoría de operaciones con matrices son más fáciles de rea-
lizar con matrices diagonales. Por esta razón, antes de realizar operaciones con
una matriz es mejor obtener sus valores propios y obtener su matriz similar
diagonal.

La noción de valor propio surgió en uno de los trabajos de Euler que trata
sobre métodos para resolver sistemas de ecuaciones diferenciales ordinarias li-
neales, en 1743. Asimismo, Lagrange usó esta idea para resolver un problema
de mecánica celeste en 1774. Por las mismas fechas, D'Alembert ocupó esa
idea para resolver el sistema de ecuaciones diferenciales de tres osciladores.
Mientras que Cauchy usó la noción de valor propio en problemas de geometría
en los cursos que impartía desde 1815.

16.5. Operaciones con Python


Si tenemos la matriz
 
1 −1 2 1
−1 3 1 −2
A= 
1 3 −1 1 
1 −1 0 2

212
para obtener sus valores y vectores se puede usar el siguiente código de Python
1 import numpy as np
2 from numpy . linalg import eig
3 b = np . array ([[1 , -1 ,2 ,1] ,[ -1 ,3 ,1 , -2] ,[1 ,3 , -1 ,1] ,[1 , -1 ,0 ,2]
4 ])
5 v , w = eig ( b )
6 print ( ' valores - propios : ' , v )
7 print ( ' vectores - propios ' , w )
Listing 16.1: Valores y vectores propios de una matriz
con el cual se obtienen los siguientes valores y vectores propios
valores-propios:[4.52782655-,2.4290382,2.54377682,0.35743483]
vectores-propios [[0.14439693,-0.5528967,-0.5781175,-0.82056069]
[-0.83689882,-0.22159463,-0.50232403,0.10163719]
[-0.35784446,0.79975351,-0.6277125,0.03373165]
[0.38819742,0.07480226,-0.13938343,0.56143762]]

16.6. Ejercicios
1.- Para la matriz  
1 2 0
M =  6 −1 0  ,
−1 −2 −1
obtener su forma diagonal y la matriz cambio de base.

2.- Obtener los valores y vectores propios de la matriz


 
2 3 0
M =  1 2 1 .
−1 0 1

213
Capítulo 17
Matrices similares
En este capítulo deniremos el concepto de matrices similares, mostrare-
mos que dicho concepto induce una relación de equivalencia entre matrices y
veremos algunas de las implicaciones de esta relación.

17.1. Relación de equivalencia


Sea G un conjunto y R un subconjunto de G×G. Si g1 , g2 ∈ G y (g1 , g2 ) ∈ R
se denota
g1 ∼ g2

y se dice que g1 está relacionado con g2 .

Se dice que R es una Relación de Equivalencia si se satisface las condiciones

∀g ∈ G, g ∼ g, (17.1)
∀g1 , g2 ∈ G, si g1 ∼ g2 , entonces g2 ∼ g1 , (17.2)
∀g1 , g2 , g3 ∈ G, si g1 ∼ g2 y g2 ∼ g3 , entonces g1 ∼ g3 . (17.3)

Ahora, para cada g ∈ G denamos los conjuntos

χg = {g ′ ∈ G|g ∼ g ′ }.

Los conjuntos χg son importantes porque cuando la relación R es de equivalen-


cia el conjunto G se puede separar en conjuntos disjuntos. En otras palabras,

214
cuando la relación R es de equivalencia y se cumple

χg1 ∩ χg2 ̸= ∅, g1 , g2 ∈ G

si satisface
g1 ∼ g2
entonces
χg1 = χg2 .

Esta armación es verdadera. Para iniciar, mostraremos que se cumple


χg1 ⊂ χg2 .

Supongamos que
g ∈ χg1
que implica
g ∼ g1 .
Ahora, como

g1 ∼ g2 ,
y R es una relación de equivalencia obtenemos

g ∼ g2 .
Este último resultado nos indica que
g ∈ χg2

y por lo tanto χg1 ⊂ χg2 .


Ahora probaremos que se cumple
χg2 ⊂ χg1 .

Supongamos que
g̃ ∈ χg2
entonces
g̃ ∼ g2

215
y como g2 ∼ g1 entonces se cumple que
g̃ ∼ g1 ,

que implica
g̃ ∈ χg1
Por lo tanto
χg2 ⊂ χg1 .
Así, hemos demostrado que se cumple
χg1 ⊂ χg2 y χg2 ⊂ χg1

de donde
χg1 = χg2 ,
que es lo queríamos demostrar. Nótese que este resultado también se puede
escribir como

χg1 ̸= χg2 , entonces χg1 ∩ χg2 = ∅. (17.4)

También se puede probar que se cumple que

∪χg∈G =G, (17.5)


χg ̸=∅. (17.6)

Cuando una familia de subconjuntos de un conjunto G satisface las propieda-


des (17.4)-(17.6) se dice que forma una Partición de G.

La ventaja de tener una partición en un conjunto es que en lugar de tra-


bajar con los elementos se puede trabajar con las particiones.

17.2. Equivalencia entre matrices


Ahora veremos una relación de equivalencia entre matrices. Supongamos
que M y A son dos matrices de n × n. Deniremos la relación

M ∼A

216
si existe una matriz invertibe U de n × n tal que se cumple

M = U −1 AU. (17.7)

Por ejemplo, consideremos las matrices


   
2 4 10 2
A= , B= .
6 8 4 0

Estas matrices están relacionadas, pues con la matriz


 
1 −1
U=
1 1

y su inversa
 
−1 1 1 1
U =
2 −1 1

se cumple
     
10 2 1 1 1 2 4 1 −1
= .
4 0 2 −1 1 6 8 1 1

Cuando se satisface la ecuación (17.7) diremos que las matrices M y A son


similares y a R la llamaremos relación de similitud.

La relación de similitud es de equivalencia. Para mostrar esta armación,


notemos que para cualquier matriz de n × n, M, se cumple
M = I −1 M I

Donde I es la matriz identidad. Por lo tanto, cualquier matriz de n×n siempre


es similar a si misma y se cumple la propiedad (17.1).

Para probar la propiedad (17.2), supongamos que M es similar a A, es decir


existe una matriz invertible U tal que se cumple la ecuación (17.7). Nótese que
la ecuación (17.7) implica
U M U −1 = U U −1 AU U −1 = A,

217
por lo tanto, deniendo
U ′ = U −1
se tiene
A = U ′−1 M U ′ .
Así, podemos armar que si M es similar a A, entonces A es similar a M. De
esta forma hemos probado que se cumple la propiedad (17.1).

Para probar la propiedad (17.3) supongamos que M1 , M2 , M3 son matrices


de n × n y que M1 es similar a M2 y M2 es similar a M3 . Entonces existen
matrices invertibles U1 y U2 tales que
M1 = U1−1 M2 U1 , (17.8)
M2 = U2−1 M3 U2 . (17.9)
Usando la ecuación (17.9) en la ecuación (17.8) y ocupando las propiedades
del producto de las matrices obtenemos
M1 = U1−1 M2 U1
U1−1 U2−1 M3 U2 U1

=
= U1−1 U2−1 M3 U2 U1
= (U2 U1 )−1 M3 (U2 U1 ) .
Ahora, deniendo la matriz invertible
U3 = U1 U2 ,
tenemos
M1 = U3−1 M3 U3 ,
que indica que la matriz M1 es similar a M3 . Así, hemos probado que si M1 es
similar a M2 y M2 es similar a M3 , entonces M1 es similar a M3 . Por lo tanto,
la relación de similitud cumple la propiedad (17.3).

Como la relación de similitud es de equivalencia, podemos concluir que los


conjuntos

χM = {A ∈ Mn×n |∃U ∈ Mn×n invertible M = U −1 AU }

forman una partición del conjunto de matrices de n × n.

218
17.3. Propiedades
Las matrices que pertenecen a la misma partición tienen propiedades se-
mejantes. Por ejemplo, si A es similar a M entonces

det M = det A,
T r(M ) =T r(A),

Efectivamente, usando las propiedades del determinante y la traza, tenemos


det M = det(U −1 AU )
= (det U −1 )(det A)(det U )
 
det U
= det A
det U
= det A,
T r(M ) = T r U −1 AU


= T r U U −1 A


= T r(A),

que es lo que se quería demostrar. Así, dos matrices similares tienen el mismo
determinante y la misma traza.

17.4. Polinomios y funciones


Si las matrices M y A son similares se cumple

M n = U −1 An U, (17.10)

esta armación es correcta pues


n
Mn = U −1 AU
U −1 AU U −1 AU U −1 AU · · · U −1 AU
   
=
| {z }
n
−1
= U | ·{z
AA · · AA} U
n
−1 n
= U A U.

219
Ahora, supongamos que x es una variable real, entonces podemos formar un
polinomio de la forma

P (x) = a0 + a1 x + a2 x2 + · · · + an xn ,

donde ai (i = 0, 1, 2, . . . , n) son constantes reales o complejas. De la misma


forma se puede construir la matriz polinomio

P (M ) = a0 I + a1 M + a2 M 2 + · · · + an M n .

Si M es similar a A, entonces

P (M ) = U −1 P (A)U.

En efecto, usando la identidad (17.10) se encuentra


P (M ) = P (U −1 AU )
= a0 I + a1 U −1 AU + a2 (U −1 AU )2 + · · · + an (U −1 AU )n
= a0 U −1 U + a1 U −1 AU + a2 U −1 A2 U + · · · + an U −1 An U
U −1 a0 I + a1 A + a2 A2 + · · · + an An U

=
= U −1 P (A)U,

que es lo que se quería demostrar. De este resultado se puede deducir que


cuando la matrices M y A son similares si
P (M ) = 0,

entonces
P (A) = 0.
Lo que quiere decir que las matrices similares son raíces de los mismos polino-
mios.

De forma general, si x es una variable real y se dene la función

X
f (x) = an x n , an ∈ R,
n≥0

220
también se puede denir la matriz

X
f (M ) = an M n ,
n≥0

donde
M 0 = I.
Se puede mostrar que si la matriz M es similar a la matriz A se cumple

f (M ) = U −1 f (A)U.

La idea de matriz similar se puede encontrar en los trabajos de diferen-


tes matemáticos como Cauchy. Sin embargo, el que notó la importancia del
concepto y lo denió de manera formal fue George Frobenius en uno de sus
trabajos en 1878.

F. George Frobenius (1849-1917) fue un matemático alemán que dio funda-


mentos sólidos a diferentes áreas de las matemáticas. Nació en el seno de una
familia protestante. Realizó sus estudios en la Universidad de Berlín en donde
fue alumno de Kronecker, Kummer y Weierstrass. Su tesis doctoral la realizó
sobre soluciones a ecuaciones diferenciales bajo la asesoría de Weierstrass. Fue
profesor de la Universidad de Berlín y de Eidgenössische Polytechnikum de Zü-
rich. En estas universidades realizó trabajos relevantes en álgebra, funciones
analíticas, geometría y teoría de grupos. En álgebra lineal, completó la prueba
del Teorema de Caley-Hamilton y sus trabajos fueron importantes para dar
solidez al concepto de transformación lineal. Como profesor fue director de
tesis doctoral de matemáticos importantes como Issai Schur, con quien estudió
la teoría de representaciones de grupos. Frobenius solía defender con pasión su
enfoque de las matemáticas, por lo que tuvo varios conictos con otros mate-
máticos, entre ellos Klein y Sophus Lie.

221
17.5. Ejercicios
1.- Con la matriz
 
1 1
U=
−1 1

y su inversa
 
−1 1 1 −1
U =
2 1 1

a) mostrar que las siguientes matrices son equivalentes


   
1 1 1 −1 −1
A= , B= ,
2 1 2 −1 5

es decir, mostrar que


B = U −1 AU.

b) Obtener el determinante y la traza de las matrices A y B.

c) Considerando el polinomio
P (x) = 2 + 4x + 5x2 − x3

obtener P (A) y P (B).

222
Capítulo 18
Exponencial de una matriz
En este capítulo estudiaremos la exponencial de una matriz y daremos va-
rios ejemplos.

18.1. Denición
Supongamos que x es una variable real y se dene la función

X
f (x) = an x n ,
n≥0

entonces, si M es una matriz de n × n se puede denir la matriz

X
f (M ) = an M n ,
n≥0

supondremos que
M 0 = I,

con I la matriz identidad de n × n. En particular, para la función exponencial


X 1
ex = xn ,
n≥0
n!

223
se puede denir la exponencial de una matriz

X 1
eM = M n.
n≥0
n!

En diferentes problemas de aplicaciones surgen expresiones de la forma

X αn
eαM = Mn
n≥0
n!

en donde α es un escalar real o complejo.

18.2. Ejemplo 1
Antes de continuar recordemos las series de Taylor de las funciones coseno
y seno
X (−)n
cos z = z 2n ,
n≥0
(2n)!
X (−)n
sin z = z 2n+1 .
n≥0
(2n + 1)!

Ahora consideremos la matriz


 
0 1
M= , (18.1)
−1 0

en este caso podemos plantear la exponencial

 

0 1 α
e −1 0 , (18.2)

224
se puede observar que la serie de la exponencial se puede separar en potencias
pares e impares, es decir

X 1
eM α = M n αn
n≥0
n!
X 1 X 1
= M 2n α2n + M 2n+1 α2n−1 .
n≥0
(2n)! n≥0
(2n + 1)!

Además se puede observar que


  
2 0 1 0 1
M =
−1 0 −1 0
 
1 0
= −
0 1
= (−)I,

esto es
M 2 = (−)I.

Este resultado implica las igualdades

M 2n =(−)n I,
M 2n M =(−)n IM = (−1)n M.

225
Por lo tanto,
 
0 1

−1 0
α
X 1  0 1 n
e = αn
n! −1 0
n≥0
X 1  2n  2n+1
0 1 2n
X 1 0 1
= α + α2n+1
n≥0
(2n)! −1 0 n≥0
(2n + 1)! −1 0
X 1 X 1
= (−)n Iα2n + (−)n M α2n+1
n≥0
(2n)! n≥0
(2n + 1)!
X 1 X 1
= I (−)n α2n + M (−)n α2n+1
n≥0
(2n)! n≥0
(2n + 1)!
= Icos α +M sin α  
1 0 0 1
= cos α + sin α
0 1 −1 0
 
cos α sin α
= ,
− sin αt cos α

en conclusión
 

0 1 α  
−1 0 cos α sin α
e = .
− sin α cos α

Se puede observar que la matriz


 
cos α sin α
− sin α cos α

representa las rotaciones en dos dimensiones. Por lo tanto, la exponencial (18.2)


representa rotaciones en dos dimensiones y se dice que la matriz (18.1) es
generadora de las rotaciones en dos dimensiones.

18.3. Matrices de rotación


Ahora estudiaremos las matrices

226
     
0 0 0 0 0 1 0 −1 0
M1 = i  0 0 −1  , M2 = i  0 0 0  , M3 = i  1 0 0 .
0 1 0 −1 0 0 0 0 0

y veremos qué forma tienen las matrices

(18.3)

α) = e−i⃗α·M .
Λ (⃗

Primero observemos que si n ≥ 1, se tiene

 
0 0 0
M12n = 0 1 0
  = T1 , M12n+1 = M1 , (18.4)
0 0 1
 
1 0 0
M22n = 0 0 0
  = T2 , M22n+1 = M2 , (18.5)
0 0 1
 
1 0 0
M32n = 0 1 0
  = T3 , M32n+1 = M3 , (18.6)
0 0 0

es decir
Mj2n = Tj , Mj2n+1 = Mj , j = 1, 2, 3.

227
Considerando estos resultados, junto con las series de cos α y sin α, se tiene
X 1
e−iαMj = (−iαMj )n
n≥0
n!
X 1 X 1
= (−iα)2n (Mj )2n + (−iα)2n+1 (Mj )2n+1
n≥0
(2n)! n≥0
(2n + 1)!
X 1 X 1
= I + Tj (−iα)2n + Mj (−iα)2n+1
n≥1
(2n)! n≥0
(2n + 1)!
X (−1)n X (−1)n
= I − Tj + Tj + α2n − iMj α2n+1
n≥1
(2n)! n≥0
(2n + 1)!
X (−)n α2n
= I − Tj + Tj − iMj sin α
n≥0
(2n)!
= I − Tj + Tj cos α − iMj sin α.

De donde, tomando en cuenta las matrices (18.4)-(18.6), tenemos

 
1 0 0
e−iαM1 =  0 cos α − sin α ,
0 sin α cos α
 
cos α 0 sin α
e−iαM2 =  0 1 0 ,
− sin α 0 cos α
 
cos α − sin α 0
e−iαM3 =  sin α cos α 0 .
0 0 1

Así, e−iαM1 representa una rotación sobre el eje x, e−iαM2 representa una ro-
tación sobre el eje y, mientras que e−iαM3 representa una rotación sobre el eje z.

228
18.4. Matrices de Pauli
Las matrices de Pauli tienen aplicaciones en diversas áreas. Estas matrices
se denen como
     
0 1 0 −i 1 0
σ1 = , σ2 = , σ3 = .
1 0 i 0 0 −1

En este caso podemos ver que se cumple

σ12 = σ22 = σ32 = I,

por lo que,
σ12n =σ22n = σ32n = I,
σ12n+1 =σ1 ,
σ22n+1 =σ2 ,
σ32n+1 =σ3 .

Así,
X (iα)n
eiασ1 = σ1n
n≥0
n!
X (i)2n (α)2n X (i)2n+1 (α)2n+1
= σ12n + σ12n+1
n≥0
(2n)! n≥0
(2n + 1)!
X (−)n (α)2n X (−)n (α)2n+1
= I +i σ1
n≥0
(2n)! n≥0
(2n + 1)!
X (−)n (α)2n X (−)n (α)2n+1
= I + iσ1
n≥0
(2n)! n≥0
(2n + 1)!
= cos αI + iσ1 sin α,

es decir
eiασ1 = cos αI + iσ1 sin α.

229
De la misma forma, se obtiene

eiασ2 =I cos α + iσ2 sin α,


eiασ3 =I cos α + iσ3 sin α.

Ahora, si n̂ = (n1 , n2 , n3 ) es un vector unitario, podemos denir la matriz

n̂ · ⃗σ =n1 σ1 + n2 σ2 + n3 σ3
 
n3 n1 − in2
= ,
n1 + in2 −n3

la cual cumple
   
2 n21 + n22 + n23 0 1 0
(n̂ · ⃗σ ) = = = I,
0 n1 + n2 + n23
2 2
0 1

de donde
(n̂ · ⃗σ )2n = I, (n̂ · ⃗σ )2n+1 = n̂ · ⃗σ .

Por lo tanto, si a es un escalar, tenemos que


X (ia)n
eian̂·⃗σ = (n̂ · ⃗σ )n
n≥0
n!
X (i)2n a2n X (i)2n+1 a2n+1
= (n̂ · ⃗σ )2n + (n̂ · ⃗σ )2n+1
n≥0
(2n)! n≥0
(2n + 1)!
X (−)n a2n X (−)n a2n+1
= I +i n̂ · ⃗σ
n≥0
(2n)! n≥0
(2n + 1)!
X (−)n a2n X (−)n a2n+1
= I + in̂ · ⃗σ
n≥0
(2n)! n≥0
(2n + 1)!
= I cos a + in̂ · ⃗σ sin a,

es decir,
eian̂·⃗σ = I cos a + in̂ · ⃗σ sin a.

230
Wolfgang Pauli (1900-1958) fue un físico austríaco que realizó trabajos fun-
damentales para el desarrollo de la mecánica cuántica. A los 18 años terminó
su licenciatura y después realizó el doctorado bajo la dirección de Arnold Som-
merfeld en la Universidad de Múnich. Posteriomente realizó una estancia con
Max Born de quien aprendió Álgebra Lineal y la empezó a usar en la mecánica
cuántica. Las matrices de Pauli las obtuvo al estudiar propiedades del electrón
que se descubrieron experimentalmente. En 1945 le fue otorgado el Premio
Nobel por sus trabajos en mecánica cuántica. Cuando Hitler anexó a Austria a
Alemania, Pauli decidió irse a Suiza. En Suiza, Pauli recibió información sobre
el proyecto de la bomba atómica nazi y decidió alertar a la comunidad cientíca
del peligro que existía con esa arma. Posteriormente, viajó a Estados Unidos y
se convirtió en ciudadano norteamericano. Cuando terminó la segunda guerra
mundial regresó a Suiza.

18.5. Exponencial de una matriz diagonal


Si D es un matriz de n × n diagonal, sus componentes se puedes escribir
como
Dij = λi δij , i, j = 1, 2, · · · , n.

donde λi son las componentes de la diagonal de la matriz D.

Así, considerando las propiedades de la delta de Kronecker, encontramos


que las componentes de D2 son
2
Dij = (DD)ij
= Dik Dkj
= λi δik λk δkj
= λi λk δik δkj
= λ2i δij ,

231
es decir,
2
Dij = λ2i δij .

En general, se obtiene
n
Dij = (DD · · · D)ij
= Dik1 Dk1 k2 Dk2 k3 · · · Dkn−1 j
= (λi δik1 )(λk1 δk1 k2 )(λk2 δk2 k3 ) · · · (λkn−1 δkn−1 j )
= λi λk1 λk2 · · · λkn−1 δik1 δk1 k2 δk2 k3 · · · λkn−1 j
= λni δij ,
por lo que
n
Dij = λni δij .

Por lo tanto, si tenemos la matriz


X
f (D) = an D n ,
n≥0

sus componentes son


X
(f (D))ij = an (Dn )ij
n≥0
X
= an λni δij
n≥0
!
X
= an λni δij
n≥0
= f (λi )δij ,
de donde
(f (D))ij = f (λi )δij .

Por ejemplo, si D es una matriz diagonal de 2 × 2, es decir


 
λ1 0
D= , (18.7)
0 λ2

232
tenemos
 
2 λ21 0
D = ,
0 λ22

y para cualquier potencia se tiene


 
n λn1 0
D = ,
0 λn2

por lo tanto,
X  f (λ1 ) 0

f (D) = .
0 f (λ2 )

En particular, la exponencial de una matriz diagonal de 2 × 2 es


 
λ1 0  
eλ1
 
0 λ2 0
e = .
0 eλ2

Como podemos ver, no es complicado obtener la exponencial de una matriz


diagonal.

18.6. Exponencial de matrices similares


Por lo general es complicado calcular de forma explícita la exponencial de
una matriz, pero si la matriz es diagonalizable, el problema no es tan compli-
cado.

Supongamos que M es diagonalizable, entonces esta matriz es similar a la


matriz diagonal
 
λ1 0 · · · 0
 0 λ2 · · · 0 
D =  .. .
.. . . ...
. .
 
 . 
0 0 · · · λn

233
Donde los escalares λi son los valores propios de M. Así, existe una matriz U
tal que se cumple
M = U DU −1 ,

de hecho la matriz U es la matriz de cambio de base para pasar a la base de


los vectores propios de M .

Además, podemos observar que se cumple


M n = (U DU −1 )(U DU −1 )(U DU −1 ) · · · (U DU −1 )
| {z }
n
−1
= U DD · · · D} U
| {z
n
n −1
= UD U ,

esto es
M n = U Dn U −1 .

Por lo que
X 1
eM = Mn
n≥0
n!
X 1
= U Dn U −1
n≥0
n!
!
X 1
= U Dn U −1
n≥0
n!
= U eM U −1 ,

es decir
eM = U eD U −1 ,

que se puede escribir como


 
eλ1 0 ··· 0
 0 e λ2 · · · 0 
= U  .. . ..
 −1
eM .
.. . . U .

 . . 
0 0 · · · e λn

234
18.6.1. Ejemplo
Por ejemplo, para la matriz
 
0 −2
M=
1 3
es complicado calcular directamente su exponencial. Sin embargo, podemos
ver que los vectores propios de esta matriz son
λ1 = 1, λ2 = 2.
Por lo que la matriz M es similar a la matriz diagonal
 
1 0
D= .
0 2
Además usando los vectores propios de M, podemos construir las matriz de
cambio de base
 
2 1
U=
−1 −1
cuya inversa es
 
−1 1 1
U = ,
−1 −2
se puede probar que
D = U −1 M U,
por lo que
M = U DU −1 ,
es decir
     
0 −2 2 1 1 0 1 1
= .
1 3 −1 −1 0 2 −1 −2
Entonces
   

0 −2    
1 0   
1 3 2 1 0 2 1 1
e = e
−1 −1 −1 −2
   
2 1 e 0 1 1
=
−1 −1 0 e2 −1 −2
 
2e − e2 2e − 2e2
= .
−e + e2 −e + 2e2

235
18.7. Inversa de exponencial de una matriz
Supongamos que A es una matriz de n × n entradas, entonces podemos
denir las dos exponenciales

eA , e−A ,

esta matrices son inversas. Para probar esta armación notemos que
! !
X An X (−)m Am
eA e−A =
n≥0
n! m≥0
m!
2
A3 An
 
A
= I +A+ + + ··· + + ···
2! 3! n!
A2 A3 n
 
nA
× I −A+ − + · · · + (−) + ···
2! 3! n!
A2 A2
 
2
= I + (−A + A) + − +A −
2! 2!
A3 A3 A3 A3
 
+ − + − + + ··· +
3! 2! 2! 3!
(−)n (−)n−1 (−)n−2 (−)n−k
 
n 1
+ A + + + ··· + + ··· + +
n! (n − 1)! (n − 2)!2! (n − k)!k! n!
!
+··· ,

además observe que


n
(1 − 1)n X (−1)n−k
=
n! k=0
(n − k)!k!
(−)n (−)n−1 (−)n−2 (−)n−k
 
1
= + + + ··· + + ··· + .
n! (n − 1)! (n − 2)!2! (n − k)!k! n!
Por lo tanto,
eA e−A = I,

así, la matriz inversa de eA es e−A .

236
18.8. Operaciones con Python
Si tenemos la matriz
 
−5 2 0 8
 2 −6 3 9 
A= 
−2 −1 5 −2
0 1 3 −1

para obtener su exponencial podemos ocupar el siguiente código de Python


1 import math
2 import numpy as np
3 from scipy . linalg import expm
4 A = np . array ([[ -5 , 2 ,0 ,8] , [2 , -6 ,3 ,9] , [ -2 , -1 ,5 , -2] ,[0 ,
1 ,3 , -1]])
5 expm ( A )
Listing 18.1: Exponencial de una matriz
con el cual se consigue la siguiente matriz
array([[-3.99479428,-4.87126039,3.33780779,-24.77763456],
[-3.05198432,-4.75947525,-3.86016899,-26.31391653],
[4.91414347,1.87132571,-29.50944907,1.17754784],
[-1.28927097,-2.7143525,-5.98103362,-16.11975232]])

18.9. Ejercicios
1.- Obtener la exponencial de la matriz
 
6 1
M= .
−2 3

237
Capítulo 19
Sistema de ecuaciones diferenciales
lineales de primer orden con
coecientes constantes
Como una aplicación de los temas que hemos visto en otros capítulos,
veremos soluciones de sistema de ecuaciones diferenciales lineales de primer
orden con coecientes constantes.

19.1. Sistema de ecuaciones diferenciales


Para ver como surge una expresión de esta forma notemos que la ecuación
diferencial ordinaria
dx
= αx,
dt

donde α es una constante, tiene como solución la función

x(t) = eαt x0 ,

en donde x0 es una constante que expresa una condición inicial.

238
Ahora consideremos el sistema lineal de ecuaciones diferenciales ordinarias

dx
=ax + by, (19.1)
dt
dy
=cx + dy, (19.2)
dt

en donde a, b, c, d son constantes reales. Podemos observar que usando las de-
niciones
   
x a b
X= , M= ,
y c d

el sistema de ecuaciones diferenciales ordinarias (19.1)-(19.2) se puede expresar


de una forma más sugerente

dX
= M X.
dt

Por lo que podemos proponer la solución


 
Mt x0
X(t) = e X0 , X0 =
y0

con X0 es una condiciones inicial. De forma explícita, la solución tiene la forma


   
x Mt x0
=e ,
y y0

en donde
 

a b t
eMt
=e c d .

Así, para resolver un sistema lineal de ecuaciones diferenciales ordinarias


es necesario saber calcular la exponencial de una matriz.

239
19.1.1. Ejemplo 1
Por ejemplo, consideremos el sistema de ecuaciones lineales
ẋ = βy, (19.3)
ẏ = −βx, (19.4)
que se puede escribir como
    
ẋ 0 β x
= .
ẏ −β 0 y
Por lo tanto, la solución es
 
  
0 1 βt  
x −1 0 x0
=e .
y y0
Antes de continuar, observemos que la serie de la exponencial se puede
escribir como
X 1
eM βt = M n (βt)n
n≥0
n!
X 1 X 1
= M 2n (βt)2n + M 2n+1 (βt)2n−1 ,
n≥0
(2n)! n≥0
(2n + 1)!

supondremos que M 0 = I, con I la matriz identidad de 2 × 2. También recor-


demos las series
X (−)n
cos z = z 2n ,
n≥0
(2n)!
X (−)n
sin z = z 2n+1 .
n≥0
(2n + 1)!

Ahora denamos la matriz


 
0 1
M= ,
−1 0
de donde encontramos que se cumple
  
2 0 1 0 1
M =
−1 0 −1 0
 
1 0
= −
0 1
= (−)I,

240
es decir,
M 2 = (−)I.

Este resultado implica la expresión


M 2n = (−)n I.

También se encuentra
M 2n+1 = M 2n M
= (−)n IM
= (−1)n M,

esto es
M 2n+1 = (−1)n M.

Por lo tanto,
 
0 1

−1 0 X 1  0 1 n
βt
e = (βt)n
n! −1 0
n≥0
X 1  0 1 2n X 1

0 1
2n+1
2n
= (βt) + (βt)2n+1
(2n)! −1 0 (2n + 1)! −1 0
n≥0 n≥0
X 1 X 1
= (−)n I(βt)2n + (−)n M (βt)2n+1
n≥0
(2n)! n≥0
(2n + 1)!
X 1 X 1
= I (−)n (βt)2n + M (−)n (βt)2n+1
n≥0
(2n)! n≥0
(2n + 1)!
= I cos βt + M sin βt
   
1 0 0 1
= cos βt + sin βt
0 1 −1 0
 
cos βt sin βt
= ,
− sin βt cos βt

es decir
 

0 1 βt  
−1 0 cos βt sin βt
e = .
− sin βt cos βt

241
Por lo tanto la solución al sistema de ecuaciones diferenciales ordinarias (19.3)-
(19.4) es
 
  
0 1 βt     
x −1 0 x0 cos βt sin βt x0
= e =
y y0 − sin βt cos βt y0
 
x0 cos βt + y0 sin βt
= ,
−x0 sin βt + y0 cos βt
es decir
x = x0 cos βt + y0 sin βt,
y = −x0 sin βt + y0 cos βt.

19.2. Ejemplo 2
Consideremos el sistema de ecuaciones lineales
ẋ = −2βy, (19.5)
ẏ = βx + 3βy, (19.6)
que se puede escribir como
    
ẋ 0 −2 x
=β .
ẏ 1 3 y
Por lo tanto, la solución es
 
  
0 −2 βt  
x 1 3 x0
=e .
y y0
Los valores propios de la matriz
 
0 −2
M=
1 3
son
λ1 = 2, λ2 = 1

mientras que los vectores propios están dados por


   
1 1
v1 = , v2 =
−1 − 21

242
Entonces, la matriz de cambio de base y su inversa son
 
1 1
U = ,
−1 − 12
 
−1 −1 −2
U = .
2 2

Por lo que
 
2 0
D= = U −1 M U,
0 1

de donde
   
0 −2 2 0
=U U −1 .
1 3 0 1

Así,
   

0 −2 βt 
2 0 βt
e 1 3 = 
Ue −10 1
U 2βt  
1 1 e 0 −1 −2
=
−1 − 12 0 eβt 2 2
 2βt βt 2βt βt

−e + 2e −2e + 2e
= 2βt βt .
e −e 2e2βt − eβt

De donde, las soluciones del sistema de ecuaciones (19.5)-(19.6) son


2eβt − e2βt x0 + 2 e2βt − eβt y0 ,
 
x =
e2βt − eβt x0 + 2e2βt − eβt y0 .
 
y =

19.3. Ejemplo 3
Ahora veamos como resolver el sistema de ecuaciones
ẋ = βx + βy, (19.7)
ẏ = 4βx + βy. (19.8)
Primero denamos
   
x 1 1
X= , M= ,
y 4 1

243
por lo que el sistema de ecuaciones (19.7)-(19.8) toma la forma
dX
= βM X. (19.9)
dt
Los valores propios de M son
λ1 = 3, λ2 = −1,

cuyos vectores propios son


   
1 1
v1 = , v2 = .
2 −2

Además, la matriz de cambio de base y su inversa son


 
1 1
U = ,
2 −2
 
−1 1 2 1
U =
4 2 −1

y se cumple
 
3 0
D= = U −1 M U.
0 −1

Ahora, deniendo
 
−1 x̄
X̄ = U X= ,

el sistema de ecuaciones (19.9) toma la forma


d(U −1 X)
= β(U −1 M U )(U −1 X),
dt
es decir
dX̄
= βDX̄.
dt
Note que en este caso las condiciones iniciales están dadas por
 
x̄0
X̄0 = = U −1 X0 .
ȳ0

244
Este sistema de ecuaciones tiene la forma
    
d x̄ 3 0 x̄
=β ,
dt ȳ 0 −1 ȳ

lo que implica
dx̄
= 3β x̄,
dt
dȳ
= −β ȳ.
dt
Cuyas soluciones son
x̄ = e3βt x̄0 ,
ȳ = e−βt ȳ0 .

Entonces
   
x̄ e3βt x̄0
X = U X̄ = U =U
ȳ e−βt ȳ0
 3βt  
e 0 x̄0
= U −βt
0 e ȳ0
 3βt   
e 0 −1 x0
= U U ,
0 e−βt y0

es decir,
    
1 1 1 e3βt 0 2 1 x0
X = −βt .
4 2 −2 0 e 2 −1 y0

Así las soluciones del sistema de ecuaciones (19.7)-(19.8) son


1 3βt 1 3βt
e + e−βt x0 + e − e−βt y0 ,
 
x =
2 4
1 3βt
e + e−βt y0 + e3βt − e−βt x0 .
 
y =
2

19.4. Sistema de osciladores acoplados


Antes de iniciar esta sección recordemos que la ecuación diferencial
d2 z
2
= −ω 2 z
dt
245
tiene como solución
v0
z = z0 cos ωt + sin ωt.
ω
Ahora, un ejemplo de sistema de dos osciladores acoplados está descrito por el
sistema de ecuaciones diferenciales
d2 x
m = −k1 x + k2 (y − x),
dt2
d2 y
m 2 = −k1 y − k2 (y − x).
dt
Este sistema de ecuaciones se puede escribir como
d2 x
m = −(k1 + k2 )x + k2 y, (19.10)
dt2
d2 y
m 2 = k2 x − (k1 + k2 )y. (19.11)
dt
Así, deniendo
   
x k1 + k2 −k2
X= , M= ,
y −k2 k1 + k2
el sistema de ecuaciones (19.10)-(19.11) se puede escribir como
d2 X
m 2 = −M X (19.12)
dt
Además, se puede probar que los valores propios de M son
λ1 = k1 , λ2 = k1 + 2k2 ,
cuyos vectores propios normalizados son
   
1 1 1 1
v1 = √ , v2 = √ .
2 1 2 −1
Con estos vectores propios, la matriz de cambio de base y su inversa toman la
forma
 
−1 1 1 1
U =U =√ .
2 1 −1
y se cumple
 
k 0
D= = U −1 M U.
0 k + 2k2

246
Ahora, usando la denición
 

X̄ = U −1
X= , (19.13)

el sistema de ecuaciones (19.12) toma la forma


d2 (U −1 X)
m = −(U −1 M U )(U −1 X),
dt2
es decir
d2 X̄
m = −DX̄.
dt2
Por lo tanto, tenemos la ecuaciones diferenciales
d2 x̄
m = −k1 x̄,
dt2
d2 ȳ
m 2 = −(k1 + 2k2 )ȳ,
dt
cuyas soluciones son
v̄0x
x̄ = x̄0 cos ω1 t + sin ω1 t, (19.14)
ω1
v̄0y
ȳ = ȳ0 cos ω2 t + sin ω2 t, (19.15)
ω2
con
k1 k1 + 2k2
ω12 = , ω22 = .
m m
Observe que las soluciones (19.14)-(19.15) se pueden escribir como
      sin ω1 t  
x̄ cos ω1 t 0 x̄0 ω1
0 v̄0x
X̄ = = + sin ω2 t
ȳ 0 cos ω2 t ȳ0 0 ω2
v̄0y

y considerando la identidad (19.13), se obtiene


     
x cos ω1 t 0 −1 x0
= U U
y 0 cos ω2 t y0
 sin ω1 t   
ω1
0 −1 v0x
+U U ,
0 sinωω2 2 t v0y

247
por lo tanto,
1 1
x = (cos ω1 t + cos ω2 t) x0 + (cos ω1 t − cos ω2 t) y0
2   2  
1 sin ω1 t sin ω2 t 1 sin ω1 t sin ω2 t
+ + v0x + − v0y ,
2 ω1 ω2 2 ω1 ω2
1 1
y = (cos ω1 t + cos ω2 t) y0 + (cos ω1 t − cos ω2 t) x0
2   2  
1 sin ω1 t sin ω2 t 1 sin ω1 t sin ω2 t
+ + v0y + − v0x .
2 ω1 ω2 2 ω1 ω2

El desarrollo del álgebra lineal y de los sistemas de ecuaciones diferenciales


están íntimamente correlacionados. Por ejemplo, Euler (1707-1783) muestra
que una ecuación ordinaria de orden n de coecientes constantes se puede
reducir a un sistema de n ecuaciones diferenciales de primer orden y este siste-
ma de n ecuaciones ordinarias se puede relacionar con un problema de valores
propios. Asimismo, D' Alembert (1717-1783) mostró que el problema de las
ecuaciones de movimiento para osciladores acoplados se puede reducir a un
problema de valores propios. Vale la pena mencionar que Lagrange (1736-
1813) ocupó métodos que hoy en día se reconocen como del álgebra lineal para
estudiar problemas de mecánica celeste. Actualmente sabemos que diferentes
problemas de ecuaciones diferenciales, ordinarias y parciales, en realidad son
problemas del álgebra lineal en el espacio vectorial de funciones.

Jean le Rond D' Alembert (1717-1783) fue un físico-matemático y losofo


francés que realizó aportaciones fundamentales a la mecánica, al álgebra y a
las ecuaciones diferenciales. Siendo muy joven escribió un libro sobre cálculo
integral y realizó una demostración del teorema fundamental del álgebra. Ade-
más, se interesó en dar solución a problemas de mecánica celeste, dinámica
de uidos, del movimiento de una cuerda vibrante y de diferentes ecuacio-
nes diferenciales. Como profesor, fue asesor doctoral de Laplace. En su papel
de intelectual se interesó en que el conocimiento saliera de la academia y se

248
divulgara en la sociedad. Junto con Denis Diderot (1713-1784) emprendió el
proyecto llamado la Enciclopedia, una obra escrita en la cual se intentó colocar
todo el conocimiento que se tenía hasta esos días. La convicción de D' Alembert
y Diderot era que el conocimiento se divulgara en la sociedad para el desarro-
llo humano. En ese proyecto también participaron personajes como Voltaire,
Montesquieu, Jacques Rousseau y Adam Smith. La Enciclopedia fue un gran
éxito editorial y causó revuelo en distintos ámbitos sociales de su época. Debi-
do a que D' Alembert era un ateo declarado, la Iglesia y la Monarquía francesa
presionaron para que D' Alembert saliera del proyecto. D' Alembert fue con-
trovertido y polémico desde su nacimiento hasta el último día de su vida. En
efecto, fue hijo natural de dos miembros de la élite francesa de la época, pero
nunca fue reconocido por sus padres y poco tiempo después de nacer su madre
lo abandonó en la puerta de la iglesia de Saint-Jean-le Rond, de esa iglesia to-
mó su nombre. El niño D' Alembert fue adoptado por una mujer humilde que
tomó el papel de su madre. Cabe señalar que hasta el nal de sus días sostuvo
su condición de ateo por lo que fue enterrado en una tumba común sin nombre.

19.5. Ejercicios
1.- Resolver el sistema de ecuaciones diferenciales ordinarias
ẋ = 2x − y,
ẏ = −2x + 3y.

249
Capítulo 20
Relación entre el determinante y
la traza de una matriz
En este capítulo mostraremos que el determinante de una matriz se puede
relacionar con su traza y daremos algunos ejemplos de esta relación.

20.1. Relación
Supongamos que A es una matriz de n × n diagonalizable. Entonces existe
una matriz U invertible de tal forma que se cumple

 
λ1 0 · · · 0
 0 λ2 · · · 0 
A = U  .. .
.. . . ...
 −1
. U ,

 . 
0 0 · · · λn

donde λi , i = 1, 2, · · · , n son los valores propios de A. Se puede mostrar que si


f (x) es una función de la forma

X
f (x) = an x n ,
n≥0

250
entonces
 
f (λ1 ) 0 ··· 0
 0 f (λ2 ) · · · 0 
. .. . . ..
 −1
f (A) = U  . U ,

 . . . . 
0 0 · · · f (λn )

por lo que
n
X
T r(f (A)) = f (λi ).
i=1

Además, como A es diagonizable se cumple


det A = Πni=1 λi ,

de esta expresión se encuentra


det A = Πni=1 λi
= eln(Πi=1 λi )
n

Pn
= e i=1 ln λi
= eT r(ln A) ,

es decir,
det A = eT r(ln A) . (20.1)

Por lo que el determinante de la matriz A está relacionado con su traza.

20.2. Determinante de la exponencial de una ma-


triz
Supongamos que la matriz A es de la forma

A = eM

251
donde M es una matriz de n × n, entonces
det A = eT r(ln A)
M
= eT r(ln e )
= eT r(M ) ,

por lo que
det eM = eT r(M ) .


Por ejemplo, para la matriz


 

0 −2 
e 1 3

tenemos que
 
0 −2

 
det e 1 3 3
=e .
 

Note que si M es una matriz antisimétrica de n × n se cumple T r(M ) = 0,


entonces
det eM = 1.


20.3. Ejercicios
1.- Obtener el determinante de la matriz
 
−3 1 2 

2 1 0




M =e 1 1 −2 .

2.- Si la matriz M se puede diagonalizar y T r(M ) = 0, determinar el valor


de
det eM .


252
Capítulo 21
Operador adjunto
En este capítulo daremos el concepto operador adjunto y veremos algunos
ejemplos. Este concepto nos ayudará a obtener los valores propios de diferentes
transformaciones lineales.

21.1. Denición
Dado un operador A lineal deniremos el operador adjunto, A† , como el
operador que satisface
⟨Av|u⟩ = v|A† u ,

con u y v dos vectores arbitrarios.

21.1.1. Matrices
Por ejemplo, para Cn se tiene
⟨Av|u⟩ = (Av)∗T u
= v ∗T A∗T u
= v|A† u
= v ∗T A† u,

de donde, para una matriz cuadrada con entradas complejas, la matriz adjunta
es
A† = A∗T . (21.1)

253
21.1.2. Derivada
Para el espacio vectorial de las funciones, el adjunto de un operador de-
pende fuertemente del dominio, las condiciones de borde que se satisfacen y
del producto escalar. En el espacio de las funciones suaves e integrables ψ(x)
denidas en el intervalo [a, b] y que cumplen ψ(a) = ψ(b) = 0. se puede denir
el operador

A=α ,
∂x

con α un número complejo. Veamos cuál es el operador adjunto de este ope-


rador. Para ello, tomaremos el producto escalar
Z b
⟨ψ1 |ψ2 ⟩ = ψ1∗ (x)ψ2 (x)dx. (21.2)
a

En este caso, se puede notar que


Z b
⟨Aψ1 |ψ2 ⟩ = dx(Aψ1 (x))∗ ψ2 (x)
a
Z b  ∗

= dx α ψ1 (x) ψ2 (x)
a ∂x
Z b
∂ψ ∗ (x)
= α∗ dx 1 ψ2 (x)
a ∂x
Z b 
∂ (ψ1∗ (x)ψ2 (x))

∗ ∗ ∂ψ2 (x)
= α dx − ψ1 (x)
a ∂x ∂x
b Z b  
∗ ∗ ∗ ∗ ∂ψ2 (x)
= α (ψ1 (x)ψ2 (x)) + dxψ1 (x) −α
a ∂x
Z b  a 

= dxψ1∗ (x) −α∗ ψ2 (x),
a ∂x
esto es
Z b  
∗ ∂
⟨Aψ1 |ψ2 ⟩ = dxψ1∗ (x) −α ψ2 (x).
a ∂x

Ahora
Z b

ψ1 |A ψ2 = dxψ1∗ (x)A† ψ2 (x),
a

254
que implica la igualdad

 †
∂ ∂
α = −α∗ . (21.3)
∂x ∂x

Note que este resultado depende fuertemente de que se cumpla ψ(a) = ψ(b) =
0.

21.1.3. Derivada con peso


Se puede observar que el adjunto del operador

A=α
∂x
no está bien denido con un producto escalar general
Z b
⟨f |g⟩ = dxq(x)f ∗ (x)g(x), q(x) > 0
a

donde se satisface
q(x) > 0 ∀a ∈ [a, b]. (21.4)
Para este caso es más conveniente considerar el operador

α ∂
à = ,
q(x) ∂x

quien sí tiene bien denido su adjunto. En efecto,


Z b
⟨Ãψ1 |ψ2 ⟩ = dxq(x)(Ãψ1 (x))∗ ψ2 (x)
a
Z b  ∗
α ∂
= dxq(x) ψ1 (x) ψ2 (x)
a q(x) ∂x
Z b
∗ ∂ψ ∗ (x)
= α dx 1 ψ2 (x)
a ∂x
Z b  
∗ ∗ ∂
= dxψ1 (x) −α ψ2 (x)
a ∂x
Z b
−α∗ ∂
 

= dxq(x)ψ1 (x) ψ2 (x)
a q(x) ∂x

255
es decir,
b
−α∗ ∂
D E Z  
Ãψ1 |ψ2 = dxq(x)ψ1∗ (x) ψ2 (x)
a q(x) ∂x
Además, se debe cumplir
D E Z b

ψ1 |à ψ2 = dxq(x)ψ1∗ (x)Æ ψ2 (x),
a
por lo cual se obtiene
α∗ ∂
Æ = − .
q(x) ∂x

21.1.4. Propiedades del operador adjunto


Hay dos propiedades importantes de los operadores adjuntos. La primera
propiedad está relacionada con las suma. Si A, B son dos operadores lineales,
se tiene
D E
⟨(A + B) v|u⟩ = v| (A + B)† u ,
pero
⟨(A + B) v|u⟩ = ⟨(Av + Bv) |u⟩
= ⟨Av|u⟩ + ⟨Bv|u⟩
= v|A† u + v|B † u
= v| A† + B † u .


Por lo tanto,
D E
v| (A + B)† |u = v| A† + B † u ,


este resultado es válido para cualquier par de vectores v y u, entonces

(A + B)† = A† + B † . (21.5)

La segunda propiedad está relacionada con el producto de dos operadores:


⟨(AB) v|u⟩ = ⟨A (Bv) |u⟩
= Bv|A† u
= v|B † A† u
D E

= v| (AB) u ,

256
que implica

(AB)† = B † A† . (21.6)

21.2. Ejercicios
1.- Obtener el operador adjunto de la matriz
 
3 −i 1
M =  4 + 2i −1 i  .
1 1 + 2i 1

2.- Obtener el operador adjunto de la matriz


 
1 1 + 2i 3
M =  1 − 2i 2 −i  .
3 i 4

3.- Obtener el operador adjunto de la matriz


 
3 4 − 2i 1
M =  −i −1 1 − 2i  .
1 −i 1 − 2i

257
Capítulo 22
Operadores hermíticos
En este capítulo veremos la denición de operador hermítico y algunas
de sus propiedades. Los operadores hermíticos tienen aplicaciones en diversas
áreas como la mecánica cuántica.

22.1. Denición
Una clase importante de operadores son los autoadjuntos, que satisfacen

A† = A,

a estos operadores también se les llama hermíticos o hermitianos.

Ahora recordemos que en el espacio de la matrices de entradas complejas


de n × n el operador adjunto de una matriz Λ es
Λ† = Λ∗T

Por lo que si Λ es una matriz hermítica se cumple

(Λ)∗T = Λ, (22.1)

Un ejemplo de matriz hermítica es la matriz identidad


 
1 0
I= ,
0 1

258
además las matrices
 
0 0 0
M1 = i 0 0 −1
 ,
0 1 0
 
0 0 1
M2 = i  0 0 0 ,
−1 0 0
 
0 −1 0
M3 = i 1 0 0 
0 0 0

son hermíticas.

Note que si la matriz Λ solo tiene coecientes reales, entonces la condición


(22.1) toma la forma

(Λ)T = Λ, (22.2)

así las matrices simétricas de coecientes reales son hermíticas. Por ejemplo
las matrices
 
0 0 0
A =  0 0 1 ,
0 1 0
 
2 0 4
B =  0 6 0 ,
4 0 5
 
9 2 0
C =  2 6 −1 
0 −1 5

son simétricas y por lo tanto hermíticas.

22.2. Valores propios de operadores hermíticos


Los operadores Hermíticos tienen valores propios reales. En efecto, si v es
un vector propio de un operador hermítico A con valor propio λ, es decir, si
se satisface
Av = λv,

259
se tiene
⟨Av|v⟩ = ⟨λv|v⟩
= λ∗ ⟨v|v⟩ ,
pero también tenemos
⟨Av|v⟩ = ⟨v|A† v⟩
= ⟨v|Av⟩
= ⟨v|λv⟩
= λ ⟨v|v⟩ ,
que implica la igualdad
λ∗ ⟨v|v⟩ = λ ⟨v|v⟩
que nos conduce al resultado

λ∗ = λ.

Así, los valores propios de los operadores hermíticos son reales.

De la ecuación (21.5) se puede ver que la suma de dos operadores hermíticos


es otro operador hermítico. Además, de la expresión (21.6) es claro que si A y
B son operadores hermíticos y conmutan, es decir AB = BA, entonces
(AB)† = B † A† = BA = AB.
así
(AB)† = AB.

Por lo tanto, el producto de dos operadores hermíticos que conmutan es her-


mítico.

22.3. Ortogonalidad de vectores propios de ma-


trices hermíticas
Sea M una matriz hermítica de n×n, note que en este caso todos los valores
propios de M son reales. Ahora, probaremos que si va y vb son vectores propios

260
de M con valores propios λa y λb diferentes, entonces va y vb son ortogonales,
es decir
⟨va |vb ⟩ = 0.
Para probar esta armación, su pongamos que se cumplen la ecuaciones
M v1 = λ1 v1 ,
M v2 = λ2 v2 .
Considerando estas dos ecuaciones y que M es una matriz es hermítica, se
tiene
λ1 ⟨v1 |v2 ⟩ = ⟨λ1 v1 |v2 ⟩
= ⟨M v1 |v2 ⟩
= ⟨v1 |M † v2 ⟩
= ⟨v1 |M v2 ⟩
= ⟨v1 |λ2 v2 ⟩
= λ2 ⟨v1 |v2 ⟩,
esto es
λ1 ⟨v1 |v2 ⟩ = λ2 ⟨v1 |v2 ⟩,
de donde
(λ1 − λ2 ) ⟨v1 |v2 ⟩ = 0.
Ahora, si
λa − λb ̸= 0,
se llega a
⟨v1 |v2 ⟩ = 0.
que es lo que queríamos demostrar.

Observe que si todos los valores propios de M son diferentes, entonces to-
dos vectores propios de M son ortogonales entre si. En otras palabras, si todos
los n valores propios de M son diferentes, entonces con los vectores propios
de M se puede formar una base ortonormal. Note que en este caso la matriz
de cambio de base formada con los vectores propios de M tendrá renglones
ortogonales entre si. Posteriormente a este tipo de matrices les llamaremos
unitarias u ortogonales.

261
22.4. Ejemplo
Consideremos la matriz hermítica
 
1 1−i
M = ,
1+i −1

los valores propios de esta matriz son


√ √
λ1 = 3, λ2 = − 3

y los vectores propios normalizados son


   
1 √
1 1 √
1
v1 = p √ 3−1 , v2 = p √ 3+1 ,
3− 3 2
(1 + i) 3+ 3 − 2 (1 + i)

los cuales son ortogonales. Además la matriz de cambio de base es


 
√ 1
√ √ 1

√ 3− 3 √ 3+ 3
U =  
√3−1√ (1 + i) − √3+1√ (1 + i)
2 3− 3 2 3+ 3

la cual satisface
 √ 
√ 1
√ √3−1√ (1 − i)
U † = U ∗T =  3− 3 2 √3− 3  = U −1 .
√ 1
√ − √3+1√ (1 − i)
3+ 3 2 3+ 3

22.5. Ejemplo con matriz simétrica


Consideremos la matriz
 
5 2
M=
2 2

la cual es simétrica. En este caso los valores propios son


λ1 = 6, λ2 = 1,

mientras que los vectores propios normalizados son


   
1 2 1 1
v1 = √ , v2 = √ ,
5 1 5 −2

262
los cuales son ortogonormales. Además la matriz de cambio de base es
 
1 2 1
U=√ ,
5 1 −2

la cual cumple
 
1 2 1
T
U =√ = U −1 .
2 1 −2

Charle Hermite (1822-1901) fue un matemático francés que realizó diferentes


aportaciones a las matemáticas. En particular, demostró que cualquier matriz
simétrica tiene valores propios reales y que el número e es trascendente. De-
bido a su ación por los trabajos de Lagrange, de adolescente le llamaban el
pequeño Lagrange. A los 20 años inició sus estudios en la École Polytechnique.
Sin embargo, se le detectó un defecto en el pie derecho y por esa absurda razón
las autoridades escolares no le permitieron seguir sus estudios. Posteriormente,
continuó sus estudios en una Ecoles d' Applications. A Hermite no le gustaban
los exámenes, él prefería leer el trabajo de matemáticos clásicos. Con el tiempo
logró obtener resultados importantes, así que se convirtió en un matemático de
renombre. En 1869 regresó a la École Polytechnique como profesor y tiempo
después fue nombrado miembro de la Academia de Paris.

22.5.1. Parámetros libres


Sea Λ una matriz compleja de n × n entradas. Si separamos esta matriz en
su parte real e imaginaria se tiene
Λ = A + iB,

con A y B dos matrices de n × n con entradas reales. Usando esta descompo-


sición, la igualdad (22.1) toma la forma
(A + iB)∗T = A + iB,

263
es decir
AT − iB T = A + iB,

de donde
AT = A, B T = −B,

Por lo tanto, A debe ser una matriz simétrica y B debe ser una matriz antisi-
métrica.

Ahora, si una matriz real de n × n es simétrica, entonces los coecientes


que están sobre la diagonal son iguales a los coecientes que están de bajo
de la diagonal. Por lo que el primer renglón tiene n coecientes reales libres,
el segundo renglón tiene n − 1 coecientes reales libres, el renglón k tiene
n − (k − 1) coecientes reales libres. Así, el total de coecientes libres de una
matriz simétrica es
n
X n(n + 1)
i= .
i=1
2

Además, si una matriz de n × n es antisimétrica, sus elementos de la diagonal


son nulos y los coecientes que están sobre la diagonal son inversos aditivos a
los coecientes que están de bajo de la diagonal. En consecuencia, el primer
renglón tiene n − 1 coecientes reales libres, el segundo renglón tiene n − 2
coecientes reales libres, el renglón k tiene n − k coecientes reales libres.
Entonces, el total de coecientes reales libres de una matriz antisimétrica es

n−1
X n(n − 1)
i= .
i=1
2

Considerando estos resultados, podemos ver que la matriz A tiene


n(n + 1)
2
parámetros reales libres, mientras que la matriz B tiene
n(n − 1)
2
264
parámetros reales libres. Por lo cual, considerando que
n(n + 1) n(n − 1)
n2 = + ,
2 2
llegamos a la conclusión que una matriz hermítica Λ de n × n con entradas
complejas tiene
n2

parámetros reales libres.

22.6. Matrices de Pauli


Supongamos que tenemos la siguiente matriz de 2 × 2 con entradas com-
plejas
 
a b
A= ,
c d
de donde
a∗ c ∗
 
∗T
A = .
b∗ d ∗
Si A es una matriz hermítica, la igualdad A = A∗T implica
a = a∗ ,
d = d∗ ,
c = b∗ .
Por lo tanto, a y b deben ser número reales y se debe cumplir c = b∗ . Así, pa-
ra obtener todas las matrices hermíticas de 2 × 2 tenemos cuatros parámetros
libres. Es decir, el espacio de las matrices hermíticas de 2×2 es de dimensión 4.

Supongamos que
β1 , β2 , β3 , β4
son número reales, entonces la matriz
 
β1 β3 − iβ4
A= ,
β3 + iβ4 β2

265
es hermítica. Se puede observar que toda matriz hermítica se puede escribir
como
       
1 0 0 0 0 1 0 −i
A = β1 + β2 + β3 + β4 .
0 0 0 1 1 0 i 0

Por lo tanto, cualquier matriz hermítica de 2 × 2 se puede generar con las


matrices
       
1 0 0 0 0 1 0 −i
, , , .
0 0 0 1 1 0 i 0

Como estas 4 matrices son linealmente independientes, son base del espacio de
las matrices hermíticas de 2 × 2.

Ahora, supongamos que


α0 , α1 , α2 , α4

son número reales. Entonces, otra forma de parametrizar a las matrices her-
míticas de 2 × 2 es
 
α0 + α3 α1 − iα2
A= .
α1 + iα2 α0 − α3

Observe que en este caso tenemos

       
1 0 0 1 0 −i 1 0
A = α0 + α1 + α2 + α3 .
0 1 1 0 i 0 0 −1

Por lo tanto, cualquier matriz hermítica de 2 × 2 se puede generar con las


matrices
       
1 0 0 1 0 −i 1 0
σ0 = , σ1 = , σ2 = , σ3 = .
0 1 1 0 i 0 0 −1

266
A las matrices σ1 , σ2 , σ3 se les llama de Pauli, las cuales son linealmente inde-
pendientes.

Así, cualquier matriz hermítica de 2×2 se puede escribir como combinación


lineal de la matriz identidad y de las matrices de Pauli de la siguiente forma

A = α0 σ0 + α1 σ1 + α2 σ2 + α3 σ3 .

Por lo que la matriz identidad junto con las matrices de Pauli forman una base
para las matrices hermíticas de 2 × 2.

22.7. Matrices de Gell-Mann


Supongamos que tenemos la siguiente matriz de 3 × 3 con entradas com-
plejas
 
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33
de donde
a∗11 a∗21 a∗31
 

A∗T =  a∗12 a∗22 a∗32  .


a∗13 a∗23 a∗33

Si A es una matriz hermítica, la igualdad A = A∗T implica


a11 = a∗11 , (22.3)
a22 = a∗22 , (22.4)
a33 = a∗33 , (22.5)
a21 = a∗12 , (22.6)
a31 = a∗13 , (22.7)
a23 = a∗32 (22.8)
Por lo tanto los números a11 , a22 , a33 deben ser reales. Además, de las ecuacio-
nes (22.6)-(22.8), tenemos seis parámetros reales. Así, las matrices hermíticas
de 3 × 3 tienen 9 parámetros libres y por lo tanto forman un espacio de dime-
sión nueve.

267
Ahora, supongamos que
β1 , β2 , β3 , β4 , β5 , β6 , β7 , β8 , β9

son número reales, entonces la matriz de 3 × 3


 
β3 β1 − iβ2 β4 − iβ5
A =  β1 + iβ2 β8 β6 − iβ7  ,
β4 + iβ5 β6 + iβ7 β9

es hermítica. Por lo tanto, cualquier matriz hermítica de 3 × 3 se puede escribir


como
     
0 1 0 0 −i 0 1 0 0
A =β1 1 0 0
  + β2  i 0 0  + β3  0 0 0 
0 0 0 0 0 0 0 0 0
     
0 0 1 0 0 −i 0 0 0
+ β4 0 0
 0  + β5 0 0 0  + β6 
 0 0 1 
1 0 0 i 0 0 0 1 0
     
0 0 0 0 0 0 0 0 0
+ β7 0 0
 −i  + β8  0 1 0  + β9  0 0 0 .
0 i 0 0 0 0 0 0 1

Así, las matrices hermíticas


     
0 1 0 0 −i 0 1 0 0
 1 0 0 ,  i 0 0 ,  0 0 0 ,
0 0 0 0 0 0 0 0 0
     
0 0 1 0 0 −i 0 0 0
 0 0 0 ,  0 0 0 ,  0 0 1 ,
1 0 0 i 0 0 0 1 0
     
0 0 0 0 0 0 0 0 0
 0 0 −i  ,  0 1 0 ,  0 0 0 ,
0 i 0 0 0 0 0 0 1

generan cualquier matriz hermítica de 3 × 3.

268
Existen otras formas de parametrizar a las matrices hermíticas de 3 × 3.
Por ejemplo, supongamos que
α0 , α1 , α2 , α3 , α4 , α5 , α6 , α7 , α8
son número reales, entonces la matriz
 
α0 + α3 + √13 α8 α1 − iα2 α4 − iα5
A=
 α1 + iα2 α0 − α3 + √13 α8 α6 − iα7 
,
2
α4 + iα5 α6 + iα7 α0 − √3 α8

es hermítica. De donde,
     
1 0 0 0 1 0 0 −i 0
A = α0 0 1 0
  + α1 1 0 0
  + α2  i 0 0 
0 0 1 0 0 0 0 0 0
     
1 0 0 0 0 1 0 0 −i
+ α3 0 −1 0
  + α4 0 0 0
  + α5 0
 0 0 
0 0 0 1 0 0 i 0 0
     
0 0 0 0 0 0 1 0 0
1
+ α6 0 0 1
  + α7 0 0 −i  + α8 √ 
 0 1 0 .
0 1 0 0 i 0 3 0 0 −2

Por lo cual, las matrices


     
1 0 0 0 1 0 0 −i 0
λ0 =  0 1 0  , λ1 =  1 0 0  , λ2 =  i 0 0 ,
0 0 1 0 0 0 0 0 0
     
1 0 0 0 0 1 0 0 −i
λ3 =  0 −1 0  , λ4 =  0 0 0  , λ5 =  0 0 0 ,
0 0 0 1 0 0 i 0 0
     
0 0 0 0 0 0 1 0 0
1
λ6 =  0 0 1  , λ7 =  0 0 −i  , λ8 = √  0 1 0 .
0 1 0 0 i 0 3 0 0 −2

matrices generan las matrices hermíticas de 3 × 3.

269
A las matrices
λ1 , λ2 , λ3 , λ4 , λ5 , λ6 , λ7 , λ8

se les llama matrices de Gell-Mann y surgieron en el estudio de las partículas


llamadas quarks.

Así, las matrices hermíticas de 3 × 3 se generan con la matriz identidad y


las matrices de Gell-Mann de la forma
8
X
A= αk λk .
k=0

Murray Gell-Mann (1929-2019) fue un físico norteamericano que realizó con-


tribuciones fundamentales en el estudio de partículas elementales y en sistemas
complejos. Para modelar a las partículas que se encuentran dentro del núcleo
atómico propuso el empleo de las ahora llamadas matrices de Gell-Mann. Los
resultados experimentales de los aceleradores de partículas mostraron que su
modelo es correcto. Debido a sus modelos teóricos, en 1969 le otorgaron el
premio Nobel de Física. También se interesó en otras disciplinas como la li-
teratura, historia, arqueología, lingüística, etc. Curiosamente se basó en una
novela de James Joyce para nombrar como quarks a las componentes del inte-
rior del núcleo atómico. Aprendió diferentes lenguas, entre ellos el Maya. Fue
director del Instituto de Santa Fe de Estados Unidos en donde colaboró con
expertos de diferentes disciplinas.

22.8. Operadores con valores propios positivos


Sea B de la forma
B = A† A,

270
con A un matriz de n × n. Note que
†
B† = A† A
†
= A† A†
= A† A
= B,

es decir
B † = B,

este resultado implica que B es una matriz hermítica.

Además se puede probar que si B es diagonalizable, entonces sus valores


propios son positivos. En efecto, si v es un vector no nulo y
Bv = λv

con λ un escalar, entonces


⟨v|Bv⟩ = ⟨v|λv⟩ = λ⟨v|v⟩, (22.9)
además
⟨v|Bv⟩ = ⟨v|A† Av⟩ = ⟨Av|Av⟩ ≥ 0. (22.10)
Usando las ecuaciones (22.9)-(22.10), encontramos que
λ⟨v|v⟩ = ⟨Av|Av⟩ ≥ 0,

así
⟨Av|Av⟩
λ= ≥ 0,
⟨v|v⟩
esto es
λ ≥ 0,

que es lo que se quería demostrar.

271
22.9. Ejercicios
1.- Obtener los valores propios de la matriz hermítica
 
1 i 0
M =  −i −1 0  .
0 0 2

2.- Sea el espacio de las funciones bien portadas denidas en el intervalo


[a, b, ] que cumplen ψ(a) = ψ(b) = 0. En este espacio, determinar bajo qué
condiciones el operador

A=α , α∈C
∂x
es hermítico.

272
Capítulo 23
Matrices antihermíticas
En este capítulo estudiaremos las matrices antihermíticas y sus propieda-
des. En particular, mostraremos que toda matriz de n × n con entradas com-
plejas se puede escribir como las suma de una matriz hemítica con un matriz
antihermítica.

23.1. Denición
Λ es una matriz antihermítica si satisface

Λ† = −Λ (23.1)

273
23.2. Ejemplo, las matrices de Dirac
Las matrices de Dirac se usan en mecánica cuántica relativista. Estas ma-
trices están dadas por

 
1 0 0 0
 0 1 0 0 
γ0 =  ,
 0 0 −1 0 
0 0 0 −1
 
0 0 0 1
 0 0 1 0 
γ1 =  ,
 0 −1 0 0 
−1 0 0 0
 
0 0 0 −i
 0 0 i 0 
γ2 =  ,
 0 i 0 0 
−i 0 0 0
 
0 0 1 0
 0 0 0 −1 
γ3 =  .
 −1 0 0 0 
0 1 0 0

Observe que la matriz γ 0 es hermítica y las matrices γ i , (i = 1, 2, 3) son anti-


hermíticas.

23.3. Espectro de operadores antihermíticos


Los operadores antihermíticos tienen valores propios imaginarios. En efecto,
si v es un vector propio de un operador antihermítico A con valor propio λ, es
decir
Av = λv,
se tiene
⟨Av|v⟩ = ⟨λv|v⟩
= λ∗ ⟨v|v⟩ ,

274
adicionalmente se encuentra
⟨Av|v⟩ = ⟨v|A† v⟩
= ⟨v|(−Av)⟩
= − ⟨v|λv⟩
= −λ ⟨v|v⟩ ,
de donde
λ∗ ⟨v|v⟩ = −λ ⟨v|v⟩ ,
que nos lleva al resultado
λ∗ = −λ.

Así, los valores propios de los operadores antihermíticos son imaginarios.

También se puede observar que si Λ es una matriz antihermítica y α es un


número real, entonces la matriz

A = eiαΛ

es hermítica. En efecto, tenemos que


†
A† = eiαΛ

= e−iαΛ
= eiαΛ
= A,
es decir,
A† = A.
En particular, si Λ es una matriz de entradas reales y antisimétrica, es decir,
si
ΛT = −Λ,
entonces la matriz
A = eiαΛ
es hermítica.

275
23.3.1. Parámetros libres
Si separamos a una matriz compleja Λ en su parte real e imaginaria se tiene
Λ = A + iB,

con A y B dos matrices de n × n con entradas reales. Usando esta descompo-


sición, la igualdad (23.1) toma la forma
(A + iB)∗T = −(A + iB),

es decir,
AT − iB T = −A − iB,

de donde
AT = −A, B T = B.

Por lo tanto, A debe ser una matriz antisimétrica y B debe ser una matriz
simétrica.

Ahora, como A es una matriz antisimétrica real de n × n por lo que tiene


n(n − 1)
2
parámetros reales libres, mientras que B es una matriz simétrica real de n × n
entonces tiene
n(n + 1)
2
parámetros reales libres. Además, considerando que
n(n + 1) n(n − 1)
n2 = + ,
2 2
una matriz antihermítica Λ con entradas complejas tiene

n2 .

parámetros reales libres.

276
23.3.2. Descomposición en operadores hermíticos y anti-
hermíticos
Con cualquier matriz Λ se pueden construir las matrices

Λ + Λ†
Λ+ = ,
2
Λ − Λ†
Λ− = ,
2

estas matrices satisfacen


†
Λ + Λ†

Λ†+ =
2
Λ† + Λ
=
2

= Λ+ ,
†
Λ − Λ†

Λ†− =
2

Λ −Λ
=
2
= −Λ− .

Por lo tanto, Λ+ es una matriz hermítica y Λ− es una matriz antihermítica,


además se cumple
Λ + Λ † Λ − Λ†
Λ= + ,
2 2
es decir,
Λ = Λ+ + Λ− ,

así cualquier matriz Λ compleja de n × n se puede descomponer en la suma de


una matriz hermítica y una matriz antihermítica.

277
Note que si Λ solo tienen componentes reales, entonces

Λ + ΛT
Λ+ = ,
2
Λ − ΛT
Λ− = ,
2

donde Λ+ es una matriz simétrica y Λ− es una matriz antisimétrica. Además,


se sigue cumpliendo la igualdad

Λ = Λ+ + Λ−

por lo que cualquier matriz Λ de n×n de entradas reales se puede descomponer


como la suma de una matriz simétrica y una matriz antisimétrica.

23.4. Ejercicios
1.- Obtener la parte simétrica y antisimétrica de la matriz
 
1 4 2
−5 3 6 .

3 7 8

2.- Obtener la parte hermítica y antihermítica de la matriz


 
−i
√ 2 3i
 2 i −2 .
2i 4 5

278
Capítulo 24
Matrices ortogonales
Como una aplicación de los temas vistos anteriormente ahora estudiaremos
las matrices ortogonales, las cuales se relacionan con las matrices de rotaciones.

24.1. Denición
Una matriz Λ de entradas reales de n × n es ortogonal si cumple

ΛT Λ = I (24.1)

donde I es la matriz identidad.

Por ejemplo, la matriz de rotación sobre el eje x y su transpuesta


 
1 0 0
Λx (θ) =  0 cos θ sin θ  ,
0 − sin θ cos θ
 
1 0 0
ΛTx (θ) =  0 cos θ − sin θ  ,
0 sin θ cos θ
satisfacen
 
1 0 0
ΛTx (θ) Λx (θ) =  0 cos2 θ + sin2 θ sin θ cos θ − sin θ cos θ 
0 sin θ cos θ − sin θ cos θ cos2 θ + sin2 θ
 
1 0 0
=  0 1 0 ,
0 0 1

279
es decir
ΛTx (θ) Λx (θ) = I.

Por lo tanto la matriz Λx (θ) es ortogonal.

De la misma forma se puede mostrar que las matrices de rotación sobre los
ejes x y y
 
cos ψ 0 sin ψ
Λy (ψ) =  0 1 0 ,
− sin ψ 0 cos ψ
 
cos ϕ sin ϕ 0
Λz (ϕ) =  − sin ϕ cos ϕ 0 
0 0 1

también son ortogonales.

24.2. Grupo ortogonal O(n) y grupo SO(n)


Antes de continuar recordemos lo que es un grupo. Sea G un conjunto con
una operación
· : G × G → G.
El par (G, ·) es un grupo si cumple

1) Axioma de cerradura:

g1 ∈ G, g2 ∈ G =⇒ g1 · g2 ∈ G

2) Axioma de asociatividad:

g1 ∈ G, g2 ∈ G, g3 ∈ G, =⇒ g1 · (g2 · g3 ) = (g1 · g2 ) · g3 .

3) Axioma del neutro:

∃e ∈ G, g1 ∈ G =⇒ g1 · e = e · g1 = g1 .

280
4)Axioma del inverso:

∀g1 ∈ G, ∃g1−1 ∈ G, g1 · g1−1 = g1−1 · g1 = e.

Denamos a O(n) como el conjunto de matrices Λ con entradas reales de


n × n que cumplen la ecuación de ortogonalidad (24.1). Probaremos que O(n)
es un grupo.

Supongamos que Λ1 y Λ2 son matrices ortogonales. Entonces cumplen

ΛT1 Λ1 = I, ΛT2 Λ2 = I,

de donde
(Λ1 Λ2 )T (Λ1 Λ2 ) = ΛT2 ΛT1 Λ1 Λ2
= ΛT2 Λ2 = I,

esto es
(Λ1 Λ2 )T (Λ1 Λ2 ) = I.

Este resultado implica Λ1 Λ2 ∈ O(n), es decir

Λ1 , Λ2 ∈ O(n) =⇒ Λ1 Λ2 ∈ O(n).

Por lo tanto, se cumple el axioma la cerradura.

El producto de matrices es asociativo, en particular el producto de las ma-


trices ortogonales. Además, la identidad I satisface la ecuación (24.1), es decir,
I ∈ O(n). Así, se cumplen el axioma de la asociatividad y el del elemento neu-
tro.

Ahora, si Λ cumple la ecuación (24.1), entonces


ΛT = Λ−1 ,

281
por lo que
T T
Λ−1 Λ−1 = ΛT Λ−1
= ΛΛ−1 = I,

esto es
T
Λ−1 Λ−1 = I.

Es decir, si la matriz Λ es ortogonal, entonces Λ−1 también es ortogonal.

Así, las matrices Λ de n × n entradas reales que cumplen la ecuación (24.1)


forman un grupo. A este grupo ortogonal se llama grupo ortogonal O(n).

24.3. Determinantes de una matriz ortogonal


Ahora, recordemos que para cualquier matriz A se cumple

detA = detAT .

Entonces, de la ecuación (24.1) se tiene


det ΛT Λ = det ΛT det Λ


= det Λ det Λ = det I = 1,

de donde
(detΛ)2 = 1,

es decir
detΛ = ±1.

Las matrices Λ que cumplen

detΛ = 1.

sí forman un grupo, este es el grupo SO(n).

282
El subconjunto de matrices Λ que cumplen detΛ = −1 no forman un grupo.
Por ejemplo, la identidad no está en ese subconjunto. Algunas matrices de este
tipo son
 
−1 0 0
 0 1 0 ,
0 0 1
 
1 0 0
 0 1 0 ,
0 0 −1
 
−1 0 0
 0 −1 0 .
0 0 −1

Esta matrices cumplen la ecuación (24.1), pero no son de rotación ni de SO(3).

24.4. Parámetros
Observe que la matriz de n × n

 
Λ11 Λ12 · · · Λ1n
 Λ21 Λ22 · · · Λ2n 
Λ= .. .. . . ..
 
. . . .

 
Λn1 Λn2 · · · Λnn

se pueden formar con los vectores columna

     
Λ11 Λ12 Λ1n
 Λ21   Λ22   Λ2n 
C1 =  .
.  , C2 =  ..  , · · · , Cn =  .
. .
     
 .  .   .
Λn1 Λn2 Λnn

283
Claramente, estos vectores representan los renglones de la matriz traspuesta,
ΛT . Por lo tanto, la condición (24.1) se puede escribir como

  
Λ11 Λ21 · · · Λn1 Λ11 Λ12 · · · Λ1n
 Λ12 Λ22 · · · Λn2   Λ21 Λ22 · · · Λ2n 
ΛT Λ =  .
. .
. . . .
. . .. . . .. 
.   ..
  
. . . . . .


Λ1n Λ2n · · · Λnn Λn1 Λn2 · · · Λnn
 
C1 · C1 C1 · C2 · · · C1 · Cn
 C2 · C1 C2 · C2 · · · Cn · C2 
=

.. .. . . ..  = I.

(24.2)
 . . . . 
Cn · C1 Cn · C2 · · · Cn · Cn

Otra forma de expresar esta igualdad es

Ci · Cj = δij ,

es decir, si una matriz satisface la condición (24.1), sus columnas son ortonor-
males.

Ahora, una matriz Λ de n × n con componentes reales tiene n2 parámetros


libres. Pero si satisface la ecuación (24.1), entonces no todos los parámetros
son libres. De la igualdad (24.2) se puede ver que ΛT Λ es una matriz simétrica,
por lo que (24.2) sólo tiene
n(n + 1)
2
ecuaciones independientes. Así, los parámetros libres de una matriz ortogonal
son
n(n + 1) n(n − 1)
n2 − = .
2 2

Así el grupo de matrices Λ de n × n de entradas reales ortogonales O(n)


tiene
n(n − 1)
(24.3)
2

parámetros libres.

284
24.5. Matriz antisimétrica y matrices ortogona-
les
Sea A una matriz antisimétrica, es decir que satisface

AT = −A

y α un número real, entonces la matriz

Λ = eαA (24.4)

es ortogonal. En efecto, note que


T
ΛT = eαA
T
= eαA
= e−αA
= Λ−1 ,

esto es
ΛT = Λ−1 ,

por lo tanto
T
eαA eαA = I.

Así, la matriz (24.4) es ortogonal. Además, si A es un matriz de n × n anti


simétrica, tiene
n(n − 1)
2
parámetros libres, que coincide con el número de grados de libertad de las
matrices ortogonales (24.3).

También se puede observar que considerando la identidad

det eM = eT r(M )


285
y que toda matriz antisimétrica tiene traza nula

T r(A) = 0,

entonces
det eA = eT r(A)


= e0 = 1,

de donde
eA ∈ SO(n).

Se dice que las matrices antisimétricas general al grupo SO(n).

24.5.1. Matrices de SO(2)


La única matriz antisimétrica con entradas reales de 2 × 2 es
 
0 α
A=
−α 0
con la cual se pueden construir las siguientes matrices ortogonales de 2 × 2
 
0 1
α   
A −1 0 cos α sin α
Λ=e =e = ,
− sin α cos α
así  
cos α sin α
SO(2) =
− sin α cos α

24.5.2. Matrices ortogonales de SO(3)


Ahora, cualquier matriz antisimétricas de 3×3 con entradas reales se puede
escribir como
 
0 −α3 α2
A =  α3 0 −α1  ,
−α2 α1 0
por lo que
A = α1 m1 + α2 m2 + α3 m3

286
con
     
0 0 0 0 0 1 0 −1 0
m1 =  0 0 −1  , m2 =  0 0 0  , m3 =  1 0 0 .
0 1 0 −1 0 0 0 0 0

Así
SO(3) = eα1 m1 +α2 m2 +α3 m3 ,


en particular, las matrices


 
1 0 0
eα1 m1 =  0 cos α1 − sin α1 ,
0 sin α1 cos α1
 
cos α2 0 sin α2
eα2 m2 =  0 1 0 ,
− sin α2 0 cos α2
 
cos α3 − sin α3 0
eα3 m3 =  sin α3 cos α3 0 .
0 0 1

pertenecen a SO(3).

24.6. Distancia
Sea ⃗x = (x1 , · · · , xn ) un vector en Rn y denamos la forma cuadrática

l2 = x21 + x22 + · · · + x2n ,

la cual representa la distancia de ⃗x al origen. Observe que si denimos la matriz


columna
 
x1
 x2 
X =  .. 
 
 . 
xn

y la matriz renglón
XT =

x1 x2 ··· xn ,

287
la distancia se puede escribir como

l2 = X T X = X T IX.

Ahora, si Λ es una matriz de n × n y se hace la transformación de coordenadas

X ′ = ΛX,

se tiene la distancia
l′2 = X ′T IX ′
= (ΛX)T ΛX
= X T ΛT IΛ X,


es decir
l′2 = X T ΛT IΛ X,


Por lo tanto, si Λ es tal que deja la distancia invariante,

l2 = l′2 ,

se debe cumplir que


X T IX = X T ΛT IΛ X,


de donde
ΛT IΛ = I.

Así, la distancia es invariante bajo transformaciones ortogonales.

24.7. Ejercicios
1.- Determinar si la siguiente matriz es ortogonal
 
√2 0 √1
6 3
M = √1 √1 − √13 .
 
6 2
− √16 √1
2
√1
3

288
2.- Determinar si la siguiente matriz es ortogonal
 
√2 0 √1
6 3
M = √1 √1 − √13 .
 
6 2
− √16 √1
2
− √15

289
Capítulo 25
Matrices unitarias
Una generalización de las matrices ortogonales son las llamadas matrices
unitarias, que son muy útiles para entender la mecánica cuántica. En este
capítulo daremos la denición de matrices unitarias y estudiaremos algunas de
sus aplicaciones.

25.1. Denición
Una matriz de n × n con entradas complejas U es unitaria si cumple

U † U = I, U † = U ∗T (25.1)

donde I es la matriz identidad. Note que esta igualdad implica

U † = U −1 .

Por ejemplo, la matriz


 
1 i −i

2 1 1

es unitaria.

25.2. Grupos unitarios U (n) y SU (n)

290
Deniremos a U (n) como el conjunto de las matrices U de n × n que cum-
plen la ecuación de unitariedad (25.1), probaremos U (n) que con la operación
del producto de las matrices forma un grupo. Antes de continuar, recordemos
que un grupo cumple con el axioma de la cerradura, el axioma de la asociati-
vidad, el axioma del neutro y el axioma del inverso.

Ahora, supongamos que U1 y U2 son matrices ortogonales, entonces cum-


plen

U1† U1 = I, U2† U2 = I,

de donde
(U1 U2 )† (U1 U2 ) = U2† U1† U1 U2
= U2† IU2 = I,

es decir
(U1 U2 )† (U1 U2 ) == I.

Esto implica que U1 U2 ∈ U (n) y por lo tanto se cumple el axioma la cerradura.

El producto de matrices es asociativo. En particular, el producto de las


matrices unitarias. Además, la identidad I satisface la ecuación (25.1), es de-
cir, I ∈ U (n). Así, se cumplen el axioma de la asociatividad y el del elemento
neutro.

Ahora, si U cumple la ecuación (25.1), entonces


U † = U −1 ,

por lo que
† †
U −1 U −1 = U † U −1
= U U −1 = I,

esto es
†
U −1 U −1 = I.

Es decir, si la matriz U es unitaria, entonces U −1 también es unitaria.

291
Así, las matrices U de n × n con entradas complejas que cumplen la ecua-
ción (25.1) forman un grupo. A este grupo se llama grupo unitario U (n).

Ahora, recordemos que para cualquier matriz A se cumple


det A = det AT .
Entonces, las matrices unitarias satisfacen
det U † U det U † (det U )
 
=
det U ∗T (det U )

=
= (det U ∗ ) (det U )
= (det U )∗ (det U )
= |detU |2
= det I = 1,
que implica
|detU |2 = 1,

de donde
det U = eiα ,

donde α es un parámero real.

Las matrices U que cumplen


det U = 1
forman un grupo, este es el grupo SU (n).

25.3. Parámetros libres


Observe que la matriz de n × n
 
u11 u12 · · · u1n
 u21 u22 · · · u2n 
U = .. .. . . ..
 
. . . .

 
un1 un2 · · · unn

292
se pueden formar con los vectores columna

     
u11 u12 u1n
 u21   u22   u2n 
V1 =  .
..  , V = ..  , · · · , Vn =  .
..  .
     
2
.
 
    
un1 un2 unn

Claramente, estos vectores representan los renglones de la matriz traspuesta,


U T . Por lo tanto, la condición (25.1) se puede escribir como

U † U =U T ∗ U
  
u∗11 u∗21 · · · u∗n1 u11 u12 · · · u1n
 u∗ u∗ · · · u∗   u21 u22 · · · u2n 
 12 22 n2  
= .
. .
. . . ..  . .. . . .. 
.   ..

. . . . . .


u∗1n u∗2n · · · u∗nn un1 un2 · · · unn
 
V1∗ · V1 V1∗ · V2 · · · V1∗ · Vn
 V ∗ · V1 V ∗ · V2 · · · V ∗ · V2 
 2
(25.2)
2 n
= .
.. . .
.. . . ..  = I,

 . 
Vn∗ · V1 Vn∗ · V2 · · · Vn∗ · Vn

otra forma de expresar esta igualdad es

Vi∗ · Vj = δij .

Note que la ecuación (25.2) tiene n ecuaciones reales en la diagonal. Además,


podemos ver que las ecuaciones arriba de la diagonal de (25.2) son las mismas
que están abajo de la diagonal. Así, fuera de la diagonal hay
n(n − 1)
2 = n(n − 1)
2
ecuaciones reales independientes. Por lo tanto, considerando que una matriz
de n × n con entradas complejas tiene 2n2 parámetros, los parámetros libres
de una matriz unitaria de n × n son
2n2 − n − n(n − 1) = n2 .

293
Así el grupo unitario U (n) tiene

n2

parámetros reales libres. La matrices que tienen determinante uno se llaman


SU (n), estas matrices cumplen una ecuación extra, por lo que el grupo SU (n)
tiene
n2 − 1

parámetros reales libres.

25.4. Matrices hermíticas y matrices unitarias


B es una matriz es hermítica (B = B † ) y α un número real, entonces la
matriz
U = eiαB

es unitaria. En efecto
†
U† = eiαB

= e−iαB
= e−iαB
= U −1

es decir
U † = U −1 .

25.5. U (1)
Sea los números complejos de la forma

U = eiα (25.3)

294
con α un número real. Observe que
∗
U † = eiα
= e−iα
= U −1 .
Por lo tanto, el conjunto de números complejos de la forma (25.3) forman la
matriz de 1 × 1 unitarias. A este grupo se le llama U (1) y es fundamental pa-
ra el estudio de la elecrodinámica. También podemos notar que este conjunto
representa un círculo en el plano complejo, como se muestra en la gura (25.1).

U (1) eiα

Figura 25.1: Círculo unitario

25.6. Matrices de U (2) y SU (2)


Las matrices unitarias de 2 × 2 tienen 4 parámetros libres, además recorde-
mos que si α0 , α1 , α2 , α3 son números reales, cualquier matriz A hermítica de
2 × 2 se puede escribir como
A = α0 σ0 + α1 σ1 + α2 σ2 + α3 σ3 ,
con σ0 la matriz identidad y
     
0 1 0 −i 1 0
σ1 = , σ2 = , σ3 =
1 0 i 0 0 −1

295
las matrices de Pauli.

Por lo tanto, las matrices unitarias de 2 × 2 tienen la forma

U = ei(α0 σ0 +α1 σ1 +α2 σ2 +α3 σ3 ) .

Ahora, considerando la identidad (20.1)


det M = eT r(ln M ) ,

se encuentra
det U = eT r(ln U )
eT r(ln(e ))
i(α0 σ0 +α1 σ1 +α2 σ2 +α3 σ3 )
=
= eiT r(α0 σ0 +α1 σ1 +α2 σ2 +α3 σ3 )
= ei(α0 T r(σ0 )+α1 T r(σ1 )+α2 T r(σ2 )+α3 T r(σ3 ))
= ei2α0 .

Por lo tanto, las matrices unitarias de 2 × 2 con determinante uno se pueden


escribir en términos de las matrices de Pauli de la forma

U = ei(α1 σ1 +α2 σ2 +α3 σ3 ) .

A estas matrices se les llama SU (2) y se usan para estudiar diferentes propie-
dades del electrón.

25.7. SU (3)
Las matrices unitarias de 3 × 3 tienen 9 parámetros libres. Además las
matrices hermíticas de 3 × 3 se pueden generan con la matriz identidad y las
matrices de Gell-Mann de la forma
8
X
A= αk λk
k=0

296
con
   
1 0 0 0 1 0
λ0 =I =  0 1 0  , λ1 =  1 0 0  ,
0 0 1 0 0 0
   
0 −i 0 1 0 0
λ2 = i 0 0 , λ3 =  0 −1 0  ,
0 0 0 0 0 0
   
0 0 1 0 0 −i
λ4 = 0 0 0 , λ5 =  0 0 0  ,
1 0 0 i 0 0
   
0 0 0 0 0 0
λ6 = 0 0 1 , λ7 =  0 0 −i  ,
0 1 0 0 i 0
 
1 0 0
1
λ8 =√  0 1 0 
3 0 0 −2

las matrices de Gell-Mann.

Por lo tanto las matrices unitarias de 3 × 3 se pueden escribir de la forma


P8
U = ei k=0 α k λk
.

Ahora, considerando que el determinante se puede expresar como (20.1)


det M = eT r(ln M ) ,
se encuentra
det U = eT r(ln
 
U)

P8
T r ln ei k=0 αk λk
= e
P8
= eT r(i k=0 αk λk )
P8
= ei k=0 αk T r(λk )
= ei3α0 .
Por lo tanto, las matrices unitarias de 3 × 3 con determinante uno se pueden
escribir en términos de las matrices de Gell-Mann de la forma
P8
U = ei k=1 α k λk
.

297
A estas matrices se les llama SU (3) y se usan para estudiar diferentes propie-
dades de la cromodinámica cuántica.

25.8. Matrices antihermíticas y matrices unita-


rias
Si B es una matriz es hermítica (B = −B † ) y α un número real, entonces
la matriz
U = e−αB
es unitaria. En efecto,
†
U† = e−αB

= e−αB
= eαB
= U −1

es decir,
U † = U −1 .

25.9. Matrices unitarias y mecánica cuántica


La mecánica cuántica se basa en el estudio de los estados de partículas, un
estado se puede como un vector que describe las propiedades de las partículas.
Por ejemplo, si un sistema tiene los estados
  
a1 b1
 a2   b2 
ψ1 =  ..  , ψ2 =  .. 
   
 .   . 
an bn

La probabilidad de que la partícula pase del estado ψ1 al estado ψ2 es


⟨ψ1 |ψ2 ⟩ = ψ1T ∗ ψ2 . (25.4)
Esta igualdad es invariante ante transformaciones unitarias. En efecto, si
ψ1′ = U ψ1 , ψ2′ = U ψ2 ,

298
entonces
⟨ψ1′ |ψ2′ ⟩ = (U ψ1 )∗T U ψ2
= ψ1∗T U ∗T U ψ2 .

Por lo tanto, la igualdad


⟨ψ1′ |ψ2′ ⟩ = ⟨ψ1 |ψ2 ⟩

implica
U ∗T U = 1,
es decir, las matrices unitarias dejan invariante la cantidad (25.4).

25.10. Ejercicios
1.- Determinar si la siguiente matriz es unitaria
 
√i − √i3 √1
6 2
M =
 − √i6 √i
3
√1
2 .

√2 √1 0
6 3

2.- Determinar si la siguiente matriz es unitaria


 
√i √i √1
6 3 2
M =
 − √i6 √i
3
√1
2 .

√2 √1 0
6 3

299
Capítulo 26
Integrales Gaussianas
Como una aplicación de la matrices simétricas estudiaremos algunas inte-
grales Gaussianas. Estas integrales son importantes en diferentes áreas como
la mecánica cuántica, probabillidad, nanzas, machine learning, etc.

26.1. Integrales Gaussianas


Para iniciar, recordemos que en una dimesión se tiene el resultado


Z r
π
I1 = e−αx2
dx = , α > 0. (26.1)
−∞ α

Para estudiar el caso de dos dimensiones primero veamos un ejemplo. Consi-


deremos la integral
Z
e−(3x ) dxdy, (26.2)
2 −2xy+3y 2
I2 =
R2

observe que deniendo el vector


 
x
X =
y

y la matriz
 
3 −1
M =
−1 3

300
la integral (26.2) se puede escribir como
Z
(26.3)
T MX
I2 = e−X dxdy.
R2
Ahora, los valores propios de M son
λ1 = 2, λ2 = 4
mientras que los vectores propios normalizados son
   
1 1 1 1
v1 = √ , v2 = √ ,
2 1 2 −1
los cuales son ortogonales. Además la matriz de cambio de base es
 
1 1 −1
U = √ ,
2 1 1
la cual es ortogonal, pues cumple
 
1 1 1
U T
= √ = U −1 .
2 −1 1
Además se satisface la igualdad
M = U DU T
con
 
2 0
D = . (26.4)
0 4
Entonces, deniendo
x′
 

X = = UT X
y′
y considerando que
det U = 1,
la integral (26.3) toma la forma
Z
T MX
I2 = e−X dxdy
2
ZR
T U DU T X
= e−X dxdy
2
ZR
TX TD
= e−(U ) (U T X ) dxdy
2
ZR
′T DX ′
= e−X dx′ dy ′ .
R2

301
Por lo tanto, considerando la matriz D (26.4) y la integral Gaussiana (26.1) se
llega a
Z
′2 +4y ′2 )
I2 = e−(2x dx′ dy ′
Z R2 Z
−2x′2 ′ ′2
= e dx e−4y dy ′
R R
r r r
π π π2
= = ,
2 4 8
es decir
r
π2
Z
−(x2 −2xy+3y 2 )
e dxdy = .
R2 8

26.1.1. Caso general 2d


Ahora consideremos el caso general
Z
e−(ax ) dxdy, (26.5)
2 +bxy+cy 2
I2d =
R2

donde a, b, c son números reales. Note que deniendo

 
x
X= ,
y
b
 
a
M= b
2 (26.6)
2
c

la integral (26.5) se puede escribir como


Z
(26.7)
T MX
I2d = e−X dxdy.
R2

Supongamos que M es una matriz diagonalizable y que sus valores propios son
λ1 , λ2 ,

también supongamos que los vectores propios normalizados de M son


v1 , v2 .

302
Como la matriz (26.6) es simétrica, los vectores propios son ortonormales y la
matriz de cambio de base
U

es ortogonal y satisface
M = U DU T

con
 
λ1 0
D = . (26.8)
0 λ2

Por lo que, deniendo


x′
 

X = = UT X
y′

y considerando que
det U = 1,

la integral (26.5) se puede escribir como


Z
T MX
I2d = dxdye−X
2
ZR
T U DU T X
= e−X dxdy
2
ZR
TX TD
= e−(U ) (U T X ) dxdy
2
ZR
′T DX ′
= e−X dx′ dy ′ .
R2

Por lo tanto, considerando la matriz D (26.8) se llega a


Z
′2 +λ y ′2 )
I2d = e−(λ1 x 2
dx′ dy ′
R2
Z Z
−λ1 x′2 ′ ′2
= e dx e−λ2 y dy ′ .
R R

Si alguno de los valores propios de matriz (26.6) es negativo, esta integral diver-
ge. Pero si los dos valores propios son positivos, usando la integral Gaussiana
(26.1), se encuentra

303
Z
′2 +λ ′2 )
I2d = e−(λ1 x 2y
dx′ dy ′
R2
r r s
π π π2
= = .
λ1 λ2 λ1 λ2
Ahora como
det M = λ1 λ2 ,
tenemos que
Z
′2 +λ ′2 )
I2d = e−(λ1 x 2y
dx′ dy ′
R2
r
π2
= .
det M
Por lo tanto, si los valores propios de la matriz (26.6) son positivos, entonces
s
π2
Z
e−( ax2 +bxy+cy 2 ) dxdy =
b2
,
R2 ac − 4

es decir
r
π2
Z Z
−(ax2 +bxy+cy 2 ) −X T M X
I2d = e dxdy = e dxdy = ,
2 R2 det M
R
a 2b
  
x
X= , M= b .
y 2
c

Usando el mismo procedimiento, se puede probar que si M es una matriz


simétrica de n × n con entradas reales y valores propios positivos, se cumple
r
πn
Z
e −X T M X
Πni=1 dxi = . (26.9)
Rn det M

26.2. Integrales Gaussianas 2


Otra integral importante es
Z ∞
2 +jx
I= e−αx dx, α > 0.
−∞

304
Para obtener esta integral observemos que
 
2 2 jx
−αx + jx = −α x −
α
j2 j2
 
2 jx
= −α x − + 2− 2
α 4α 4α
2
j2

j
= −α x − + ,
2α 4α
es decir
2
j2

2 j
−αx + jx = −α x − + .
2α 4α
Usando este resultado obtenemos
Z ∞ Z ∞ 2 2
j j
I= e −αx2 +Jx
dx = e−α(x− 2α ) + 4α
dx,
−∞ −∞

por lo que considerando el cambio de variable


j
x′ = x −

y la integral Gaussiana (26.1), llegamos a
Z ∞ Z ∞
j2 ′2
−αx2 +jx
I = e dx = e 4α e−αx dx′
r−∞ −∞
π j2
= e 4α ,
α
en otras palabras

Z r
−αx2 +jx π j2
e dx = e 4α .
−∞ α

Ahora veamos el caso de n dimensiones


Z
T M X+J·X
e−X Πni=1 dxi ,
Rn

donde J es un vector constante de n dimensiones.

305
Primero notemos que debido a que M es una matriz simétrica se cumple
M T = M,
M −1 = (M T )−1 = (M −1 )T ,
por lo que
T
M −1 J M −1 J
  
X− M X− =
2 2
1 T  1
= XT M X − J (M −1 )T M X + X T M M −1 J + J T (M −1 )T M M −1 X
2 4
1 1
= XT M X − J T X + X T J + J T M −1 J.

2 4
Además como
J · X = J T X = XJ T ,
se llega a
T
M −1 J M −1 J
  
1
X− M X− = X T M X − J · X + J T M −1 J,
2 2 4
de donde
T
M −1 J M −1 J
  
1
T
X MX − J · X = X− M X− − J T M −1 J.
2 2 4
Por lo que
Z Z  −1
T  −1

−X T M X+J·X − X− M 2 J M X− M 2 J + 14 J T M −1 J
e Πni=1 dxi = e Πni=1 dxi .
Rn Rn
Z  −1
T  −1

1 T
J M −1 J − X− M 2 J M X− M 2 J
= e 4 e Πni=1 dxi ,
Rn

entonces con el cambio de variable


M −1 J
X′ = X −
2
se encuentra
Z Z
1 T
−X T M X+J·X J M −1 J ′T M X ′
e Πni=1 dxi =e 4 e−X Πni=1 dxi
Rn Rn

y usando la integral (26.9) se obtiene


r
π n 1 J T M −1 J
Z
−X T M X+J·X
e Πni=1 dxi = e4 .
Rn det M

306
26.3. Ejercicios
1.- Obtener la integral
Z
2 −2xy−2y 2 +3x+8y
e−3x dxdy.
R2

2.- Obtener la integral


Z
2 +2xy−4xz−2yz−5y 2 −2z 2 +5x+3y−z
e−3x dxdydz.
R3

307
Capítulo 27
Transformada discreta de Fourier
y la matriz de Fourier
Como una aplicación de las matrices unitarias, en este capítulo estudiare-
mos la Transformada discreta de Fourier, en la cual aparece de manera natural
una matriz unitaria.

La Transformada discreta de Fourier es muy útil para diversas aplicaciones,


en particular para analizar señales eléctricas.

27.1. Denición
Supongamos que en el espacio vectorial CN , tenemos el vector
 
x0

 x1


x=
 x2
,

(27.1)
 .. 
 . 
xN −1

se dene la transformada Discreta de Fourier del vector x como

N −1
1 X
(27.2)
2πi
Xk = √ xn e− N kn , k = 0, 1, · · · , N − 1.
N n=0

308
Note que para cada valor de k tenemos un valor de Xk . Por ejemplo, si k = 0
se tiene
N −1
1 X x0 + x1 + · · · + xN −1
X0 = √ xn = √ ,
N n=0 N

mientras que para k = 1 se llega a


N −1
1 X 2πi
X1 = √ xn e− N n
N n=0
1  − 2πi − 4πi −
2πi(N −1)

= √ x 0 + x1 e N + x2 e N + · · · + xN −1 e N ,
N
para k = 2 se obtiene
N −1
1 X 4πi
X2 = √ xn e− N n
N n=0
1  − 4πi − 8πi −
4πi(N −1)

= √ x 0 + x1 e N + x2 e N + · · · + xN −1 e N ,
N
además para k = N − 1 se encuentra
N −1
1 X 2(N −1)πi
XN −1 = √ xn e− N n
N n=0
 
1 −
2(N −1)πi

4(N −1)πi

2πi(N −1)2
= √ x0 + x1 e N + x2 e N + · · · + xN −1 e N .
N
Por lo tanto, mediante la transformada discreta de Fourier pasamos del vector
x denido en (27.1) al vector
 
X0
 X2 
X =  ..  .
 
(27.3)
 . 
XN −1

Así, la transformada discreta de Fourier dene una transformación entre vec-


tores del mismo espacio.

309
27.2. Matriz de Fourier
Se puede observar que deniendo

(27.4)
2πi
ω = e− N ,

la transformada discreta de Fourier (27.2) se puede escribir como

N −1
1 X
Xk = √ xn ω kn , (27.5)
N n=0

en particular se encuentra

1
X0 = √ (x0 + x1 + · · · + xN −1 ) ,
N
1
x0 + x1 ω + x2 ω 2 + · · · + xN −1 ω N −1 ,

X1 = √
N
1
x0 + x1 ω 2 + x2 ω 4 + · · · + xN −1 ω 2(N −1) ,

X2 = √
N
..
.
1  2

XN −1 = √ x0 + x1 ω (N −1) + x2 ω 2(N −1) + · · · + xN −1 ω (N −1) .
N

Por lo que, deniendo la matriz de Fourier

 
1 1 1 ··· 1
1 ω ω2 ··· ω N −1 
1  
ω 2(N −1) (27.6)
2
W = √ 1 ω
 ω4 ··· 
N .. .
.. .. ... ..

. . .
 

N −1 2(N −1)
1 ω ω ··· ω (N −1)(N −1)

310
tenemos
 
  1 1 1 ··· 1  
X0 x 0
 X2 
1 ω ω2 ··· ω N −1    x1 
1 
1 ω 2 ω4 ··· ω 2(N −1) 
 ..  = √    ..  .
   
 .  N .
 ..
.. .. ... ..  . 
. . . 
XN −1 N −1 2(N −1) (N −1)(N −1) xN −1
1 ω ω ··· ω

Así, con la matriz de Fourier (27.6) la transformada discreta de Fourier (38.1)


se puede escribir como
X = Wx.

Por ejemplo, para el caso N = 2 tenemos


 
1 1 1
W2 = H = √ ,
2 1 −1

a la matriz H se le llama matriz de Hadamard y es utilizada como una com-


puerta lógica en diferentes algoritmos de la computación cuántica [15].

Cuando N = 3 se obtiene
1 1√ 1√
 
1  −1+i 3 −1−i 3 
W3 = √ 1 2√ 2√
3 −1−i 3 −1+i 3
1 2 2
y si N = 4 se llega a
 
1 1 1 1
1 1 i −1 −i 
W4 =  .
2 1 −1 1 −1
1 −i −1 i

27.3. La inversa de la matriz de Fourier


Se puede observar que las componentes de la matriz de Fourier W (27.6)
se pueden escribir como
1
Wij = √ ω ij , i, j = 0, 1, 2, 3, · · · , N − 1.
N

311
Note que en esta matriz los índices empiezan en cero y teminan en N, por lo
que tenemos una matriz de N × N.

Ahora, considerando la denición de ω dada en (27.4), las componentes de


la matriz adjunta de la matriz de Fourier son
1 ∗ 1
(W† )ij = √ ω ji = √ ω −ji ,
N N
es decir
1
(W† )ij = √ ω −ji .
N
De donde
(WW† )ij = Wik W†kj
1 1
= √ ω ik √ ω −jk
N N
1 ik−jk
= ω
N
1 k(i−j)
= ω ,
N
esto es
1 k(i−j)
(WW† )ij = ω .
N
Recordemos que, de acuerdo a la convención de la suma de Einstein, en esta
expresión tenemos una suma sobre k. Así, por razones de claridad, escribiremos
N −1
1 X k(i−j)
(WW† )ij = ω . (27.7)
N k=0

Para el caso en que


i=j
tenemos
N −1
† 1 X k0
(WW )ii = ω
N k=0
N −1
1 X
= 1
N k=0
N
= = 1,
N
312
entonces
(WW† )ii = 1.

Mientras que en el caso


i ̸= j
podemos denir
z = ω i−j (27.8)
y la suma (27.7) se puede escribir como
N −1
† 1 X k
(WW )ij = z .
N k=0

Antes de continuar recordemos la suma geométrica


q N +1 − 1
1 + q + q2 + · · · + qN = , q ̸= 1,
q−1
que implica la expresión
N −1
† 1 X k 1 zN − 1
(WW )ij = z = ,
N k=0 N z−1

es decir
1 zN − 1
(WW† )ij = .
N z−1
Ahora, considerando la denición de z dada en (27.8) y la denición ω dada
en (27.4) se encuentra
N
zN = ω i−j
 2π (i−j)N
= eN
2π(i−j)N
= e N
= e2π(i−j) = 1,

es decir,
z N = 1.

313
Por lo tanto, si i ̸= j, se encuentra
(WW† )ij = 0.
Estos resultados nos indican que se cumple la igualdad
(WW† )ii = δij ,
en otras palabras
WW† = I.
Por lo tanto, se cumple la igualdad

W† = W−1

y la matriz de Fourier W es una matriz unitaria.

En particular se encuentra
 
1 1 1
W−1
2 = W†2 =√ ,
21 −1
1 1√ 1√
 
1
W−1
3 = W†3 = √ 1 −1−i 2√
3 −1+i 3 
2√
,
3 −1+i 3 −1−i 3
1 2 2
 
1 1 1 1
1 1 −i −1 i 
W−1
4 = W†4 =  .
2 1 −1 1 −1
1 i −1 −i
Además, con matriz
 
1 1 1 ··· 1
−1
1 ω ω −2 ··· ω −(N −1) 
1  
(27.9)
−2
W† = √ 1
 ω ω −4 ··· ω −2(N −1) 
.
 ..
.. .. ... ..

N
. . .


−(N −1) −2(N −1)
1 ω ω ··· ω −(N −1)(N −1)
se encuentra la transformada discreta Inversa de Fourier, la cual está dada por

N −1
1 X 2πi
xn = √ Xk e N kn .
N k=0

314
27.4. Denición alterna
La transformada discreta de Fourier tiene aplicaciones en diferentes áreas
y en algunos casos se toman la siguiente denición

N −1
(27.10)
2πi
X
Xk = xn e− N kn
, k = 0, 1, · · · , N − 1.
n=0

cuya inversa es
N −1
1 X 2πi
xn = Xk e N kn .
N k=0

La denición (27.10) es la más usada en diferentes ingenierías y por esa ra-


zón es la que se calcula en varios algortimos computacionales. Así, si se emplea
algún programa computacional es importante saber que denición se usa.

Para grandes cantidades de datos los algoritmos deben realizar una canti-
dad enorme de operaciones, lo que los vuelve lentos. En estos casos es mejor
emplear otros algortimos, como la llamada Transformada Rápida de Fourier
(FFT, por su siglas inglés), que es un algoritmo más rápido para obtener la
Transformada discreta de Fourier.

27.5. Operaciones con Python


Para obtener la Transformada Rápida de Fourier del vector
(1, 3, 4, 7, 3, 5, −1)

se usa el código de Python


1 from scipy . fft import fft
2 import numpy as np
3 x = np . array ([1.0 , 3.0 , 4.0 , 7.0 , 3.0 , 5.0 , -1.0])
4 y = fft ( x )
5 y
que da como resultado

315
array([22.-0.j,-8.76539748-3.88793297j,
-1.31886366-1.20626946j,2.58426114-6.41707809j,
2.58426114+6.41707809j,-1.31886366+1.20626946j,
-8.76539748+3.88793297j])
en este caso se emplea la dención (27.10).

Para obtener obtener la transformada discreta de Fourier


√ de la denición
(27.2) debemos multiplicar el resultado obtenido por 1/ 7.

316
Capítulo 28
Polinomio característico
Para obtener los valores propios de una matriz se deben obtener las raí-
ces de un polinomio. En este capítulo veremos algunas propiedades de dicho
polinomio.

28.1. Denición y propiedades


Para obtener los valores propios debemos resolver la ecuación

det (A − λI) = 0.

En particular, en el caso de una matriz de 2 × 2


 
A11 A12
A= ,
A21 A22
tenemos
det (A − λI) = λ2 − λ (A11 + A22 ) + (A11 A22 − A12 A21 ) ,

es decir
det (A − λI) = λ2 − λT r(A) + det A.

Para el caso de una matriz de 3 × 3


 
A11 A12 A13
A =  A21 A22 A23  ,
A31 A32 A33

317
se encuentra
det (A − λI) = (−)λ3 + λ2 (A11 + A22 + A33 )

−λ A22 A33 + A33 A11 + A22 A11

−A13 A31 A23 A32 − A12 A21

+A11 (A22 A33 − A23 A32 )


−A12 (A21 A32 − A23 A31 )
+A13 (A21 A32 − A22 A31 )
es decir
det (A − λI) = (−)λ3 + λ2 T r(A)
−λ (A22 A33 + A33 A11 + A22 A11 − A13 A31 A23 A32 − A12 A21 )
+ det A.
En general, para una matriz de n × n tenemos

det (A − λI) = (−)n λn + (−)n−1 λn−1 T r(A) + · · · + det A.

Para probar este resultado observemos que


(A − λI)ij = Aij − δij λ,
por lo que, usando la denición del determinante de una matriz (4.12), obte-
nemos
det (A − λI) = ϵi1 i2 ···in (A1i1 − δ1i1 λ) (A2i2 − δ2i2 λ) · · · (Anin − δnin λ) .
Desarrollando este producto en potencias de λ encontramos
det (A − λI) = (−)n λn ϵi1 i2 ···in δ1i1 δ2i2 · · · δnin + (−)n−1 λn−1 ϵi1 i2 ···in

δ2i2 δ3i3 · · · δnin A1i1 + δ1i1 δ3i3 · · · δnin A2i2 + · · · + δ1i1 δ2i2 · · · δ(n−1)in−1 Anin
+ · · · + ϵi1 i2 ···in A1i1 A2i2 · · · Anin
= (−)n λn ϵ12···n
 
n−1 n−1
+(−) λ ϵi1 23···n A1i1 + ϵ1i2 3···n A2i2 + · · · + ϵ12···(n−1)in Anin
+ · · · + det A
= (−)n λn + (−)n−1 λn−1 (A11 + A22 + · · · Ann ) + · · · + det A
= (−)n λn + (−)n−1 λn−1 T r(A) + · · · + det A,

318
es decir,
det (A − λI) = (−)n λn + (−)n−1 λn−1 T r(A) + · · · + det A.

que es lo queríamos demostrar


Así, tenemos el polinomio

P (λ) = det (A − λI) = a0 + a1 λ + · · · + an λn−1 + an λn , (28.1)

con
a0 = det A, · · · , an−1 = (−)n−1 T r(A), an = (−)n . (28.2)

Un resultado interesate sobre el polinomio característico de una matriz


es que dos matrices similares tienen el mismo polinomio característico, para
probar esta armación supongamos que
A′ = U AU −1

entonces
P ′ (λ) = det (A′ − λI)
det U AU −1 − λI

=
det U AU −1 − λU IU −1

=
det U (A − λI) U −1

=
= det U det (A − λI) det U −1
det U
= det (A − λI)
det U
= det (A − λI)
= P (λ),

esto es,
P ′ (λ) = P (λ),

que es lo que queríamos demostrar.

319
28.2. Teorema de Cayley-Hamilton
Otro resultado interesante es que la matriz A es raíz de su polinomio cara-
terístico, es decir, se satisface

P (A) = a0 + a1 A + · · · + an−1 An−1 + an An = 0,

con los coecientes dados por (28.2).

Para probar este resultado recordemos que dada una matriz B de n × n su


matriz adjunta de está dada por (5.2)
1
(adjB)ij = ϵii i ···i ϵjj j ···j Bi j Bi j · · · Bin jn ,
(n − 1)! 2 3 n 2 3 n 2 2 3 3
también recordemos que esta matriz satisface
B(adjB) = (det B)I. (28.3)
En particular, para la matriz A − λI tenemos
(adj(A − λI))ij
1
= ϵii i ···i ϵjj j ···j (A − λI)i2 j2 (A − λI)i3 j3 · · · (A − λI)in jn ,
(n − 1)! 2 3 n 2 3 n
se puede notar que la potencia máxima potencia de λ de esta expresión es
n − 1, por lo que

adj(A − λI) = C0 + λC1 + λ2 C2 + · · · + λn−1 Cn−1 , (28.4)


con
C0 , C1 , · · · Cn−1

un conjunto de matrices.

Ahora, de la igualdad (28.3) se obtiene


(A − λI)(adj(A − λI)) = det(A − λI).

Usando las igualdades (28.4) y (28.1) en esta última ecuación, tenemos


(A − λI) C0 + λC1 + · · · + λn−1 Cn−1 = (a0 + a1 λ + · · · + an λn ) I,


320
por lo que
AC0 + λ (AC1 − C0 ) + λ2 (AC2 − C1 ) + · · · + λn−1 (ACn−1 − Cn−2 )
−λn Cn−1 = (a0 + a1 λ + · · · + an λn )I.

De donde, igualando potencias de λ encontramos


a0 I = AC0 ,
a1 I = AC1 − C0 ,
a2 I = AC2 − C1 ,
..
.
an−1 I = ACn−1 − Cn−2 ,
an I = −Cn−1 ,

de donde
a0 I = AC0 ,
a1 A = A2 C1 − AC0 ,
a2 A2 = A3 C2 − A2 C1 ,
..
.
an−1 An−1 = An Cn−1 − An−1 Cn−2 ,
an An = −An Cn−1 .

Así,
P (A) =a0 + a1 A + · · · + an−1 An−1 + an An
=AC0 + A2 C1 − AC0 + A3 C2 − A2 C1 + · · · +
+ An Cn−1 − An−1 Cn−2 − An Cn−1 = 0,

que es lo que se quería demostrar.

Independientemente de la belleza del teorema de Caley-Hamilton, es muy


últil para algunos métodos numéricos. Por ejemplo, el método Krylov para
resolver sistemas lineales se basa en este teorema.

El teorema de Caley-Hamilton fue demostrado por Caley para el caso de


tres dimensiones y Hamilton realizó una demostración para tres dimensiones
con vectores y para cuatro dimensiones con cuaterniones. La demostración

321
general fue dada por Georg Frobenius en 1878. Debido al respeto que le ins-
piraban Caley y Hamilton, Frobenius decidió dar los nombres de estos dos
matemáticos al teorema.

William R. Hamilton (1805-1865) fue un físico-matemático irlandés que tra-


bajó en mecánica clásica, astronomía, geometría, óptica, teoría de grácas y
álgebra. En particular, ayudó a reformular la mecánica de Newton en lo que
hoy se conoce como mecánica hamiltoniana. En temas geométricos fundó las
bases de lo que hoy se llama geometría simpléctica y en temas algebraicos se
le atribuyen los fundamentos de los llamados cuaterniones. Su padre fue un
abogado y activista político que apoyó la independencia de Irlanda de Inglate-
rra. Por problemas económicos de su padre, siendo muy pequeño fue separado
de su familia y a los 12 años quedó huerfano de padre y madre. Después de
la muerte de sus padres, quedó bajo el cuidado de uno de sus tíos. Siendo un
adolescente, se refugió en las obras clásicas de Newton, Lagrange y Laplace,
notablemente encontró algunos errores en la obra de Laplace. Realizó sus es-
tudios en el Trinity College de Dublín. Apesar de ser un gran matemático, era
timido y sufría de depresiones, incluso estuvo apunto de cometer suicidio. Al
nal de su vida, la salud de Hamilton se deterioró debido a su alcoholismo y
a sus malos hábitos alimenticios. Después de Newton, es considerado el más
grande genio que han dado las islas Británicas.

28.3. Ejercicios
1.- Para la matriz
 
5 2
A=
−8 −3

obtener su polinomio característico


P (λ)

y mostrar que se cumple


P (A) = 0.

322
2.- Para la matriz
 
4 0 1
A = 2 3 2
1 0 4

obtener su polinomio característico


P (λ)

y mostrar que se cumple


P (A) = 0.

323
Capítulo 29
Espacios invariantes y bloques de
Jordan
Ahora estudiaremos matrices que tienen valores propios repetidos. Para
lograr este objetivo, deniremos el concepto de espacio invariante.

29.1. Espacio invariantes


Sean V un espacio vectorial de dimensión n sobre el campo K y
T :V →V

una transformación lineal. Si U es un subespacio vectorial de V tal que

T (U ) ⊂ U,

se dice que U es un espacio invariante bajo T.

Por ejemplo, debido a que T es una transformación lineal se cumple T (0) =


0, entonces el conjunto

U = {0}

es un espacio invariante.

También podemos observar


Ker(T ) ⊂ V y T (Ker(T )) = {0} ⊂ Ker(T ).

324
Por lo tanto, el conjunto Ker(T ) es un subespacio invariante bajo T.

Otro ejemplo trivial de espacio invariante está dado por V.

Ahora, supongamos que v ∈ V, v ̸= 0 y es vector propio de T con valor


propio λ ∈ K, es decir
T (v) = λv.

Entonces, el espacio vectorial

⟨v⟩ = {w ∈ V |∃α ∈ K, w = αv},

es un espacio invariante. En efecto, sea w1 ∈ T (⟨v⟩) entonces existe w2 ∈ ⟨v⟩


tal que T (w2 ) = w1 . Como w2 ∈ ⟨v⟩ , entonces existe α ∈ K tal que w2 = αv.
Por lo tanto,
w1 = T (w2 )
= T (αv)
= αT (v)
= αλv ∈ ⟨v⟩ ,

es decir,
w1 ∈ ⟨v⟩ ,
que implica
T (⟨v⟩) ⊂ ⟨v⟩ .
Así, el espacio generado por un vector propio de T es un espacio invariante.

Además, se puede mostrar que si los elementos del conjunto de vectores

{v1 , v2 , · · · , vm }, m ≤ n, (29.1)

son vectores propios de T, entonces el conjunto generado por estos vectores


denido por

⟨v1 , v2 , · · · , vm ⟩ = {w ∈ V |∃αi ∈ K, w = αi vi }

325
es un espacio vectorial invariante bajo T. En efecto, recordemos que si los vecto-
res (29.1) son vectores propios de T, entonces existen λi ∈ K(i = 1, 2, · · · , m),
tal que
T (v1 ) = λ1 v1 ,
T (v2 ) = λ2 v2 ,
..
.
T (vm ) = λm vm , (29.2)
ahora supongamos que
w1 ∈ T (⟨v1 , v2 , · · · , vm ⟩) ,

entonces existe w2 ∈ ⟨v1 , v2 , · · · , vm ⟩ tal que


T (w2 ) = w1 .

Además, debido a que w2 es parte del espacio vectorial generado por el conjunto
(29.1), entonces existen m escalares αi ∈ K tal que
w2 = αi vi ,

de donde
w1 = T (w2 )
= T (αi vi )
= αi T (vi )
= αi λi vi ∈ ⟨v1 , v2 , · · · , vm ⟩ ,

es decir,
w1 ∈ ⟨v1 , v2 , · · · , vm ⟩ ,
que implica
T (⟨v1 , v2 , · · · , vm ⟩) ⊂ ⟨v1 , v2 , · · · , vm ⟩ .
Esto quiere decir que el espacio generado por los vector propios de T es un
espacio invariante.

Ahora, supongamos que U1 y U2 son dos subespacios vectoriales de V y


cumplen
U1 ∪ U2 = V, U1 ∩ U2 = ∅,

326
también supongamos que estos subespacios son invariantes bajo T. Entonces
si
{u1 , u2 , · · · , um }, m < n,
es base de U1 y
{w1 , w2 , · · · , wk }, m + k = n,
es base de U2 , el conjunto
{u1 , u2 , · · · , um , w1 , w2 , · · · , wk },
es base de V. En este caso se tiene

T (u1 ) =α11 u1 + α12 u2 + · · · + α1m um + 0w1 + 0w2 + · · · + 0wk ,


T (u2 ) =α21 u1 + α22 u2 + · · · + α2m um + 0w1 + 0w2 + · · · + 0wk ,
..
.
T (um ) =αm1 u1 + αm2 u2 + · · · + αmm um + 0w1 + 0w2 + · · · + 0wk ,
T (w1 ) =0u1 + 0u2 + · · · + 0um + β11 w1 + β12 w2 + · · · + β1k wk ,
T (w2 ) =0u1 + 0u2 + · · · + 0um + β21 w1 + β22 w2 + · · · + β2k wk ,
..
.
T (wk ) =0u1 + 0u2 + · · · + 0um + β21 w1 + βk2 w2 + · · · + βkk wk ,

que se puede escribir como

α11 · · · 0 ···

T (u1 )
 
α1m 0

u1

 T (u2 )   α21 · · · α2m 0 ··· 0   u2 
 ..   .. .. .. ..   .. 

 . 
  . . . . 

. 
 T (um )   αm1 · · · αmm 0 ··· 0  um 
    
= .
 T (w1 )   0 ··· 0 β11 · · · β1k   w1 
 
 T (w2 )   0 ··· 0 β21 · · · β2k   w2 
    
.
..   .. .. .. ..  .. 
. ··· . . .  .
   

T (wk ) 0 ··· 0 βk1 · · · βkk wk

Por lo tanto, usando base de estos espacios invariantes U1 y U2 la matriz


asociada a la transformación lineal T se simplica y toma la forma
 
X1 0
M=
0 X2

327
con
T
X1ij = αij , X2ij = βijT .

En general, si los subespacios vectoriales de V

U1 , U2 , · · · Ur , r≤n

son invariantes bajo T y satisfacen

V = U1 ∪ U2 ∪ · · · ∪ Ur , Ui ∩ Uj = ∅, i ̸= j i, j = 1, 2, · · · r,

entonces, usando las bases de estos subespacios invariantes, la matriz asociada


a la transformación lineal T tiene la forma
 
X1 0 ··· 0
 0 X2 · · · 0 
M =  .. .. . . .. ,
 
 . . . . 
0 0 · · · Xr

donde Xi (i = 1, 2, · · · , r) es la matriz asociada a la transformación T res-


tringida al espacio invariante Ui . Se puede observar que Xi es una matriz de
di × di , donde di es la dimensión del subespacio Ui .

Así la forma de la matriz asociada a la transformación lineal T se simplica


usando las bases de los subespacios invariantes de V bajo T.

Nótese que el máximo número de espacios invariantes diferentes que pue-


de tener V es n. Cuando V tiene n vectores invariantes, cada matriz Xi tiene
dimensión uno y es un elemento de K. También note que cuando la matriz aso-
ciada a la transformación T es diagonalizable, cada vector propio está asociado
a un espacio invariante de dimensión uno y la matriz asociada a la transfor-
mación T se reduce a una matriz diagonal de la forma
 
λ1 0 · · · 0
 0 λ2 · · · 0 
M =  .. .
.. . . ...
. .
 
 . 
0 0 · · · λn

328
Así, si V tiene dimensión n y tiene n subespacios vectoriales invariantes bajo
T, la matriz asociada a la trasformación T es diagonalizable.

29.2. Valores propios repetidos


Sabemos que el polinomio característico de la matriz asociada a la trans-
formación T es de la forma
P (λ) = (λ − λ1 ) (λ − λ2 ) · · · (λ − λn ) .

Si todos los valores propios son diferentes, la matriz es diagonalizable y los


subespacios invariantes bajo T están dados por los espacios generado por cada
vector propio.

Supongamos que el valor propio λ1 se repite k veces y los demás no se


repiten, entonces tenemos los valores propios

λ1 , λ2 , · · · λn−k

y los vectores propios


v1 , v2 , · · · vn−k .

Además, en este caso el polinomio característico de la matriz asociada a la


transformación T es de la forma

P (λ) = (λ − λ1 )k (λ − λ2 ) · · · (λ − λn−k ) .

Observe que si restringimos la transformación T al espacio generado por


los vectores propios
v2 , · · · , vn−k (29.3)
el polinomio característico de la matriz asociada a la transformación T restrin-
gida a este subespacio es

Prestringido (λ) = (λ − λ2 ) · · · (λ − λn−k ) ,

329
mientras que la matriz asociada asociada a la transformación T restringida a
este subespacio es
 
λ2 0 · · · 0
 0 λ3 · · · 0 
Mrestringido =  .. . .
.. . . .. .
 
 . . 
0 0 · · · λn−r

En este caso cada, uno de los vectores (29.3) nos dan un subespacio invariante
bajo T.

Por lo tanto, es posible que el valor propio λ1 esté asociado a un espacio


invariante de dimensión r. Si existen r vectores propios de T linealmente in-
dependientes y asociados al valor propio λ1 , esos vectores propios formarían el
subespacio vectorial invariante de dimensión r.

También es posible que existan l < r vectores propios de T asociados al


valor propio λ1 o que v1 sea el único vector propio de T asociado al valor propio
λ1 . En todo caso debemos buscar los r − 1 vectores linealmente independientes
restantes que junto con v1 formen el subespacio invariante de dimensión r.

Ahora, tomemos la redenición

w0 = v1 , λ = λ1

que implica
T (w0 ) = λw0 .

Supongamos que existe un vector w1 tal que

(T − λI) (w1 ) = w0 , (29.4)

donde I es la función identidad. Note que otra forma de escribir la ecuación


(29.4) es
T (w1 ) = λw1 + w0 . (29.5)

330
Si existe w1 que satisface la ecuación (29.4) entonces los vectores

{w1 , w0 } (29.6)

son linealmente independientes. Para probar esta armación supongamos que


existen α0 , α1 ∈ K tal que
α1 w1 + α0 w0 = 0. (29.7)
Aplicando la función T − λI a esta última ecuación, se obtiene
α1 (T − λI)(w1 ) + α0 (T − λI)(w0 ) = 0,

es decir,
α1 w0 = 0.
Por lo tanto,
α1 = 0,
sustituyendo este resultado en la ecuación (29.7) se llegaba a
α0 w0 = 0,

que implica
α0 = 0,
así
α1 = α0 = 0.
Por lo tanto, el conjunto de vectores (29.6) es linealmente independiente.

Además, el espacio vectorial generado por conjunto de vectores (29.6) es


invariante bajo T. En efecto, supongamos que

v ∈ ⟨{w1 , w0 }⟩ ,

entonces existen β0 , β1 ∈ K tal que


v = β1 w1 + β0 w0 ,

331
de donde, recurriendo a la ecuación (29.5), se llega a
T (v) = T (β1 w1 + β0 w0 )
= β1 T (w1 ) + β0 T (w0 )
= β1 (λw1 + w0 ) + β0 λw0
= β1 λw1 + (β1 + β0 λ) w0 ,

esto es,
T (v) = β1 λw1 + (β1 + β0 λ) w0 ,

que implica
T (v) ∈ ⟨{w1 , w0 }⟩ ,

por lo que
T (⟨{w1 , w0 }⟩) ⊂ ⟨{w1 , w0 }⟩ .

Así, el conjunto
⟨{w1 , w0 }⟩ .

es invariante bajo T.

En general, si existen r − 1 vectores

{w0 , w1 , w2 , · · · , wr−2 , wr−1 } (29.8)

tal que

(T − λI) (wk ) =wk−1 , k = 1, 2, · · · , r − 1, (29.9)


(T − λI) (w0 ) =0, (29.10)

entonces el conjunto de vectores (29.8) es linealmente independientes y el es-


pacio vectorial generado por dichos vectores es invariante bajo T.

Antes de probar estas dos armaciones, notemos que


(T − λI)2 (wk ) = (T − λI) (wk−1 ) = wk−2 ,

332
es decir
(T − λI)2 (wk ) = wk−2 ,
en general se cumple
(T − λI)l (wk ) = wk−l ,
que implica
(T − λI)k (wk ) = w0 , (29.11)
(T − λI)l (wk ) = 0, l > k. (29.12)
Ahora, supongamos que existen α0 , α1 , · · · , αr−1 ∈ K tal que
α0 w0 + α1 w1 + α2 w2 + · · · + αr−2 wr−2 + αr−1 wr−1 = 0. (29.13)
Entonces aplicando la función (T − λI)r−1 a esta combinación lineal y usando
las igualdades (29.11)-(29.12), se llega a
(T − λI)r−1 (α0 w0 + α1 w1 + α2 w2 + · · · + αr−2 wr−2 + αr−1 wr−1 ) =
= α0 (T − λI)r−1 (w0 ) + α1 (T − λI)r−1 (w1 ) + α2 (T − λI)r−1 (w2 ) + · · ·
+αr−2 (T − λI)r−1 (wr−2 ) + αr−1 (T − λI)r−1 (wr−1 )
= αr−1 w0 = 0

es decir,
αr−1 w0 = 0,

por lo que
αr−1 = 0.

Usando este resultado en la ecuación (29.13) se llega a


α0 w0 + α1 w1 + α2 w2 + · · · + αr−2 wr−2 = 0. (29.14)
De la misma forma, aplicando la función (T − λI)r−2 a la combinación lineal
(29.14) se llega a
αr−2 = 0,

que implica
α0 w0 + α1 w1 + α2 w2 + · · · + αr−3 wr−3 = 0.
Realizando varias veces el mismo procedimiento, encontramos que
α0 = α1 = · · · = αr−2 = αr−1 = 0,

333
por lo tanto, el conjunto de vectores (29.8) es linealmente independiente.

Además, si
v ∈ ⟨w0 , w1 , w2 , · · · , wr−2 , wr−1 ⟩ ,
entonces existen β0 , β1 , · · · , βr−1 ∈ K tal que
v = β0 w0 + β1 w1 + β2 w2 + · · · + βr−2 wr−2 + βr−1 wr−1 ,

por lo que, notando que la ecuación (29.9) se puede escribir como


T (wk ) = λwk + wk−1 ,

se obtiene
T (v) = T (β0 w0 + β1 w1 + β2 w2 + · · · + βr−2 wr−2 + βr−1 wr−1 )
= β0 T (w0 ) + β1 T (w1 ) + β2 T (w2 ) + · · · + βr−2 T (wr−2 ) + βr−1 T (wr−1 )
= β0 λw0 + β1 (λw1 + w0 ) + β2 (λw2 + w1 ) + · · ·
+βr−2 (λwr−2 + wr−3 ) + βr−1 (λwr−1 + wr−2 )
= (λβ0 + β1 ) w0 + (λβ1 + β2 ) w2 + · · ·
+ (λβr−2 + βr−1 ) wr−2 + βr−1 λwr−1 ,

así podemos concluir que


T (v) ∈ ⟨w0 , w1 , w2 , · · · , wr−2 , wr−1 ⟩ ,

que implica
T (⟨w0 , w1 , w2 , · · · , wr−2 , wr−1 ⟩) ⊂ ⟨w0 , w1 , w2 , · · · , wr−2 , wr−1 ⟩ .

Entonces el espacio vectorial generado por los vectores (29.8) es invariante bajo
la transformación T.

Por lo cual, el conjunto de vectores

w0 = v1 , w1 , w2 , · · · , wr−1 , v2 , v3 , · · · , vr−n

son n vectores linealmente independientes y por lo tanto forman una base de


V. Además, los subespacios vectoriales

< w0 = v1 , w2 , · · · , wr−1 >, < v2 >, < v3 >, · · · , < vr−n >

334
son invariantes bajo T.

Note que para r = 2 tenemos la base del espacio invariante {w0 , w1 }, que
cumple
T (w0 ) =λw0 ,
T (w1 ) =λw1 + w0 ,

esta relación se puede escribir como


    
T (w0 ) λ 0 w0
= ,
T (w1 ) 1 λ w1

así la matriz asociada asociada restringida esta base es


 
λ 1
J2 =
0 λ

a esta matriz se le llama bloque de Jordan de orden 2.

Si r = 3, la base del espacio invariante {w0 , w1 , w2 } cumple

T (w0 ) =λw0 ,
T (w1 ) =λw1 + w0 ,
T (w2 ) =λw2 + w1 .

Esta relación se puede escribir como


    
T (w0 ) λ 0 0 w0
 T (w1 )  =  1 λ 0   w1  .
T (w2 ) 0 1 λ w2

Así, con esta base se tiene la matriz asociada


 
λ 1 0
J3 =  0 λ 1  ,
0 0 λ

335
que es bloque de Jordan de orden 3.

Para r = 4 tenemos que la base del espacio invariante es {w0 , w1 , w2 , w3 } y


cumple
T (w0 ) =λw0 ,
T (w1 ) =λw1 + w0 ,
T (w2 ) =λw2 + w1 ,
T (w3 ) =λw3 + w2 ,

que se puede escribir como

    
T (w0 ) λ 0 0 0 w0
 T (w1 )   1 λ 0 0   w1
  
 T (w2 )  =  0
   ,
1 λ 0   w2 
T (w3 ) 0 0 1 λ w3

entonces tenemos la matriz asociada


 
λ 1 0 0
 0 λ 1 0 
J4 = 
 0
,
0 λ 1 
0 0 0 λ

que es el bloque de Jordan de orden 4.

Para el caso general la base del espacio invariante es {w0 , w1 , · · · , wr−1 } y


cumple las relaciones

T (w0 ) =λw0 ,
T (w1 ) =λw1 + w0 ,
T (w2 ) =λw2 + w1 ,
..
.
T (wr−1 ) =λwr−1 + wr−2

336
que implican la matriz asociada
 
λ 1 0 ··· 0 0
 0 λ 1 ··· 0 0 
Jr =  ... ... ... .. .. 
 
. .

 
 0 0 0 ··· λ 1 
0 0 0 ··· 0 λ

que es bloque de Jordan de orden r.

Por lo tanto, usando la bases de los espacios invariantes, la matriz asociada


a la transformación T es
 
Jr 0 · · · 0
 0 λ2 · · · 0 
M =  .. . .
.. . . .. .
 
 . . 
0 0 · · · λn−r

En general, el polinomio característico de una matriz puede tomar la forma

P (λ) = (λ − λ1 )i1 (λ − λ2 )i2 · · · (λ − λk )ik

con
i1 + i2 + · · · + ik = n.

Por lo que, usando el mismo algoritmo que se emplea para el caso de un valor
propio repetido, se puede mostrar que con los espacios invariantes para cada
valor propio repetido la matriz asociada a la transformación T se puede escribir
como
 
Ji1 0 ··· 0
 0 Ji · · · 0 
M =  .. . ..
2
.
.. . . .
 
 . . 
0 0 · · · J ik

337
en donde Jij es el bloque de Jordan de orden ij .

29.3. Ejemplos
Como un ejemplo consideremos la matriz
 
1 2 −4
A= 0 3 0 .
0 1 3
de donde
 
1−λ 2 −4
A − λI =  0 3−λ 0 
0 1 3−λ
cuyo determinantes es
det (A − λI) = (3 − λ)2 (1 − λ)
que implica los valores característicos
λ1 = 1, λ2 = 3.
Como podemos ver, el valor propio λ2 = 3 tiene multiplicidad 2.

Para obtener los valores característicos debemos resolver los sistemas de


ecuaciones
    
0 2 −4 x 0
(A − λ1 I) v1 =  0 2 0   y  =  0 ,
0 1 2 z 0
    
−2 2 −4 x 0
(A − λ2 I) v2 =  0 0 0   y  =  0 ,
0 1 0 z 0
de donde obtenemos los vectores propios
 
1
v1 =  0 ,
0
 
−2
v2 =  0 .
1

338
Para obtener el tercer vector linealmente dependiente debemos buscar un vec-
tor v3 que cumpla
(A − λ2 I) v3 = v2 ,
es decir debemos resolver el sistema de ecuaciones
    
−2 2 −4 x −2
 0 0 0  y  =  0 ,
0 1 0 z 1
que implica
 
0
v3 =  1 .
1
Con los vectores propios v1 , v2 , v3 podemos formar las columnas de la matriz
de cambio de base
 
1 −2 0
U = 0 0 1 
0 1 1
cuya inversa es
 
1 −2 2
U −1 =  0 −1 1  ,
0 1 0
con estas matrices se puede comprobar que se cumple
   
1 −2 2 1 2 −4 1 −2 0
U −1 AU =  0 −1 1   0 3 0  0 0 1 
0 1 0 0 1 3 0 1 1
 
1 0 0
=  0 3 1 .
0 0 3
Así, la forma canónica de A es
 
1 0 0
J =  0 3 1 .
0 0 3

339
29.4. Operaciones con Python
Si tenemos la matriz
 
7 1 −3 2 2
−6 2 4 −2 −2
 
A= 0
 1 3 1 −1
−2 −1 6 0 −3
−4 0 3 −1 −1

para obtener la forma canónica de Jordan podemos ocupar el siguiente código


de Python
1 from sympy import Matrix
2 A = Matrix ([[7 ,1 , -3 ,2 ,1] ,
3 [ -6 ,2 ,4 , -2 , -2] ,
4 [0 ,1 ,3 ,1 , -1] ,
5 [ -2 , -1 ,6 ,0 , -3] ,
6 [ -4 ,0 ,3 , -1 ,1]])
7 J , P = A . jordan_form ()
8 P
con el cual se consigue la siguiente matriz
 
3 1 0 0 0
0 3 1 0 0 
 
0 0 3 0√ 0 .
 
0 0 0 2−2 3 0√ 
0 0 0 0 2−2 3

Marie Camille Jordan (1838-1922) fue un ingeniero y matemático francés


que realizó diferentes aportaciones a las matemáticas. Su primer trabajo fue
como ingeniero de minas, pero poco a poco se inclinó más por las matemáticas
y realizó un doctorado en esta disciplina bajo la dirección de Victor Puiseux
y Joseph Alfred Serret. En 1876 se convirtió en profesor de matemáticas de la
École Polytechnique. Trabajó en diversos temas como grupos nitos, geome-
tría, topología, variable compleja y álgebra. Fue de los primeros matemáticos
que entendieron la importancia de los trabajos de Galois. También fue de los
primeros matemáticos en emplear conceptos y herramientas del álgebra para
estudiar problemas de geometría. En particular, el concepto de grupo. En este
aspecto a Jordan se le atribuye el concepto de homotopía, que es esencial en la

340
topología algebraica. Sus trabajos inuyeron a otros matemáticos importantes
como Sophus Lie y Felix Klein. En 1912 se retiró de la academia, murió en
depresión debido a que tres de sus seis hijos murieron asesinados en la primera
guerra Mundial.

29.5. Ejercicios
1.- Obtener la forma canónica de Jordan de la matriz
 
2 4 −6 0
4 1 −3 −4
A= .
1 0 4 −1
0 4 −6 2

341
Capítulo 30
Espacio dual
En este capítulo estudiaremos el Espacio Dual de un espacio vectorial. Nos
enfocaremos en los espacios vectoriales de dimensión nita. El material que
veremos en este capítulo es importantes para entender temas posteriores.

30.1. Denición
Sea V un espacio vectorial sobre el campo K. Denotaremos el conjunto de
las transformaciones lineales de V en K como

V ∗ = {T : V → K|T lineal} ,

a este conjunto se le llama espacio dual de V. Lo primero que podemos obsevar


es que, dado que V ∗ es el conjunto de todas las funciones lineales de V en K,
el espacio V ∗ es un espacio vectorial sobre K.

30.2. Ejemplos
30.2.1. Caso Cn
Como primer ejemplo, veamos un elemento del espacio dual de Cn . Supon-
gamos que v0 es un vector jo que pertenece a Cn y que N es una matriz de
entradas complejas de n × n, entonces la función
T : Cn → C

342
denida como
T (v) = v0∗T N v (30.1)
cumple
T (λ1 v1 + λ2 v2 ) = v0∗T N (λ1 v1 + λ2 v2 )
= v0∗T N λ1 v1 + v0∗T N λ2 v2
= λ1 v0∗T N v1 + λ2 v0∗T N v2
= λ1 T (v1 ) + λ2 T (v2 ).

Así, la función T denida en (30.1) es lineal y por lo tanto pertenece al espacio


dual (Cn )∗ .

30.2.2. Caso (Mn×n(C))∗


Ahora veamos un elemento de (Mn×n (C))∗ . Recoremos que Mn×n (C) es el
espacio vectorial de las matrices de entradas complejas de n×n. Para este caso,
supongamos que A0 es una matriz ja que pertenece a Mn×n (C), entonces se
puede denir la función
T : Mnn (C) → C,

tal que si A ∈ Mnn (C) se cumple


T (A) = T r (A0 A) . (30.2)
Considerando las propiedades de la traza, se puede ver que si A, B ∈ Mn×n (C)
y λ, γ ∈ C, se cumple
T (λA + γB) = T r (A0 · (λA + γB))
= T r (λA0 · A + γA0 · B)
= λT r (A0 · A) + γT r (A0 · B)
= λT (A) + γT (B) ,

es decir
T (λA + γB) = λT (A) + γT (B) .

Por lo tanto, la función T denida en (30.2) es lineal, lo cual nos indica que
pertenece al espacio dual (Mnn (C))∗ .

343
30.3. Producto escalar y espacio dual
Si un espacio vectorial tiene producto escalar es posible obtener elementos
de su espacio dual con la ayuda de dicho producto. En efecto, supongamos que
V es un espacio vectorial sobre C con producto escalar, entonces si v0 es un
vector jo en V se puede denir la función
Tv0 : V → C,

tal que
Tv0 (v) = ⟨v0 |v⟩ . (30.3)

Usando las propiedades del producto escalar se puede demostrar que Tv0
es una función lineal. Esta última armación es vedadera, pues si v1 , v2 ∈ V y
λ1 , λ2 ∈ C, se cumple

Tv0 (λ1 v1 + λ2 v2 ) = ⟨v0 |λ1 v1 + λ2 v2 ⟩


= ⟨v0 |λ1 v1 ⟩ + ⟨v0 |λ2 v2 ⟩
= λ1 ⟨v0 |v1 ⟩ + λ2 ⟨v0 |v2 ⟩
= λ1 Tv0 (v1 ) + λ2 Tv0 (v2 ),

de donde
Tv0 (λ1 v1 + λ2 v2 ) = λ1 Tv0 (v1 ) + λ2 Tv0 (v2 ).

En consecuencia la función Tv0 denida en (30.3) es lineal y pertenece al espa-


cio dual V ∗ .

30.3.1. Ejemplo R3
Por ejemplo, en el espacio vectorial R3 , con el vector constante jo
 
a
v0 = b  ,

c

se puede denir la función Tv0 tal que si


 
v1
v = v2  ∈ R3 ,

v3

344
entonces
 
 v1
Tv0 (v) = a b c v2  .
v3

Esta función es lineal y por lo tanto pertenece al espacio dual (R3 )∗ .

30.3.2. Ejemplo Mnn(C)


De la misma forma, en el espacio de las matrices de entradas complejas
de n × n, Mnn (C), si N es una matriz ja que pertenece a Mnn (C) se puede
denir la función TN tal que para cualquier matriz M en Mnn (C) se cumple
TN (M ) = T r N ∗T M .


La cual es lineal y entonces pertenece al espacio dual (Mnn (C))∗ .

30.3.3. Ejemplo en el espacio de las funciones


Además, en el espacio vectorial de las funciones integrables en el intervalo
[a, b], con la función ja

g(x) = sen x,

se puede denir la función Tg tal que para cualquier función intengrable f (x)
en el intervalo [a, b] se cumpla
Z b
Tg (f (x)) = (sin x) f (x).
a

Esta función es lineal y por lo tanto pertenece al espacio dual del espacio vec-
torial de las funciones integrales en el intervalo [a, b].

30.4. Base del espacio dual V ∗


Ahora para el caso de un espacio vectorial V de dimensión nita veremos
como construir una base para su espacio dual V ∗ . Primero recordemos que,
dada una base de V, una función lineal sobre V está denida de forma única

345
por el modo en que actúa en los vectores de dicha base.

Suponagmos que V tiene dimesión n y los vectores


v1 , v2 , · · · , vn (30.4)
forman una base de V, entonces si f ∈ V ∗ existen n elementos en K
α1 , · · · , αn

tales que
f (v1 ) = α1 , f (v2 ) = α2 , · · · , f (vn ) = αn , (30.5)
estas últimas igualdades denen completamente a f. En efecto, si v ∈ V, existen
n números

λ1 , λ2 , · · · , λn ∈ K

tales que
v = λ1 v1 + λ2 v2 + · · · + λn vn , (30.6)
por lo que, debido a que f es lineal, se cumple
f (v) = f (λ1 v1 + λ2 v2 + · · · + λn vn )
= λ1 f (v1 ) + λ2 f (v2 ) + · · · + λn f (vn )
= λ1 α1 + λ2 α2 + · · · + λn αn ,

es decir,
f (v) = λ1 α1 + λ2 α2 + · · · + λn αn .

Este resultado nos ayudará a encontrar una base para el espacio dual V ∗ .

De nuevo supongamos que los vectores (30.4) forman una base de V, en-
tonces deniremos las funciones lineales
{f1 , f2 , · · · , fn } , (30.7)
tales que
fi (vj ) = δij , i, j = 1, 2, · · · , n.

346
Probaremos que las funciones (30.7) forman una base del espacio dual V ∗ .

Antes realizar la prueba, notemos que debido a que los vectores (30.4)
forman una base de V, cualquier vector v ∈ V se puede escribir de la forma
(30.6), por lo que se cumplen
fi (v) = fi (λ1 v1 + λ2 v2 + · · · + λn vn )
= λ1 fi (v1 ) + λ2 fi (v2 ) + · · · + λi fi (vi ) + · · · + λn fi (vn )
= λi ,

esto es,
fi (v) = λi . (30.8)
Ahora probaremos que las funciones (30.7) generan al espacio dual V ∗ , es
decir, probaremos que si f ∈ V ∗ , entonces f es una combinación lineal de las
funciones (30.7). Primero, notemos que si f ∈ V ∗ y el conjunto de vectores
(30.4) es una base de V, entonces podemos denir la siguiente combinación
lineal de funciones
f ′ = f (v1 )f1 + f (v2 )f2 + · · · + f (vn )fn .

Se puede observar que si v ∈ V, se satisface


f ′ (v) = (f (v1 )f1 + f (v2 )f2 + · · · + f (vn )fn ) (v)
= f (v1 )f1 (v) + f (v2 )f2 (v) + · · · + f (vn )fn (v),

además, considerando que se cumple la igualdad (30.8) y que f es una función


lineal, se encuentra
f ′ (v) = f (v1 )λ1 + f (v2 )λ2 + · · · f (vn )λn
= λ1 f (v1 ) + λ2 f (v2 ) + · · · λn f (vn )
= f (λ1 v1 + λ2 v2 + · · · + λn vn )
= f (v).

En consecuencia, para cualquier vector v ∈ V, se cumple


f (v) = f ′ (v),

lo que prueba que cualquier función f ∈ V ∗ se puede escribir como una com-
binación lineal de las funciones (30.7) de la forma
f = f (v1 )f1 + f (v2 )f2 + · · · + f (vn )fn .

347
Así, las funciones (30.7) generan al espacio dual V ∗ .

Para probar que el conjunto de funciones (30.7) es linealmente indepen-


diente supongamos que existen los valores
γ1 , γ2 , · · · , γn ∈ K

tal que
γ1 f1 + γ2 f2 + · · · + γn fn = 0.

En particular, para v1 se encuentra


0 = (γ1 f1 + γ2 f2 + · · · + γn fn ) (v1 )
= γ1 f1 (v1 ) + γ2 f2 (v2 ) + · · · + γn fn (v1 ),

entonces, considerado la igualdad (30.8), se llega a


0 = γ1 f1 (v1 ) + γ2 f2 (v2 ) + · · · + γn fn (v1 )
= γ1 ,

por lo que
γ1 = 0.

Con el mismo procedimiento se puede probar que


γ2 = γ3 = · · · = γn = 0,

por lo tanto, el conjunto de funciones (30.7) es lineamente independiente.

En consecuencia, el conjunto de funciones (30.7) es una base del espacio


dual V ∗ .

Se puede observar que este resultado también prueba que si la dimensión


de V es n, entonces la dimensión del espacio dual V ∗ también es n, es decir

dim (V ∗ ) = n.

348
30.5. Cambio de base en el espacio dual
Ya demostramos que si V tiene dimensión n y que el conjunto de vectores
{v1 , v2 , · · · , vn } (30.9)
es base de V. Entonces, si las funciones
f1 , f2 , · · · , fn (30.10)
satisfacen
fi (vj ) = δij , i, j = 1, 2, · · · , n

forman una base del espacio dual V ∗ . De la misma forma si el conjunto de


vectores
{v1′ , v2′ , · · · , vn′ } (30.11)
es base de V, entonces, si las funciones
f1′ , f2′ , · · · , fn′ (30.12)
satisfacen
fi′ vj′ = δij ,


tenemos una base del espacio dual V ∗ .

Debido a que los vectores (30.9) y (30.11) son bases de V, existe una matriz
U ∈ Mn×n (K) tal que

vi′ = Uij vj .

De la misma forma, debido a que las funciones (30.10) y (30.12) son bases del
espacio dual V ∗ , existe una matriz U ′ ∈ Mn×n (K) tal que
fi′ = Uij′ fj .

Se puede probar que se cumple


T
U ′ = U −1 .

349
En efecto, podemos ver que
δij = fi′ (vj′ )
= fi′ (Ujk vk )
= Ujk fi′ (vk )
= Ujk Uil′ fl (vk )
= Ujk Uil′ δlk

= Ujk Uik
′T
= Ujk Uki
U U ′T ji

=
esto es,
δij = U U ′T

ji

de donde
U U ′T = I,
es decir,
T
U = U ′−1 ,
que implica
T
U ′ = U −1 .

Por lo tanto, bajo un cambio de base se tiene

vi′ = Uij vj ,
  
′ −1 T
fj = U −1 ji fj .

fi = U
ij

30.6. Ejemplos
30.6.1. Ejemplo en R3
Para R3 tenemos la base
     
1 0 0
e1 = 0 , e2 = 1 , e3 = 0 ,
    
0 0 1

350
entonces la base del espacio dual de R3 son las funciones lineales
f1 , f2 , f3 ,

que satisfacen
f1 (e1 ) = 1, f1 (e2 ) = 0 f1 (e3 ) = 0,
f2 (e1 ) = 0, f2 (e2 ) = 1, f2 (e3 ) = 0,
f3 (e1 ) = 0, f3 (e2 ) = 0, f3 (e3 ) = 1.

Ahora, consideremos un vector arbitrario de R3


 
a
v = b ,

c

entonces, debido a que f1 es una función lineal, se cumple


        
a 1 0 0
f1  b  = f1 a 0 + b 1 + c 0
c 0 0 1
     
1 0 0
= af1 0 + bf1 1 + cf1 0
0 0 1
= a,

es decir,
 
a
f1 b  = a.

c

De la misma forma, se puede comprobar que se cumple


   
a a
f2 b  = b,
 f3 b  = c.

c c

Además, debido a que f1 , f2 , f3 es una base de (R3 )∗ , entonces si f ∈ (R3 )∗


existen λ1 , λ2 , λ3 ∈ R tal que
f = λ1 f 1 + λ2 f 2 + λ3 f 3

351
de donde
   
a a
f b
  = (λ1 f1 + λ2 f2 + λ3 f3 ) b 

c c
     
a a a
= λ1 f1 b + λ2 f2 b + λ3 f3 b 
    
c c c
= λ1 a + λ2 b + λ3 c.

Así, todas las funciones del espacio dual (R3 )∗ , son de la forma
 
a
f  b  = λ1 a + λ2 b + λ3 c.
c

30.6.2. Ejemplo en el espacio de las matrices M2×2(R)


Para M2×2 (R) tenemos la base
       
1 0 0 1 0 0 0 0
e1 = , e2 = , e3 = , e4 = ,
0 0 0 0 1 0 0 1

entonces, una base del espacio dual de M2×2 (R) son las funciones lineales
f1 , f2 , f3 , f4 ,

que satisfacen
f1 (e1 ) = 1, f1 (e2 ) = 0 f1 (e3 ) = 0, f1 (e4 ) = 0,
f2 (e1 ) = 0, f2 (e2 ) = 1, f2 (e3 ) = 0, f2 (e4 ) = 0,
f3 (e1 ) = 0, f3 (e2 ) = 0, f3 (e3 ) = 1, f3 (e4 ) = 0,
f4 (e1 ) = 0, f4 (e2 ) = 0, f4 (e3 ) = 0, f4 (e4 ) = 1.

Así, para cualquier matriz de M2×2 (R)


 
a b
M= ,
c d

352
debido a que f1 es una función lineal, se cumple
          
a b 1 0 0 1 0 0 0 0
f1 = f1 a +b +c +d
c d 0 0 0 0 a 0 0 1
       
1 0 0 1 0 0 0 0
= af1 + bf1 + cf1 + df1
0 0 0 0 a 0 0 1
= a,

es decir
 
a b
f1 = a.
c d

De la misma forma, se puede comprobar que se cumple


     
a b a b a b
f2 = b, f3 = c, f4 = d.
c d c d c d

Además, debido a que f1 , f2 , f3 , f4 forman una base de (M2×2 (R))∗ , entonces


si f ∈ (M2×2 (R))∗ , existen λ1 , λ2 , λ3 , λ4 ∈ R tal que
f = λ1 f1 + λ2 f2 + λ3 f3 + λ4 f4

de donde
   
a b a b
f = (λ1 f1 + λ2 f2 + λ3 f3 + λ4 f4 )
c d c d
       
a b a b a b a b
= λ1 f1 + λ2 f 2 + λ3 f3 + λ4 f4
c d c d c d c d
= λ1 a + λ2 b + λ3 c + λ4 d.

Así, toda las funciones del espacio dual (M2×2 (R))∗ son de la forma
 
a b
f = λ1 a + λ2 b + λ3 c + λ4 d.
c d

30.7. Ejercicios
1.- Para el espacio dual (M3×3 (R))∗

a) Obtener una base.

b) Obtener la forma general de una función de este espacio dual.

353
Capítulo 31
Funciones bilineales
En este capítulo estudiaremos el concepto de función bilineal, el cual ex-
tiende el concepto de función lineal y tiene una amplia gama de aplicaciones.

Los temas de este capítulo son importantes para entender conceptos y apli-
caciones avanzadas del álgebra lineal.

31.1. Denición
Sean V, U y W espacios vectoriales en el campo K, se dice que la función
T :V ×U →W

es bilineal si cumple las condiciones

∀v1 , v2 ∈ V, u ∈ U, T (v1 + v2 , u) = T (v1 , u) + T (v2 , u),


∀v ∈ V, u1 , u2 ∈ U, T (v, u1 + u2 ) = T (v, u1 ) + T (v, u2 ),
∀v ∈ V, u ∈ U, λ ∈ K, T (λv, u) = λT (v, u),
∀v ∈ V, u ∈ U, λ ∈ K, T (v, λu) = λT (v, u).

Note que esta denición nos dice que la función T es bilineal si es lineal en
cada una de sus entradas.

De hecho se puede probar que una función es bilineall si y solo si cumplen

354
las dos condiciones

∀λ1 , λ2 ∈ K, ∀v1 , v2 ∈ V, u ∈ U, T (λ1 v1 + λ2 v2 , u) = λ1 T (v1 , u) + λ2 T (v2 , u),


∀λ1 , λ2 ∈ K, ∀v ∈ V, u1 , u2 ∈ U, T (v, λ1 u1 + λ2 u2 ) = λ1 T (v, u1 ) + λ2 T (v, u2 ).

Ver ejercicio 1.

31.2. Ejemplos
31.2.1. Ejemplo en C × C
Para construir el primer ejemplo, supongamos λ es una constante compleja,
entonces denamos la función
T :C×C→C

tal que si z, w ∈ C se cumple


T (z, w) = λzw. (31.1)
Esta función es bilineal, pues si γ1 , γ2 ∈ C, para cualquier z1 , z2 ∈ C se tiene
T (γ1 z1 + γ2 z2 , w) = λ (γ1 z1 + γ2 z2 ) w
= λγ1 z1 w + λγ2 z2 w
= γ1 (λz1 w) + γ2 (λz2 w)
= γ1 T (z1 , w) + γ2 T (z2 , w).

Adicionalmente, para cualquier w1 , w2 ∈ C se cumple


T (z, γ1 w1 + γ2 w2 ) = λz (γ1 w1 + γ2 w2 )
= λγ1 zw1 + λγ2 zw2
= γ1 z (λw1 ) + γ2 (λzw2 )
= γ1 T (z, w1 ) + γ2 T (z, w2 ).

Por lo tanto, la función denida en (31.1) es una función bilineal.

355
31.2.2. Ejemplo en Rm × Rn
Ahora veamos un ejemplo en Rm × Rn , supongamos M es una matriz de
entradas reales de m × n,
 
M11 M12 ··· M1n
 M21 M22 ··· M2n 
M =  .. .. ..  ,
 
 . . ··· . 
Mm1 Mm2 ··· Mmn
entonces denamos la función
T : Rm × Rn → R
tal que si
   
a1 b1
 a2   b2 
u =  ..  ∈ Rm , v =  ..  ∈ Rn
   
 .  .
am bn
entonces
T (u, v) = uT M v
  
M11 M12 ··· M1n b1
 21 M22
 M ··· M2n   b2 
= a1 a2 · · · am  .. .. ..   .  .(31.2)
.   .. 
 
 . . ···
Mm1 Mm2 ··· Mmn bn
Esta función es bilineal, pues si γ1 , γ2 ∈ R, para cualquier u, u′ ∈ Rm se tiene
T
T (γ1 u + γ2 u′ , v) = (γ1 u + γ2 u′ ) M v
= γ1 uT + γ2 u′T M v


= γ1 uT M v + γ2 u′T M v
= γ1 T (u, v) + γ2 T (u′ , v).
Adicionalmente, para cualquier v, v ′ , ∈ Rn se cumple
T (u, γ1 v + γ2 v ′ ) = uT M (γ1 v + γ2 v ′ )
= uT M γ1 v + uT M γ2 v ′
= γ1 uT M v + γ2 uT M v ′
= γ1 T (u, v) + γ2 T (u, v ′ ).
Por lo tanto, la función denida en (31.2) es una función bilineal.

356
31.2.3. Ejemplo con matrices
Como otro ejemplo, consideremos el espacio de las matrices reales de n × n,
Mn×n (R). En este espacio supogamos que N es una matriz ja de n × n.
Entonces, podemos denir función
T : Mn×n (R) × Mn×n (R) → Mn×n (R)

tal que si A, B ∈ Mn×n (R) se cumple


T (A, B) = AN B. (31.3)
Note que, si γ1 , γ2 ∈ R y A1 , A2 ∈ Mn×n (R), se encuentra
T (γ1 A1 + γ2 A2 , B) = (γ1 A1 + γ2 A2 ) N B
= γ1 A1 N B + γ2 A2 N B
= γ1 T (A1 B) + γ2 T (A2 B) .

Además, si B1 , B2 ∈ Mn×n (R), se obtiene


T (A, γ1 B1 + γ2 B2 ) = AN (γ1 B1 + γ2 B2 )
= AN γ1 B1 + AN γ2 B2
= γ1 (AN B1 ) + γ2 (AN B2 )
= γ1 T (A, B1 ) + γ2 T (A, B2 ) .

Así, la función denida en (31.3) es una función bilineal.

31.2.4. Ejemplo con funciones


Veamos un ejemplo en el espacio de las funciones de una variable real deri-
vables, denotaremos a este espacio como A. Supongamos que λ es un constante
real, entonces denamos la función
T :A×A→A

con la regla

T (f, g)(x) = λf (x) g(x), f, g ∈ A. (31.4)
∂x

357
Supongamos que γ1 , γ2 ∈ R y que f1 , f2 , g ∈ A, entonces se cumple

T (γ1 f1 + γ2 f2 , g) = λ (γ1 f1 (x) + γ2 f2 (x)) g(x)
∂x
∂ ∂
= λγ1 f1 (x) g(x) + λγ2 f2 (x) g(x)
 ∂x   ∂x 
∂ ∂
= γ1 λf1 (x) g(x) + γ2 λf2 (x) g(x)
∂x ∂x
= γ1 T (f1 , g) + γ2 T (f2 , g).

Además, si g1 , g2 , f ∈ A, entonces se cumple



T (f, γ1 g1 + γ2 g2 ) = λf (x) (γ1 g1 (x) + γ2 g2 (x))
∂x
∂ ∂
= λf (x) γ1 g1 (x) + λf (x) γ1 g2 (x)
∂x ∂x
∂ ∂
= λγ1 f (x) g1 (x) + λγ2 f (x) g2 (x)
 ∂x   ∂x 
∂ ∂
= γ1 λf (x) g1 (x) + γ2 λf (x) g1 (x)
∂x ∂x
= γ1 T (f, g1 ) + γ2 T (f, g2 ).

Por lo tanto la función denida en (31.4) es una función bilineal.

31.3. Funciones bilineales actuando en una base


Recordemos que si V1 y V2 son espacios vectoriales sobre K y la función
F : V1 → V2

es lineal, entonce si F está denida en una base del dominio V1 , automáti-


camente está denida en todo el dominio V1 . También recordemos que si dos
funciones lineales coinciden en una base del dominio, esa funciones son las mis-
mas. Probaremos que tenemos un resultado similar con las funciones bilineales.

Supongamos que U, V, W son espacios vectoriales de dimensión nita sobre


K con

dim(U ) = n,
dim(V ) = m.

358
También supongamos que la función
T :U ×V →W

es bilineal. Probaremos que si T está denida es una base de U y en una base


de V, automáticamente está denida en todo el dominio U × V.

Para iniciar la prueba notemos que debido a que T es una función sobre
U × V, si

u1 , u2 , · · · , um

es una base de U y
v1 , v2 , · · · , vn

es una base de V, entonces existen nm vectores en W tales que


T (ui , vj ) = wij , i = 1, 2, · · · , m, j = 1, 2, · · · , n, wij ∈ W. (31.5)
Ahora supongamos que u ∈ U y v ∈ V, entonces existen m elementos en K
λ1 , λ2 , · · · , λm ,

tales que
u = λ1 u1 + λ2 u2 + · · · + λm um ,

y existen n elementos en K
γ1 , γ2 , · · · , γn

de tal forma que


v = γ1 v1 + γ2 v2 + · · · + γn vn .

De donde,
T (u, v) = T (λi ui , γj vj ) = λi γj T (ui , vj ) = λi γj wij ,

esto es
T (u, v) = λi γj wij , (31.6)

359
Por lo tanto, si una función bilineal se dene sobre una base U y una base V,
automáticamente está denida sobre todo el dominio U × V.

Ahora, supongamos que


G:U ×V →W

es otra función bilineal que satisface (31.5), es decir cumple


G(ui , vj ) = wij .

Por lo cual, considerando la igualdad (31.6) y que G es una función bilineal,


se encuentra
G(u, v) = G(λi ui , γj vj )
= λi γj G(ui , vj )
= λi γj wij
= T (u, v),

de donde
G(u, v) = T (u, v).

Como este resultado se cumple para cualquier u ∈ U y cualquier v ∈ V


entonces
G = T.

Por lo tanto, si dos funciones bilineales coinciden en una base de U y una


base de V, coinciden en todo el dominio U × V, es decir son iguales

31.3.1. Ejemplo
Por ejemplo, sea V = R4 con la base
(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0) (0, 0, 0, 1)

y U el espacio vectorial de las matrices de entradas reales de 2×2 antisimétricas


con la base
 
0 −1
.
1 0

360
Entonces deniremos la función bilineal
T : V × U → M2×2 (R)

tal que
    
0 −1 1 0
T (1, 0, 0, 0), = ,
1 0 0 0
    
0 −1 0 1
T (0, 1, 0, 0), = ,
1 0 0 0
    
0 −1 0 0
T (0, 0, 1, 0), = ,
1 0 1 0
    
0 −1 0 0
T (0, 0, 0, 1), = .
1 0 0 1

Por lo cual, la forma general de esta función bilineal es


  
0 −e
T (a, b, c, d),
e 0
  
0 −1
= T a(1, 0, 0, 0) + b(0, 1, 0, 0) + c(0, 0, 1, 0) + d(0, 0, 0, 1), e
1 0
     
0 −1 0 −1
= aeT (1, 0, 0, 0), + beT (0, 1, 0, 0), +
1 0 1 0
     
0 −1 0 −1
+ceT (0, 0, 1, 0), + deT (0, 0, 0, 1),
1 0 1 0
       
1 0 0 1 0 0 0 0
= ae + be + ce + de
0 0 0 0 1 0 0 1
 
ae be
= ,
ce de

entonces la bilineal función bilineal es


    
0 −e ae be
T (a, b, c, d), = .
e 0 ce de

31.4. Ejercicios
1.- Sean V, U y W espacios vectoriales en el campo K, y
T :V ×U →W

361
T una función. Probar que T es una función bilineal si y solo si satisface las
condiciones
∀λ1 , λ2 ∈ K, ∀v1 , v2 ∈ V, u ∈ U, T (λ1 v1 + λ2 v2 , u) = λ1 T (v1 , u) + λ2 T (v2 , u),
∀λ1 , λ2 ∈ K, ∀v ∈ V, u1 , u2 ∈ U, T (v, λ1 u1 + λ2 u2 ) = λ1 T (v, u1 ) + λ2 T (v, u2 ).

2.- Sea V = R2 con la base


(1, 0), (0, 1)

y U el espacio vectorial de las matrices de entradas reales de 2 × 2 simétricas


con la base
     
1 0 0 0 0 1
, .
0 0 0 1 1 0

Encontrar la función bilineal


T : V × U → R6

tal que
  
1 0
T (1, 0), = (1, 0, 0, 0, 0),
0 0
  
1 0
T (0, 1), = (0, 1, 0, 0, 0, 0),
0 0
  
0 0
T (1, 0), = (0, 0, 0, 1, 0),
0 1
  
0 0
T (0, 1), = (0, 0, 0, 0, 0, 1),
0 1
  
0 1
T (1, 0), = (0, 0, 1, 0, 0, 0),
1 0
  
0 1
T (0, 1), = (0, 0, 0, 1, 0, 0).
1 0

362
Capítulo 32
Formas bilineales
En este capítulo veremos el concepto de forma bilineal. En particular, ve-
remos que este concepto está relacionado con el concepto de espacio dual, el
cual se dene en el espacio de las funciones lineales.

32.1. Denición
Sean V y U espacios vectoriales sobre el campo K, si la función
T :V ×U →K
es una función bilineal, se dice que T que es una forma bilineal. El conjunto
de funciones bilineales de V y U en K se denota como
L2 (V, U, K) .
Si U = V se denota
L2 (V, V, K) = Bil (V ) .

32.1.1. Ejemplo en Cn × Cm
Por ejemplo, si Mnm es una matriz de coecientes complejos, la función
T : Cn × Cm → C
denida como
T (v1 , v2 ) = v1T M v2
es una función bilineal y por lo tanto una forma bilineal

363
32.1.2. Ejemplo con matrices
Como otro ejemplo, consideremos el espacio de las matrices reales de n × n,
Mn×n (R). En este espacio supogamos que N es una matriz ja de n × n.
Entonces, podemos denir función
T : Mn×n (R) × Mn×n (R) → R

tal que si A, B ∈ Mn×n (R) se cumple


T (A, B) = T r (AN B) . (32.1)
Note que, si γ1 , γ2 ∈ R y A1 , A2 ∈ Mn×n (R), se encuentra
T (γ1 A1 + γ2 A2 , B) = T r ((γ1 A1 + γ2 A2 ) N B)
= T r (γ1 A1 N B + γ2 A2 N B)
= γ1 T r (A1 B) + γ2 T r (A2 B) .
= γ1 T (A1 B) + γ2 T (A2 B) .

Además, si B1 , B2 ∈ Mn×n (R), se obtiene


T (A, γ1 B1 + γ2 B2 ) = T r (AN (γ1 B1 + γ2 B2 ))
= T r (AN γ1 B1 + AN γ2 B2 )
= γ1 T r (AN B1 ) + γ2 T r (AN B2 )
= γ1 T (A, B1 ) + γ2 T (A, B2 ) .

Así, la función denida en (32.1) es una función bilineal y por lo tanto una
forma bilineal.

32.1.3. Ejemplo con funciones


Veamos un ejemplo en el espacio de las funciones de una variable real
derivables e integrables en el intervalo [a, b]. Denotaremos a este espacio como
A. Supongamos que λ es un constante real, entonces denamos la función

T :A×A→R

con la regla
Z b

T (f, g) = λf (x) g(x)dx, f, g ∈ A. (32.2)
a ∂x

364
Supongamos que γ1 , γ2 ∈ R y que f1 , f2 , g ∈ A, entonces se cumple
Z b

T (γ1 f1 + γ2 f2 , g) = λ (γ1 f1 (x) + γ2 f2 (x)) dx g(x)
a ∂x
Z b 
∂ ∂
= λγ1 f1 (x) g(x) + λγ2 f2 (x) g(x) dx
a ∂x ∂x
Z b  Z b 
∂ ∂
= γ1 λf1 (x) g(x) dx + γ2 λf2 (x) g(x) dx
a ∂x a ∂x
= γ1 T (f1 , g) + γ2 T (f2 , g).
Además, si g1 , g2 , f ∈ A, entonces se cumple
Z b

T (f, γ1 g1 + γ2 g2 ) = λf (x) (γ1 g1 (x) + γ2 g2 (x)) dx
a ∂x
Z b 
∂ ∂
= λf (x) γ1 g1 (x) + λf (x) γ1 g2 (x) dx
a ∂x ∂x
Z b  Z b 
∂ ∂
= γ1 λf (x) g1 (x) dx + γ2 λf (x) g1 (x) dx
a ∂x a ∂x
= γ1 T (f, g1 ) + γ2 T (f, g2 ).
Entonces la función denida en (32.2) es una función bilineal y por lo tanto
una forma bilineal.

32.2. Matriz asociada


Cuando los espacios vectoriales tienen dimensión nita de forma natural
las formas bilineales tienen asociada una matriz.

En efecto, supongamos que U, V son espacios vectoriales sobre el campo K,


con
dim(U ) = m,
dim(V ) = n.
También supongamos que
u1 , u2 , · · · , um
es una base de U y
v1 , v2 , · · · , vn

365
es una base de V. Entonces si
T :U ×V →K
es una función bilineal, existen nm vectores en K tales que

T (ui , vj ) = Mij , i = 1, 2, · · · , m, j = 1, 2, · · · , n, Mij ∈ K. (32.3)

Así, podemos denir la matriz


 
M11 M12 ··· M1n
 M21 M22 ··· M2n 
M =  .. .. ..  .
 
 . . ··· . 
Mm1 Mm2 ··· Mmn

Esta matriz dene completamente a la forma bilineal. De hecho, si u ∈ U


y v ∈ V, entonces existen m elementos en K
λ1 , λ2 , · · · , λm ,
tal que
u = λ1 u1 + λ2 u2 + · · · + λm um
y existen n elementos en K
γ1 , γ2 , · · · , γn ,
tal que
v = γ1 v1 + γ2 v2 + · · · + γn vn .
Por lo tanto,
T (u, v) = T (λi ui , γj vj )
= λi γj T (ui , vj )
= λi γj Mij
= λi Mij γj
  
M11 M12 ··· M1n γ1
  M21 M22
 ··· M2n   γ2 
 
= λ1 λ2 · · · λm  .. .. ..   ..  .

 . . ··· .   .
Mm1 Mm2 ··· Mmn γn

366
esto es
  
M11 M12 ··· M1n γ1
 M21 M22
 ··· M2n   γ2 
T (u, v) = λ1 λ2 · · · λm  .. .. ..   . .
.   .. 
 
 . . ···
Mm1 Mm2 ··· Mmn γn

32.3. Ejemplos
32.3.1. Ejemplo 1
Por ejemplo, sea K = R y U = R2 , V = R3 , con las bases
      
      1 0 0 
1 0
u1 = , u2 = , v1 = 0 , v2 = 1 , v3 = 0 .
    
0 1
0 0 1
 

Entonces podemos denir la forma bilineal tal que


  
  1
F (u1 , v1 ) = F  1 , 0 = a,
0
0
  
  0
F (u1 , v2 ) = F  1 , 1 = b,
0
0
  
  0
F (u1 , v2 ) = F  1 , 0 = c,
0
1
  
  1
F (u2 , v1 ) = F  0 , 0 = d,
1
0
  
  0
F (u2 , v2 ) = F  0 , 1 = e,
1
0
  
  0
F (u2 , v3 ) = F  0 , 0 = f.
1
1
De donde
   
F (u1 , v1 ) F (u1 , v2 ) F (u1 , v3 ) a b c
M= = .
F (u2 , v1 ) F (u2 , v2 ) F (u2 , v3 ) d e f

367
De donde, para cualquier dos vectores de R2 y R3 se tiene
    
  b1   b1
a  a b c
F  1 ,  b 2   = a1 a2  b2  .
a2 d e f
b3 b3

32.3.2. Ejemplo 2
Supongamos que U un espacio vectorial de dimensión m, V un espacio
vectorial de dimensión n. Entonces, si M es una matriz que pertenece a
Mm×m (K),, dada una base de U, {ui }m
i=1 , y una base de V, {vj }j=1 , se puede
n

denir la forma bilineal F tal que


F (ui , vj ) = Mij .

Por ejemplo, con la matriz


 
a b c
M = d e f  ∈ M3×3 (R),
g h q

se puede denir la función bilineal


F : R3 × R3 → R

tal que
        
a1 b1 a1 a b c b1
F  a2 , b 2
    = a2
   d e f   b2  .
a3 b3 a3 g h q b3

32.4. Espacio dual y formas bilineales


Ahora veremos que todas la formas bilineales se pueden expresar en térmi-
nos de espacios duales.

Para iniciar, supongamos que U y V son espacios vectoriales sobre K y


U ∗ , V ∗ son sus espacios duales. Entonces, si f ∈ U ∗ y g ∈ V ∗ podemos denir
la función
T :U ×V →K

368
tal que si u ∈ U y v ∈ V se cumple

T (u, v) = f (u)g(v) (32.4)

Probaremos que T es una función bilineal y por lo tanto una forma bilineal.
Para realizar la prueba supongamos que λ, γ ∈ K, u1 , u2 ∈ U y v ∈ V, por lo
que
T (λu1 + γu2 , v) = f (λu1 + γu2 ) g(v)
= (λf (u1 ) + γf (u2 )) g(v)
= λf (u1 )g(v) + γf (u2 )g(v)
= λT (u1 , v) + γT (u2 , v).

Además, si u ∈ U y v1 , v2 ∈ V se encuentra
T (u, λv1 + γv2 ) = f (u) g (λv1 + γv2 )
= f (u) (λg(v1 ) + γg(v2 ))
= λf (u)g(v1 ) + γf (u)g(v2 )
= λT (u, v1 ) + γT (u, v2 ).

Así, la función (32.4) es una forma bilineal.

32.5. Base de las Formas Bilineales


Con las bases del espacio dual de U y V se puede obtener una base de las
formas bilineales de U × V.

Para probar esta armación recordemos que si U es un espacio vectorial de


dimensión n sobre K y
{u1 , u2 , · · · um }

es una de sus bases, entonces el conjunto de funciones


{f1 , f2 , · · · , fm } (32.5)
que satisfacen
fi (uj ) = δij , i, j = 1, 2, · · · , m

369
son una base del espacio dual U ∗ . De la misma forma, si V es un espacio
vectorial sobre K de dimensión n y
{v1 , v2 , · · · vn

es una de sus bases, entonces el conjunto de funciones


{g1 , g2 , · · · , gn } (32.6)
que satisfacen
gk (vl ) = δkl , k, l = 1, 2, · · · , n

son una base del espacio dual V ∗ .

Con las funciones (32.5) y (32.6), se pueden construir las funciones de U ×V


en K,
f1 g1 , f1 g2 , · · · , f1 gn , f2 g1 , f2 g2 , · · · , f2 gn , · · · , fm g1 , fm g2 , · · · , fm gn (32.7)

las cuales son formas bilineales. Las funciones (32.7) son una base del espacio
de las formas bilineales de U × V en K,
Bil(U, V, K) = {T : U × V → K|T Bilineal}. (32.8)
Primero probaremos que las formas bilineales (32.7) general al espacio (32.8).
Así, supongamos que la función
T :U ×V →K

es una forma bilineal, entonces existen nm elementos de K tal que


T (ui , vk ) = αik ,

además, podemos denir la función bilineal


T ′ = αik fi gk .

Ahora, si u ∈ U, entonces existen m elementos de K


λ1 , λ2 , · · · , λm

tales que
u = λ1 u1 + λ2 u2 + · · · + λm um ,

370
de forma análoga si v ∈ V, entonces existen n elementos de K
γ1 , γ2 , · · · , γn
de tal forma que
v = γ1 v1 + γ2 v2 + · · · + γn vn .
Entonces,
T (u, v) = T (λi ui , γk vk )
= λi γk T (ui , vk )
= λi γk αik ,
además,
T ′ (u, v) = αjl fj (u)gl (v)
= αjl fj (λi ui )gl (γk vk )
= αjl λi fj (ui )γk gl (vk )
= λi γk αjl fj (ui )gl (vk )
= λi γk αjl δji δlk
= λi γk αik .
Por lo tanto, para cualquier (u, v) ∈ U × V se cumple
T (u, v) = T ′ (u, v),
en consecuencia cualquier forma bilineal se puede escribir de la forma
T = αik fi gk
que es una combinación lineal de las formas bilineales (32.7) Por lo tanto, el
espacio de las formas bilineales (32.8) es generado por las funciones (32.7).

Ahora probaremos que el conjunto de las formas bilineales (32.7) son li-
nealmente independientes. Para realizar esta prueba, supongamos que existen
nm elementos βik ∈ K tales que
βik fi gk = 0,
entonces
0 = (βik fi gk ) (u1 , v1 )
= βik fi (u1 )gk (v1 )
= βik δi1 δk1
= β11 ,

371
es decir,
β11 = 0.

Con el mismo procedimiento, se puede mostrar que para cualquiera i, k se


obtiene
βik = 0.

Por lo tanto, el conjunto de funciones (32.7) es una base del espacio de las
formas bilineales

Note que si U tiene dimensión m y V tiene dimensión n, entonces el espacio


de las formas bilineales tiene dimensión nm, es decir

dim (Bil(U, V, K)) = nm.

En particular, si U = V se obtiene

dim (Bil(V, V, K)) = n2 .

32.5.1. Ejemplo
Por ejemplo, para R2 tenemos la base
   
1 0
e1 = , e2 = ,
0 1

por lo que el espacio dual tiene como base las funciones lineales
f1 , f2 ,

que satisfacen
f1 (e1 ) = 1, f1 (e2 ) = 0,
f2 (e1 ) = 0, f2 (e2 ) = 1.

Mientras que para el espacio M2×2 (R), tenemos la base


       
1 0 0 1 0 0 0 0
m1 = , m2 = , m3 = , m4 = ,
0 0 0 0 1 0 0 1

372
entonces una base del espacio dual de M2×2 (R) son las funciones lineales
g1 , g2 , g3 , g4 ,

que satisfacen
g1 (m1 ) = 1, g1 (m2 ) = 0 g1 (m3 ) = 0, g1 (m4 ) = 0,
g2 (m1 ) = 0, g2 (m2 ) = 1, g2 (m3 ) = 0, g2 (m4 ) = 0,
g3 (m1 ) = 0, g3 (m2 ) = 0, g3 (m3 ) = 1, g3 (m4 ) = 0,
g4 (m1 ) = 0, g4 (m2 ) = 0, g4 (m3 ) = 0, g4 (m4 ) = 1.

Así, una base de las formas bilineales de R2 × M2×2 (R) son la funciones
f1 g1 , f1 g2 , f1 g3 , f1 g4 , f2 g1 , f2 g2 , f2 g3 , f2 g4 ,

y una cualquier forma bilineal de R3 × M2×2 (R) se puede escribir como


T = α11 f1 g1 + α12 f1 g2 + α13 f1 g3 + α13 f1 g4 + α21 f2 g1 + α22 f2 g2 + α23 f2 g3 + α24 f2 g4 ,

con αij ∈ R. De donde

   
x a b
T , = α11 xa + α12 xb + α13 xc + α13 xd +
y c d
+α21 ya + α22 yb + α23 yc + α24 yd.

Se puede observar que con la matriz y el vector


 
  a
α11 α12 α13 α14 b
,  
α21 α22 α23 α24 c
d

se tiene
 
      a
x a b  α11 α12 α13 α14 
b .

T , = x y
y c d α21 α22 α23 α24  c 
d

373
32.6. Ejercicios
1.- Para el espacio R3 × M2×2 (R)

a) Obtener una base de sus formas bilineales.

b) Obtener la expresión generales sus formas bilineales.

c) Obtener la expresión matricial sus formas bilineales

374
Capítulo 33
Formas cuadráticas
En este capítulo estudiaremos las formas cuadráticas y algunas de sus apli-
caciones en geometría y física.

En particular, estudiamos la forma cuadrática que fundamenta la relativi-


dad especial y que implica las transformaciones de Lorentz.

33.1. Denición
Supongamos que V es un espacio vectorial sobre el campo K y que la
función
T :V ×V →K

es una forma bilineal. Entonces podemos denir la función de V en K

q:V →K

de tal forma que si v ∈ V se tiene la regla

q(v) = T (v, v).

A esta función se le llama forma cuadrática.

375
33.2. Matriz asociada
Si q es una forma cuádrica, entonces es una forma bilineal y debe tener
asociada una matriz.

Para encontrar la matriz asociada, supongamos que V tiene dimensión n y


que los vectores
v1 , v2 , · · · , vn
forman una base de sus bases. Por lo que si v ∈ V, entonces existen n elementos
de K
λ1 , λ2 , · · · , λn ,
tales que
v = λ1 v1 + λ2 v2 + · · · + λn vn
y por lo tanto tenemos
q(v) = T (v, v)
= T (λi vi , λj vj )
= λi T (vi , vj )λj
 
λ1
  λ2 

= λ1 λ2 · · · λn η  .. 
.
λn
con
ηij = T (vi , vj ), i, j = 1, 2, · · · , n.

Se puede observar que deniendo



λ1
 λ2 
X =  ..  ,
 
.
λn
se tiene
q(v) = q (X) = X T ηX. (33.1)

376
33.3. Transformaciones invariantes
En la geometría y en varias áreas de la física son importantes las transfor-
maciones lineales

X ′ = ΛX, Λ ∈ Mn×n (R) (33.2)

que dejan invariante a la forma cuádratica (33.1), es decir, las transformaciones


lineales que cumplen

q (X ′ ) = q (X) . (33.3)

Note que considerando la expresión (33.1), la igualdad (33.3) se puede escribir


como
X ′T ηX ′ = X T ηX. (33.4)
Además, se puede observar que sustituyendo la ecuación (33.2) en la igualdad
(33.4) se obtiene
X ′T ηX ′ = ΛX T ηΛX


= X T ΛT ηΛ X


= X T ηX,

de donde
X T ΛT ηΛ X = X T ηX.


Esta última igualdad se cumple si


ΛT ηΛ = η (33.5)
que implica
det ΛT ηΛ = det η.


Así, tomando en cuenta que det ΛT = det Λ, se obtiene


det ΛT (det η) (det Λ) = (det Λ)2 (det η) = det η. (33.6)


Por lo que si η es una matriz invertible, es decir si


det η ̸= 0,

377
entonces la ecuación (33.6) implica
(det Λ)2 = 1,

esto es
det Λ = ±1.

Por lo tanto, cuando η es invertible, las matrices que dejan invariante la


forma cuádratica (33.1) son invertibles.

Si η es invertible, podemos denir el conjunto de matrices invertibles

Gη = Λ ∈ Mn×n (R)|ΛT ηΛ = η,

det η ̸= 0 .

Con el producto de matrices, el conjunto Gη es un grupo.

Antes de realizar la prueba recordemos que para que Gη sea un grupo debe
cumplir las siguientes propiedades:

1) Axioma de cerradura:

Λ1 , Λ2 ∈ Gη =⇒ Λ1 Λ2 ∈ Gη .

2) Axioma de asociatividad:

Λ1 , Λ2 , Λ3 ∈ Gη , =⇒ Λ1 (Λ2 · λ3 ) = (Λ1 Λ2 ) Λ3 .

3) Axioma del neutro:

∃I ∈ Gη , ∀Λ ∈ Gη =⇒ Λ · I = I · Λ = Λ.

378
4)Axioma del inverso:

∀Λ ∈ Gη , ∃Λ−1 ∈ Gη , ΛΛ−1 = Λ−1 Λ = I.

Se puede observar que I ∈ Gη , por lo que se cumple el axioma del neutro.


Además, debido a que los elementos de Gη son matrices, se cumple el axioma
de la asociatividad. Por lo tanto, para mostrar que Gη es un grupo solo debe-
mos mostrar el axioma de la cerradura y el axioma del inverso.

Primero mostraremos el axioma de la cerradura, para ello supongamos que


Λ1 , Λ2 ∈ Gη , entonces se cumple

ΛT1 ηΛ1 = η, ΛT2 ηΛ2 = η,

por lo que
(Λ1 Λ2 )T η (Λ1 Λ2 ) = ΛT2 ΛT1 ηΛ1 Λ2


= ΛT2 ηΛ2
= η,

es decir,
(Λ1 Λ2 )T η (Λ1 Λ2 ) = η.

De donde, si Λ1 , Λ2 ∈ Gη , se cumple Λ1 Λ2 ∈ Gη , lo que prueba que se cumple


el axioma de la cerradura.

Ahora probaremos el axioma del inverso. Supongamos que Λ ∈ Gη , entonces


sabemos que existe la matriz inversa Λ−1 y se cumple la ecuación (33.5). Por
lo tanto, de la ecuación (33.5), se obtiene
T T
Λ−1 Λ−1 ΛT ηΛ

η =
T
= Λ−1 ΛT ηΛ
T
= ΛΛ−1 ηΛ
= ηΛ,

379
es decir,
T
Λ−1 η = ηΛ,

de donde
T
Λ−1 ηΛ−1 = ηΛΛ−1 = η,

esto es,
T
Λ−1 ηΛ−1 = η.

Esta igualdad nos indica que si Λ−1 ∈ Gη . Por lo tanto, si Λ ∈ Gη , entoces


Λ−1 ∈ Gη , en otras palabras, se cumple el exioma del inverso.

Por lo tanto, el conjunto Gη es un grupo, es decir, si det η ̸= 0 el conjunto


de las transformaciones lineales que dejan invariante la forma cuadrática (33.1)
es un grupo. Estos tipos de grupos son fundamentales para diferentes leyes de
la física.

33.4. Distancia
Como primer ejemplo, supongamos que V = Rn y
η = I.

Entonces, si

x1
 x2 
X =  ..  ,
 
 . 
xn

la forma cuadrática es

q(X) = X T IX = X T X = xi δij xj = x21 + x22 + · · · + x2n = r2 .

Note que con la matriz identidad, la forma cuadrática nos da la distancia eu-
clidiana de un vector de Rn al origen. Por esta razón, se dice que la matriz
identidad es la métrica del espacio euclidiano.

380
En particular, para R3 se tiene la forma cuadrática

r2 = x21 + x22 + x23 . (33.7)

Esta cantidad es muy importante en la Física. Por ejemplo, la fuerza gravita-


cional entre dos cuerpos masivos depende de las masas y del inverso de r2 . De
la misma forma, la fuerza eléctrica entre dos partículas cargadas depende de
las cargas y del inverso de r2 . En este caso, el grupo que deja invariante a la
forma cuadrática r2 es el grupo de rotaciones y se ha mostrado experimental-
mente que la fuerza gravitacional y la fuerza electrostática son invariantes bajo
rotaciones. Adicionalmente, a nivel cosmológico, de forma observacional se ha
mostrado que aspecto del universo no cambia según el ángulo con el que se
enfocan los telescopios. Por lo tanto, cualquier teoría cosmológica que intente
describir al universo debe ser invariante bajo rotaciones.

Así, la forma cuadrática (33.7) y su grupo de transformaciones que la dejan


invariantes son importantes para describir la naturaleza.

33.5. Pseudodistancia
Ahora veamos un ejemplo en la relativida especial de Einstein. En esta
teoría, si c es la velocidad de la luz, t es el tiempo y x, y, z son las coordenadas
del espacio tridimensional, un cuadrivector se dene como
 
ct
x
X=
y.
 (33.8)
z

En este espacio-tiempo se dene la llamada métrica de Minkowski como la


matriz
 
1 0 0 0
0 −1 0 0
η=
0 0 −1 0  .

0 0 0 −1

381
De donde, se puede construir la forma cuadrática
q(X) = s2 = X T ηX
  
1 0 0 0 ct
 0 −1 0 0  x
 
= ct x y z  
0 0 −1 0   y 
0 0 0 −1 z
= c2 t2 − x2 − y 2 − z 2 ,

es decir
s2 = c2 t2 − x2 − y 2 − z 2 . (33.9)
A esta forma cuadrática se le llama pseudodistancia y fue propuesta por A.
Einstein para poder explicar que la velocidad de luz es la misma para cualquier
observador que se mueve con velocidad constante con respecto a la fuente de
luz. Así, la forma cuadrática es la piedra angular de la relatividad de A. Eins-
tein.

Al grupo de transformaciones lineales que dejan invariantes la forma cua-


drática (33.9) se le llama transformaciones de Lorentz. Un estudio completo
del grupo de Lorentz rebasa los propósitos de este libro, pero veremos algu-
nos miembros de este grupo y algunas de sus implicaciones. Por simplicidad,
consideremos la matriz
 
a1 a2 0 0
 a3 a4 0 0
Λ=
0 0
,
1 0
0 0 0 1

entonces, la ecuación
ΛT ηΛ = η

382
se puede escribir explícitamente como
   
a1 a3 0 0 1 0 0 0 a1 a2 0 0
 a2 a4 0 0 0 −1 0
  0   a3 a4
  0 0
ΛT ηΛ =  
0 0 1 0 0 0 −1 0 0 0 1 0
0 0 0 1 0 0 0 −1 0 0 0 1
  
a1 a3 0 0 a1 a2 0 0
 a2 a4 0 0 −a3 −a4 0 0
=   
0 0 1 0  0 0 −1 0 
0 0 0 1 0 0 0 −1
 
a21 − a23 a1 a2 − a3 a4 0 0
a1 a2 − a3 a4 a22 − a24 0 0
=  
 0 0 −1 0 
0 0 0 −1
 
1 0 0 0
0 −1 0 0
= η= ,
0 0 −1 0 
0 0 0 −1
que implica
a21 − a23 = 1, (33.10)
a22 − a24 = −1, (33.11)
a1 a2 − a3 a4 = 0. (33.12)
Ahora, deniendo
v
β = ,
c
1
γ = p ,
1 − β2
se obtienen las soluciones
a1 = a4 = γ,
a2 = a3 = −βγ.
Por lo que una transformación de Lorentz está dada por
 
γ −βγ 0 0
−βγ γ 0 0
Λ=
 0
,
0 1 0
0 0 0 1

383
de donde
ct′
    
γ −βγ 0 0 ct
 x′  −βγ γ 0 0  x
 ′ =   ,
y   0 0 1 0  y 
z′ 0 0 0 1 z
que implica
ct′ = γ (ct − βx) ,
x′ = γ (x − βct) ,
y′ = y,
z′ = z.

Uno de los postulados que impuso Albert Einstein para construir su teoría
especial de la relatividad es que las leyes de la física deben ser invariantes bajo
las transformaciones de simetría de la forma cuadrática (33.9). Otra forma de
expresar este postulado es que las leyes de la física deben ser invariantes bajo
las transformaciones de Lorentz.

Se puede observar que la ecuación


ct′ = γ (ct − βx)

nos indica que el tiempo no es un cantidad absoluta, pues depende de β que


a su vez depende de la velocidad del observador v. Esta ley de transformación
ha sido comprobada experimentalmente de diversas formas. El hecho de que
el tiempo no sea una variable absoluta, si no que dependa del observador, fue
un paso revolucionario en la Física y en todas la ciencias.

Al estudiar las simetrías de la ecuación de onda, H. Lorentz descrubrió las


transformaciones que llevan su nombre. Sin embargo, fue Albert Einstein quien
propuso cambiar todas las leyes de la física para que fueran compatibles con
dichas transformaciones.

Hendrik A. Lorentz (1853-1928) fue un físico y matemático holandés. En su


infancia recibió una eduación en la cual podía elegir los temas y el ritmo para

384
abordarlos. Se graduó de física y matemáticas en la universidad de Leyden.
Posteriormente, trabajó como profesor e inició su doctorado en la misma uni-
versidad. Como investigador realizó trabajos que dieron claridad sobre temas
de óptica y diversos fenómenos electromagnéticos, también escribió un tratado
de análisis matemático. Uno de sus trabajo más relevantes fue sobre el estudio
de las simetrías de las ecuaciones de Lorentz, en donde encontró las transfor-
maciones que llevan su nombre. Este trabajo en un inicio fue mal recibido, pero
diferentes trabajos experimentales le dieron la razón y permitieron a Einstein
contruir la relatividad especial. Además, junto con su alumno P. Zeeman reali-
zó diversos estudios sobre los efectos de un campo magnético intenso en una
fuente de luz de sodio, en donde descubrieron el llamado efecto Zemman. Por
dicho trabajo ambos recibieron el premio Nobel de física en 1902.

33.6. Espacio de anti de Sitter


Otra forma cuadrática es la que dene al llamado espacio de anti de Sitter.

Este espacio se dene en R2+d . Por lo que podemos tomar


 
x0
x0′ 
 
 x1 
X = x 
 
 2
 .. 
 . 
xd

y la matriz asociada es η
η00 = 1, η0′ 0 = η00′ = 0, η0i = ηi0 = 0, i = 1, 2, · · · , d,
η0′ 0′ = 1, η0′ i = ηi0′ = 0,
ηji = δij , j = 1, 2, · · · , d,

esto es
 
1 0 0 0 ··· 0
0
 1 0 0 ··· 0 

0 0 −1 0 ··· 0 
η = 0 .
 
0 0 −1 ··· 0
 .. .. .. .. .. 
 
. . . . ··· . 
0 0 0 0 ··· −1

385
De donde se obtiene la forma cuadrática
q(X) = X T ηX
  
1 0 0 0 ··· 0 x0
0
 1 0 0 ··· 0  x0′ 
 
0
 0 −1 0 ··· 0   x1 
= x0 x0 ′ x1 x2 · · · xd  0
 
0 0 −1 ··· 0   x2 
 .. .. .. .. ..   . 
.   .. 
  
. . . . ···
0 0 0 0 ··· −1 xd
2 2 2 2 2

= x0 + x0′ − x1 + x2 + · · · + xd ,

esto es
q(X) = x20 + x20′ − x21 + x22 + · · · + x2d . (33.13)


Debido a las dos componentes x0 , x0′ y a los dos primeros renglones de la


matriz η, se dice que es un espacio de dos tiempos y d coordenadas espaciales.
El grupo de transformaciones que deja invariante a la forma cuadrática (33.13)
se denota como
O(2, d).

El caso
q(X) = −R2 ,

es decir,
x20 + x20′ − x21 + x22 + · · · + x2d = −R2


dene un espacio hiperbólico. Este espacio es uno de los más estudiados en


Física debido a que tiene propiedades que permitener ralacionar diferentes
teorías.

386
Capítulo 34
Funciones multilineales y tensores
En este capítulo, extenderemos el concepto de función bilineal a función
multilineal. De la misma forma, extenderemos el concepto forma bilineal a for-
ma multilineal.

A las componentes de una forma multilineal se le suelen llamar tensores y


tienen una aplia gamma de aplicaciones en diferentes ingenierías y en la Física.

34.1. Denición
Sean V1 , V2 , · · · , VN espacios vectoriales en el campo K, se dice que la fun-
ción
T : V1 × V2 × · · · × VN → W

es multilineal si λ1 , λ2 ∈ K y
v1 ∈ V2 , v2 ∈ V2 , · · · , vi , vi′ ∈ Vi , · · · , vN ∈ VN

se cumple
T (v1 , v2 , · · · , λ1 vi + λ2 vi′ , · · · , vN )
= λ1 T (v1 , v2 , · · · , vi , · · · vN ) + λ2 T (v1 , v2 , · · · , vi′ , · · · vN )

En otras palabras, la función T es multilineal si es lineal en cada una de sus


entradas.

387
34.2. Funciones multilineales actuando en una
base
Ahora probaremos que si una funciones multilineales está denida en una
base del dominio V1 × V2 × · · · × VN automáticamente está denida en todo el
dominio. También recordemos que si dos funciones lineales coinciden en una
base del dominio, esa funciones multilineales son las mismas. Nos concentra-
remos en espacios vectoriales de dimensión nita.

Supongamos que V1 , V2 , · · · , VN son espacios vectoriales de dimensión nita


sobre K con
dim(V1 ) = n1 ,
dim(V2 ) = n2 .
..
.
dim(Vi ) = ni ,
..
.
dim(VN ) = nN .

También supongamos que la función


T : V1 × V2 × · · · × VN → W

es multilineal. Probaremos que si T está denida en una base de cada uno de


los espacios vectoriales Vi , automáticamente está denida en todo el dominio
V1 × V2 × · · · × VN . (34.1)
Para iniciar la prueba, notemos que si los vectores
v1i , v2i , · · · , vni i

son base del espacio vectorial Vi , entonces existen n1 n2 · · · nN vectores en W


tales que
T (vj1 1 , vj2 2 , · · · , vji i , · · · , vjN N ) = wj1 j2 ···jN , jk = 1, 2, · · · , nk . (34.2)
Ahora supongamos que vi ∈ Vi , entonces existen ni elementos en K
λ1i , λ2i , · · · , λni i ,

388
tales que
vi = λ1i v1i + λ2i v2i + · · · + λni i vni i ,
esto es
vi = λji i vji i , ji = 1, 2, · · · , ni
De donde,
T (v1 , v2 , · · · , vi , · · · , vN ) = T (λj1 1 vj1 1 , λj2 2 vj2 2 , · · · , λji i vji i , · · · , λjN N vjN N )
= λj1 1 λj2 2 · · · λji i · · · λjN N T (vj1 1 , vj2 2 , · · · , vji i , · · · , vjN N )
= λj1 1 λj2 2 · · · λjN N wj1 j2 ···jN ,
esto es
(34.3)
T (v1 , v2 , · · · , vN ) = λj1 1 λj2 2 · · · λjN N wj1 j2 ···jN .
Por lo tanto, si una función multilineal se dene sobre cada una de las bases
de los espacios Vi , automáticamente está denida sobre todo el dominio (34.1)

Ahora, supongamos que


G : V1 × V2 × · · · × VN → W
es otra función multiilineal que satisface (34.2), es decir, que cumple
G(v1j1 , v2j2 , · · · , viji , · · · , vN jN ) = wj1 j2 ···jN , jk = 1, 2, · · · , nk .
Por lo cual, considerando que G es una función multilineal y la igualdad (34.3),
se encuentra
G(v1 , v2 , · · · , vi , · · · , vN ) = G(λj1 1 vj1 1 , λj2 2 vj2 2 , · · · , λji i vji i , · · · , λjN N vjN N )
= λj1 1 λj2 2 · · · λji i · · · λjN N G(vj1 1 , vj2 2 , · · · , vji i , · · · , vjN N )
= λj1 1 λj2 2 · · · λjN N wj1 j2 ···jN
= T (v1 , v2 , · · · , vN )
esto es
G(v1 , v2 , · · · , vN ) = T (v1 , v2 , · · · , vN )
de donde
G = T.
Por lo tanto, si dos funciones multilineales coinciden en una base del do-
minio
V1 × V2 × · · · × VN ,
coinciden en todo ese espacio y por lo tanto son iguales.

389
34.3. Formas multilineales
Sean V1 , V2 , · · · , VN espacios vectoriales en el campo K, si la función

T : V1 × V2 × · · · × VN → K

es multilineal se dice que T que es una forma multilineal.

Con los espacios duales Vi∗ de los espacios vectoriales Vi se pueden construir
formas multlineales.

En efecto, supongamos que Vi son espacios vectoriales sobre K y Vi∗ son


sus espacios duales. Entonces, si fi ∈ Vi∗ podemos denir la función
T : V1 × V2 × · · · × VN → K

tal que si vi ∈ Vi se cumple

T (v1 , v2 , · · · , vi , · · · , vn ) = f1 (v1 )f2 (v2 ) · · · fi (vi ) · · · fN (vN ) (34.4)

Probaremos que T es una función multilineal y por lo tanto una forma mul-
tilineal. Para realizar la prueba supongamos que λ, γ ∈ K y vi , vi′ ∈ Vi de
donde
T (v1 , v2 , · · · , λvi + γvi′ , · · · , vn ) =
= f1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 )fi (λvi + γvi′ )fi+1 (vi+1 ) · · · fN (vN )
= f1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 ) (λfi (vi ) + γf (vi′ )) fi+1 (vi+1 ) · · · fN (vN )
= λf1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 )fi (vi )fi+1 (vi+1 ) · · · fN (vN ) +
+γf1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 )f (vi′ )fi+1 (vi+1 ) · · · fN (vN )
= λT (v1 , v2 , · · · , vi , · · · , vN ) + γT (v1 , v2 , · · · , vi′ , · · · , vN )

esto es
T (v1 , v2 , · · · , λvi + γvi′ , · · · , vN ) =
= λT (v1 , v2 , · · · , vi , · · · , vN ) + γT (v1 , v2 , · · · , vi′ , · · · , vn ).

Así, la función (34.4) es una forma multilineal.

De hecho, cualquier forma multilineal se puede expresar en términos de los


espacios duales Vi .

390
34.4. Base de las formas bilineales
Denamos el conjunto de formas bilineales

F M ul = {T : V1 × V2 × · · · × VN → K|T Multilineal}. (34.5)

Mostraremos que este espacio es generado por los espacios duales Vi∗ .

Para probar esta armación, recordemos que si Vi es un espacio vectorial


de dimensión ni sobre K y
{v1i , v2i , · · · vni i }

es una de sus bases, entonces el conjunto de funciones lineales


{f1i , f2i , · · · , fni i } (34.6)
que satisfacen
fki (vli ) = δkl , k, l = 1, 2, · · · , ni

forman una base del espacio dual Vi∗ .

Por lo que podemos construir el conjunto de n1 n2 · · · nN formas multilinea-


les
f i 1 1 f i2 2 f i 3 3 · · · f iN N ik = 1, 2, · · · , nk (34.7)
que tienen como dominio V1 × V2 × · · · × VN .

Primero probaremos que las formas mutilineales (34.7) general el espacio


(34.5). Así, supongamos que la función
T : V1 × V2 × · · · × VN → K

es una forma multilineal, entonces existen n1 n2 · · · nN elementos αi1 i2 ···iN en K


tal que
T (vi1 1 , vi2 2 , · · · , viN N ) = αi1 i2 ···iN .

De manera equivalente, podemos denir la función multilineal


T ′ = αi1 i2 ···iN fi1 1 fi2 2 · · · fiN N

391
Ahora supongamos que vi ∈ Vi , entonces existen ni elementos en K
λ1i , λ2i , · · · , λni i ,

tales que
vi = λ1i v1i + λ2i v2i + · · · + λni i vni i ,

esto es,
vi = λji i vji i , jI = 1, 2, · · · , ni

De donde,
T (v1 , v2 , · · · , vi , · · · , vN ) = T (λj1 1 vj1 1 , λj2 2 vj2 2 , · · · , λji i vji i , · · · , λjN N vjN N )
= λj1 1 λj2 2 · · · λji i · · · λjN N T (vj1 1 , vj2 2 , · · · , vji i , · · · , vjN N )
= λj1 1 λj2 2 · · · λjN N αj1 j2 ···jN ,

es decir,
T (v1 , v2 , · · · , vN ) = λj1 1 λj2 2 · · · λjN N αj1 j2 ···jN .

De forma analoga, como T ′ es multilineal, tenemos


T ′ (v1 , v2 , · · · , vN ) = (αi1 i2 ···iN fi1 1 fi2 2 · · · fiN N ) (v1 , v2 , · · · , vN )
= αi1 i2 ···iN fi1 1 (v1 )fi2 2 (v2 ) · · · fiN N (vN )
= αi1 i2 ···iN fi1 1 (λj1 1 vj1 1 )fi2 2 (λj2 2 vj2 2 ) · · · fiN N (λjN N vjN N )
= λj1 1 λj2 2 · · · λji i · · · λjN N αi1 i2 ···iN fi1 1 (vj1 1 )fi2 2 (vj2 2 ) · · · fiN N (vjN N )
= λj1 1 λj2 2 · · · λji i · · · λjN N αi1 i2 ···iN δi1 j1 δi2 j2 · · · δiN jN
= λj1 1 λj2 2 · · · λjN N αj1 j2 ···jN ,

de donde
T ′ (v1 , v2 , · · · , vN ) = λj1 1 λj2 2 · · · λjN N αj1 j2 ···jN = T (v1 , v2 , · · · , vN )

Así, cualquier forma multilineal se puede escribir como la siguiente combina-


ción lineal
T = αi1 i2 ···iN fi1 1 fi2 2 · · · fiN N .

392
Ahora probaremos que el conjunto de las formas multilineales (34.7) son
linealmente independientes. Para realizar esta prueba, supongamos que existen
nm elementos βi1 i2 ···iN ∈ K tales que

βi1 i2 ···iN fi1 1 fi2 2 · · · fiN N = 0,

entonces
0 = (βi1 i2 ···iN fi1 1 fi2 2 · · · fiN N ) (v11 , v12 , · · · , v1N )
= βi1 i2 ···iN fi1 1 (v11 )fi2 2 (v12 ) · · · fiN N (v1N )
= βi1 i2 ···iN δi1 1 δi2 2 · · · δ1N
= β11···1

es decir,
β11···1 = 0.

Con el mismo procedimiento, se puede mostrar que para cualesquiera i1 , i2 , · · · , iN


se obtiene
βi1 i2 ···iN = 0.

Entonces, el conjunto de funciones (34.7) es linealmente independiente y por


lo tanto es una base del espacio de las formas multilineales. Este resultado
implica que el espacio de las formas multilineales (34.5) tiene dimensión

dim (F M ul) = n1 n2 · · · nN .

En particular, si todos los espacios vectoriales son los mismos, V = Vi , tenemos


el espacio
F M ul(V ) = {T : V × V × · · · × → K|T Multilineal}.

que cuya dimensión es

dim (F M ul(V )) = nN .

393
34.5. Ejercicios
1.- Probar que si λ ∈ C, la función
T :C×C×C→C
tal que si z1 , z2 , z3 ∈ C se cumple
T (z1 , z2 , z3 ) = λz1 z2 z3
es multilineal.

2.- Para el espacio de las matrices Mn×n (R) probar que si λ ∈ R, la función
T : Mn×n (R) × Mn×n (R) × Mn×n (R) → Mn×n (R)
tal que si A1 , A2 , A3 ∈ Mn×n (R) se cumple
T (A1 , A2 , A3 ) = λA1 A2 A3
es una función multilineal.

3.- Para el espacio de las matrices Mn×n (R) probar que si λ ∈ R, la función
T : Mn×n (R) × Mn×n (R) × Mn×n (R) → R
tal que si A1 , A2 , A3 ∈ Mn×n (R) se cumple
T (A1 , A2 , A3 ) = λT r(A1 A2 A3 )
es una forma multilineal.

3.- Para R3 la función producto vectorial


T : R3 × R3 → R3
se dene tal que si
î = (1, 0, 0), ĵ = (0, 1, 0), k̂ = (0, 0, 1)
V = (v1 , v2 , v3 ), W = (w1 , w2 , w3 ),
se cumple
î ĵ k̂
T (V, W ) = V × W = v1 v2 v3
w1 w2 w3
= (v2 w3 − v3 w2 )î + (v3 w1 − v1 w3 )ĵ + (v1 w2 − v2 w1 )k̂.

394
Probar que T es una función bilineal.

4.- Para R3 la función triple producto vectorial


T : R3 × R3 → R3

es denida como
T (V1 , V2 , V3 ) = V1 × (V2 × V3 ) ,

con
V1 , V2 , V3 ∈ R3 ,

probar que T es una función multilineal.

5.- Para R3 la función triple producto escalar


T : R3 × R3 → R3

es denida como
T (V1 , V2 , V3 ) = V1 · (V2 × V3 ) ,

con
V1 , V2 , V3 ∈ R3 ,

probar que T es una forma multilineal.

395
Capítulo 35
Funciones alternantes, producto
exterior y derivada exterior
En este capítulo estudiaremos las funciones multilineales alternantes con
las cuales deniremos el producto exterior. También deniremos la derivada
exterior, la cual nos permite relacionar el álgebra lineal con varios conceptos
importantes del cálculo diferencial de varias variables como el rotacional y la
divergencia.

35.1. Funciones bilineales alternantes


Sea V y W espacios vectoriales sobre el campo K, supongamos que la
función
T :V ×V →W

es bilineal, se dice que T es una función alternante si ∀v ∈ V se cumple

T (v, v) = 0.

Una propiedad de estas funciones es que son antisimétricas. Esto es si T es


una función alternante, entonces se cumple

T (v, u) = −T (u, v) ∀u, v ∈ V.

396
Para probar esta armación, notemos que debido a que T es una función
bilineal alternante se encuentra
0 = T (u + v, u + v)
= T (u, u + v) + T (v, u + v)
= T (u, u) + T (u, v) + T (v, u) + T (v, v)
= 0 + T (u, v) + T (v, u) + 0
= T (u, v) + T (v, u),

esto es ,
T (u, v) + T (v, u) = 0,

de donde
T (u, v) = −T (v, u).

Que es lo que queríamos demostrar.

35.2. Ejercicios
1.- En la Mecánica Clásica es importante el espacio fase
x, p = mẋ.

y las funciones en dicho espacio F (x, p). Ahora supongamos que tenemos dos
funciones del espacio fase
F1 : R2 → R,
F2 : R2 → R,

entonces se denen los paréntesis o corchetes de Poisson

∂F1 ∂F2 ∂F2 ∂F1


T (F1 , F2 ) = {F1 , F2 } = − .
∂x ∂p ∂x ∂p

Probar que los paréntesis de Poisson son bilineales y alternantes.

397
2.- En Mecánica Cuántica es importante el llamado conmutador entre ope-
radores lineales. Para denir el conmutador entre matrices, supongamos que
A1 , A2 ∈ Mn×n (C)

entonces deniremos el conmutador como

T (A1 , A2 ) = [A1 , A2 ] = A1 A2 − A2 A1 .

Probar que el conmutador es bilineal y alternante.

35.3. Función alternante actuando en una base


Sea V un espacio vectorial en el campo K y
T :V ×V →W

una función alternante. Debido a que T es una función bilineal queda com-
pletamente determinada si se dene en una base de V. Por lo que si V tiene
dimensión n y
{v1 , v2 , · · · , vn }

es una de sus bases, entonces T está completamente determinada en todo el


dominio V si se denen los vectores wij en W tales que
T (vi , vj ) = wij , i, j = 1, 2, · · · , n.

Pero debido a que se debe cumplir

T (vi , vi ) = 0, T (vi , vj ) = −T (vj , vi ),

entonces T está completamente denida si se denen los vectores wij en W


tales que
T (vi , vj ) = wij , i < j. (35.1)

Ahora, si u, v ∈ V, entonces existen n elementos en K


λ1 , λ2 , · · · , λn ,

398
tal que
u = λ11 v1 + λ12 v2 + · · · + λ1n vn ,
y existen n elementos en K
λ21 , λ22 , · · · , λ2n ,
tal que
v = λ21 v1 + λ22 v2 + · · · + λ2n vn .
Por lo tanto,
T (u, v) = T (λ1j1 vj1 , λ2j2 vj2 )
= λ1j1 λ2j2 T (vj1 , vj2 ), j1 , j2 = 1, 2, · · · , n,
es decir,
T (u, v) = λ1j1 λ2j2 T (vj1 , vj2 ).
De forma explícita se tiene
T (u, v) = λ11 λ22 T (v1 , v2 ) + λ11 λ23 T (v1 , v3 ) + · · · + λ11 λ2n T (v1 , vn ) +
+λ12 λ21 T (v2 , v1 ) + λ12 λ23 T (v2 , v3 ) + · · · + λ12 λ2n T (v2 , vn ) +
..
.
+λ1n λ21 T (vn , v1 ) + λ1n λ22 T (vn , v2 ) + · · · + λ1n λ2n−1 T (vn , vn−1 ),
que se puede reescribir como
T (u, v) = λ11 λ22 T (v1 , v2 ) + λ12 λ21 T (v2 , v1 ) + · · · + λ11 λ2n T (v1 , vn ) + λ1n λ21 T (vn , v1 ) +
+λ12 λ23 T (v2 , v3 ) + λ13 λ22 T (v3 , v2 ) + · · · + λ12 λ2n T (v2 , vn ) + λ1n λ22 T (vn , v2 ) +
+λ13 λ24 T (v3 , v4 ) + λ14 λ23 T (v4 , v3 ) + · · · + λ13 λ2n T (v3 , vn ) + λ1n λ23 T (vn , v3 ) +
..
.
+λ1n−1 λ2n T (vn−1 , vn ) + λ1n λ2n−1 T (vn , vn−1 ).
Entonces, como T es una función alternante se tiene
T (u, v) = (λ11 λ22 − λ12 λ21 ) T (v1 , v2 ) + · · · + (λ11 λ2n − λ1n λ21 ) T (v1 , vn ) +
+ (λ12 λ23 − λ13 λ22 ) T (v2 , v3 ) + · · · + (λ12 λ2n − λ1n λ22 ) T (v2 , vn ) +
+ (λ13 λ24 − λ14 λ23 ) T (v3 , v4 ) + · · · + (λ13 λ2n − λ1n λ23 ) T (v3 , vn ) +
..
.
+ (λ1n−1 λ2n − λ1n λ2n−1 ) T (vn−1 , vn ).

399
Así, con la convención de Einstein se tiene

T (u, v) = (λ1j1 λ2j2 − λ1j2 λ2j1 ) T (vj1 , vj2 ), j1 < j2 . (35.2)

Además, recordemos que el tensor de Levi-Civita

ϵij

satisface
ϵ12 = 0,
ϵi1 i2 = −ϵi1 i2 , i1 , i2 = 1, 2.

Por lo que la función bilineal alternante (35.2) se puede expresar como

T (u, v) = ϵi1 i2 λi1 j1 λi2 j2 T (vj1 , vj2 ), (35.3)

con
i1 , i2 = 1, 2, j1 , j2 = 1, 2, · · · , n, j1 < j2 .

35.4. Dimensión de funciones bilineales alternan-


tes
Supongamos que V tiene dimensión n y
{v1 , v2 , · · · , vn } (35.4)
es una de sus bases. Entonces considerando el resultado (35.1) cualquier función
bilineal artenante se puede escribir como combinación de

T (vi , vj ), i < j, i, j = 1, 2, · · · , n.

400
De forma explícita tenemos

T (v1 , v2 ), T (v1 , v3 ), ··· , T (v1 , vn ),


T (v2 , v3 ), T (v2 , v4 ), ··· , T (v2 , vn ),
T (v3 , v4 ), T (v3 , v5 ), ··· , T (v3 , vn ),
..
.
T (vn−2 , vn−1 ), T (vn−2 , vn ),
T (vn−1 , vn ),

los cuales, en total son

n(n − 1)
(n − 1) + (n − 2) + · · · + 2 + 1 =
2

elementos linealmente independientes.

Así, cualquier función bilineal alternante se puede escribir como combina-


ción lineal de
n(n − 1)
2

términos linealmente independientes. Entonces, si la dimensión de V es n, la


dimensión del espacio de las funciones alternantes en ese espacio es n(n − 1)/2.

35.4.1. Ejemplos
35.4.2. Caso de dimensión 2
Supongamos que V tiene dimensión 2 y que
{v1 , v2 }.

es una de sus bases. Entonces, si u, v ∈ V existen


λ11 , λ12 , λ21 , λ22 ∈ K,

401
tal que
u = λ11 v1 + λ12 v2 ,
v = λ21 v1 + λ22 v2 .
Por lo que, considerando la expresión (35.2), se puede observar que, en este
caso, todas las funciones alternantes se pueden escribir como

T (u, v) = (λ11 λ22 − λ12 λ21 ) T (v1 , v2 ). (35.5)

Además, deniendo la matriz


 
λ11 λ12
M= ,
λ21 λ22

se obtiene
detM = λ11 λ22 − λ12 λ21

de donde
T (u, v) = (det M ) T (v1 , v2 ) .

35.4.3. Caso de dimensión 3


Supongamos que V tiene dimensión 3 y que
{v1 , v2 , v3 }
es una de sus bases. Entonces, si u, v ∈ V existen
λ11 , λ12 , λ13 , λ21 , λ22 , λ23 ∈ K
tal que
u = λ11 v1 + λ12 v2 + λ13 v3 ,
v = λ21 v1 + λ22 v2 + λ23 v3 ,
Así, usando la expresión (35.2), todas las funciones alternantes se pueden es-
cribir como

T (u, v) = (λ11 λ22 − λ12 λ21 ) T (v1 , v2 ) + (λ11 λ23 − λ23 λ21 ) T (v1 , v3 )+
+ (λ12 λ23 − λ13 λ22 ) T (v2 , v3 ).

402
35.5. Producto exterior
Si T es una función alternante, se dene el producto exterior o cuña como

T (u, v) = u ∧ v.

Con esta deción se tiene

v ∧ v = 0, ∀v ∈ V,
u ∧ v = −v ∧ u, ∀v, u ∈ V.

Por lo que si V tiene dimensión n y


{v1 , v2 , · · · , vn }

es una de sus bases, entonces considerando el resultado (35.1) el producto


exterior entre los elementos de la base se escribe como

vi ∧ vj , i < j, i, j = 1, 2, · · · , n. (35.6)

De forma explícita tenemos

v1 ∧ v2 , v1 ∧ v3 , ··· , v1 ∧ vn ,
v2 ∧ v3 , v2 ∧ v4 , ··· , v2 ∧ vn ,
v3 ∧ v4 , v3 ∧ v5 , ··· , v3 ∧ vn ,
..
.
vn−2 ∧ vn−1 , vn−2 ∧ vn ,
vn−1 ∧ vn ,

los cuales en total son


n(n − 1)
2

403
productos exteriores linealmente independientes.

El producto exterior entre cualesquiera dos elementos de V se puede escribir


en términos de los productos exteriores (35.6). En efecto, si u, v ∈ V, entonces
existen n elementos en K
λ11 , λ12 , · · · , λ1n ,

tales que
u = λ11 v1 + λ12 v2 + · · · + λ1n vn ,

y existen n elementos en K
λ21 , λ22 , · · · , λ2n ,

tales que
v = λ21 v1 + λ22 v2 + · · · + λ2n vn .

Por lo que, considerando el resultado (35.2), el producto exterior entre u y v


se escribe como

u ∧ v = (λ1j1 λ2i2 − λ1i2 λ2j1 ) (vj1 ∧ vj2 ) , i1 < i2 .

o usando el tensor de Levi-Civita

u ∧ v = ϵi1 i2 λi1 j1 λi2 j2 (vj1 ∧ vj2 ),

con
i1 , i2 = 1, 2, j1 , j2 = 1, 2, · · · , n, j1 < j2 . (35.7)

35.6. Ejemplos
35.6.1. Caso de dimensión 2
Supongamos que V tiene dimensión 2 y que
{v1 , v2 }

404
es una de sus bases. Entonces, si u, v ∈ V existen λ11 , λ12 , λ21 , λ22 ∈ K tales
que
u = λ11 v1 + λ12 v2 ,
v = λ12 v1 + λ22 v2 .
Así, en este caso el producto exterior entre u y v tienen la forma

u ∧ v = (λ11 λ22 − λ12 λ21 ) (v1 ∧ v2 ).

Además, deniendo la matriz


 
λ11 λ12
M= ,
λ21 λ22

se obtiene
detM = λ11 λ22 − λ12 λ21

de donde
u ∧ v = (det M ) (v1 ∧ v2 ) .

35.6.2. Caso de dimensión 3


Ahora supongamos que V tiene dimensión 3 y que
{v1 , v2 , v3 }
es una de sus bases. Entonces, si u, v ∈ V existen
λ11 , λ12 , λ13 , λ21 , λ22 , λ23 ∈ K
tales que
u = λ11 v1 + λ12 v2 + λ13 v3 ,
v = λ21 v1 + λ22 v2 + λ23 v3 ,
Así, usando la expresión (35.2), el producto exterior se pueden escribir como

u ∧ v = (λ11 λ22 − λ12 λ21 ) (v1 ∧ v2 ) + (λ11 λ23 − λ23 λ21 ) (v1 ∧ v3 )+
+ (λ12 λ23 − λ13 λ22 ) (v2 ∧ v3 ).

405
35.7. Funciones multilineales alternantes
Sea V un espacio vectorial sobre el campo K y tiene dimensión n, entonces
podemos construir el espacio vectorial
V m = V × V ··· × V .
| {z }
m

Por lo que si W un espacio vectorial sobre el campo K y la función

T : V m → W, m≤n (35.8)

es función multilineal, se dice que T es alternante si para todo u ∈ V, ui ∈ V

(u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , u, uj+1 , · · · , um ) ∈ V m ,

con
i ̸= j

se cumple

T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ) = 0.

Además, se dice que una función multilineal T es totalmente antisimétrica


si al intercambiar dos vectores del dominio V m la función cambia en un signo.
En otras palabras, T es totalmente antisimétrica si para todo i ̸= j se cumple

T (u1 , u2 , · · · , ui−1 , ui , ui+1 , · · · , uj−1 , uj , uj+1 , · · · , un ) =


−T (u1 , u2 , · · · , ui−1 , uj , ui+1 , · · · , uj−1 , ui , uj+1 , · · · , un ).

Si T es una función multilineal alternante, entonces es totalmente antisi-


métrica. Para probar esta armación, primero notemos que
T (u1 , u2 , · · · , ui−1 , u + v, ui+1 , · · · , uj−1 , u + v, uj+1 , · · · , un ) = 0,

406
de donde
0 = T (u1 , u2 , · · · , ui−1 , u + v, ui+1 , · · · , uj−1 , u + v, uj+1 , · · · , un ) =
= T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , u + v, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u + v, uj+1 , · · · , un ) =
= T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ) +
+ T (u1 , v2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) =
= T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ),

así
0 = T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) +
+T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ).

que implica
T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) =
−T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ).

Esto muestra que si T es una función alternate entonces es totalmente antisi-


métrica.

Ahora, como T es una función multilineal está completamente denida si


se dene en una base de V. Por lo que si V tiene dimensión n y
{v1 , v2 , · · · , vn }

es una de sus bases, entonces los vectores


T (vi1 , vi2 , · · · , vim ), i1 , i2 , · · · , im = 1, 2, · · · , n

denen complentamente a la función multilineal T.

Pero como T es una función alternante, es diferente de cero en el arreglo


de vectores
(vi1 , vi2 , · · · , vim )

407
solo si se cumple
vik ̸= vil , k, l = 1, 2, · · · , m.
Así, de la base de n vectores debemos tomar combinaciones de m elementos
sin repetición, el total de estas combinaciones sin repetición son

n!
D= .
(n − m)!m!

Esto nos indica que el espacio de las funciones alternantes (35.8) tiene dimen-
sión D.

Así, si T es una función alternante, los únicos vectores diferentes de cero


son

T (vi1 , vi2 , · · · , vim ), i1 < i2 < i3 < · · · < im .

Por lo que si
u1 , u2 , · · · , um ∈ V
existen
n!
(n − m)!m!

constantes αi1 i2 ···im ∈ K tales que

T (u1 , u2 , · · · , um ) = αi1 i2 ···im T (vi1 , vi2 , · · · , vim ), i1 < i2 < i3 < · · · < im .

Ahora, usando la notación del producto exterior, si


u1 , u2 , · · · , um ∈ V
se dene

T (u1 , u2 , · · · , um ) = u1 ∧ u2 ∧ · · · ∧ um .

408
En particular, para los elementos de la base de V tenemos

T (vi1 , vi2 , · · · , vim ) = vi1 ∧ vi2 ∧ · · · ∧ vim .

de donde

u1 ∧ u2 ∧ · · · ∧ um = αi1 i2 ···im vi1 ∧ vi2 ∧ · · · ∧ vim , i1 < i2 < i3 < · · · < im .

35.8. Caso de dimensión 3


Si V tiene dimensión 2, las únicas funciones multilineales alternantes que
podemos tener son las bilineales, las cuales ya estudiamos.

Ahora, si la dimensión de V es 3, las únicas funciones multilineales alter-


nantes son de la forma
T2 : V × V → W,
T3 : V × V × V → W.

Podemos obsevar que T2 es una función bilineal alternante, ya estudiada ante-


riormente. Por lo que nos concentraremos en las funciones multilineales alter-
nantes de la forma T3 .

Para iniciar supongamos que


{v1 , v2 , v3 }

es una de las bases de V , entonces, si u, v, w ∈ V existen


λ11 , λ12 , λ13 , λ21 , λ22 , λ23 , λ31 , λ32 , λ33 ∈ K

tal que
u = λ11 v1 + λ12 v2 + λ13 v3 ,
v = λ21 v1 + λ22 v2 + λ23 v3 ,
w = λ31 v1 + λ32 v2 + λ33 v3 .

409
Además, T3 se puede expresar en términos de

v1 ∧ v2 ∧ v3 ,

en este caso tenemos


u ∧ v ∧ w = (λ11 v1 + λ12 v2 + λ13 v3 ) ∧ (λ21 v1 + λ22 v2 + λ23 v3 ) ∧ (λ31 v1 + λ32 v2 + λ33 v3 )
= λ11 v1 ∧ (λ21 v1 + λ22 v2 + λ23 v3 ) ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ12 v2 ∧ (λ21 v1 + λ22 v2 + λ23 v3 ) ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ13 v3 ∧ (λ21 v1 + λ22 v2 + λ23 v3 ) ∧ (λ31 v1 + λ32 v2 + λ33 v3 )
= λ11 v1 ∧ (λ22 v2 + λ23 v3 ) ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ12 v2 ∧ (λ21 v1 + λ23 v3 ) ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ13 v3 ∧ (λ21 v1 + λ22 v2 ) ∧ (λ31 v1 + λ32 v2 + λ33 v3 )
= λ11 v1 ∧ λ22 v2 ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ11 v1 ∧ λ23 v3 ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ12 v2 ∧ λ21 v1 ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ12 v2 ∧ λ23 v3 ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ13 v3 ∧ λ21 v1 ∧ (λ31 v1 + λ32 v2 + λ33 v3 ) +
+λ13 v3 ∧ λ22 v2 ∧ (λ31 v1 + λ32 v2 + λ33 v3 )
= λ11 λ22 λ33 (v1 ∧ v2 ∧ v3 ) +
+λ11 λ23 λ32 (v1 ∧ v3 ∧ v2 ) +
+λ12 λ21 λ33 (v2 ∧ v1 ∧ v3 ) +
+λ12 λ23 λ31 (v2 ∧ v3 ∧ v1 ) +
+λ13 λ21 λ32 (v3 ∧ v1 ∧ v2 ) +
+λ13 λ22 λ31 (v3 ∧ v2 ∧ v1 ) ,
esto es,
u ∧ v ∧ w = λ11 λ22 λ33 (v1 ∧ v2 ∧ v3 ) + λ11 λ23 λ32 (v1 ∧ v3 ∧ v2 ) +
+λ12 λ21 λ33 (v2 ∧ v1 ∧ v3 ) + λ12 λ23 λ31 (v2 ∧ v3 ∧ v1 ) +
+λ13 λ21 λ32 (v3 ∧ v1 ∧ v2 ) + λ13 λ22 λ31 (v3 ∧ v2 ∧ v1 ) .
Ahora, considerando que el producto exterior es completamente antisimétrico
tenemos
u ∧ v ∧ w = λ11 λ22 λ33 (v1 ∧ v2 ∧ v3 ) − λ11 λ23 λ32 (v1 ∧ v2 ∧ v3 ) +
−λ12 λ21 λ33 (v1 ∧ v2 ∧ v3 ) + λ12 λ23 λ31 (v1 ∧ v2 ∧ v3 ) +
+λ13 λ21 λ32 (v1 ∧ v2 ∧ v3 ) − λ13 λ22 λ31 (v1 ∧ v2 ∧ v3 ) ,

410
es decir ,

u∧v∧w = λ11 λ22 λ33 − λ11 λ23 λ32 − λ12 λ21 λ33 + λ12 λ23 λ31 +

+λ13 λ21 λ32 − λ13 λ22 λ31 (v1 ∧ v2 ∧ v3 ) . (35.9)

Además, reordenando términos tenemos



u∧v∧w = λ11 λ22 λ33 − λ11 λ32 λ23 − λ21 λ12 λ33 + λ21 λ13 λ32

+λ31 λ12 λ23 − λ31 λ13 λ22 (v1 ∧ v2 ∧ v3 ) .

Por lo que, usando el tensor de Levi-Civita en tres dimesiones


ϵi1 i2 i3 , i1 , i2 , i3 = 1, 2, 3
se obtiene
 
u∧v∧w = ϵ1i2 i3 λ11 λi2 2 λi3 3 + ϵ2i2 i3 λ21 λi2 2 λi3 3 + ϵ3i2 i3 λ31 λi2 2 λi3 3 (v1 ∧ v2 ∧ v3 ) .

de donde

u ∧ v ∧ w = ϵi1 i2 i3 λi1 1 λi2 2 λi3 3 (v1 ∧ v2 ∧ v3 ) , i1 , i2 , i3 = 1, 2, 3.

que se puede escribir como

u1 ∧ u2 ∧ u3 = ϵi1 i2 i3 λi1 j1 λi2 j2 λi3 j3 (vj1 ∧ vj2 ∧ vj3 ) ,


i1 , i2 , i3 , j1 , j2 , j3 = 1, 2, 3, j1 < j2 < j3 .

Adicionalmente, se puede observar que deniendo la matriz


 
λ11 λ12 λ13
M = λ21 λ22 λ23  ,
λ31 λ32 λ33

411
se obtiene

detM = λ11 (λ22 λ33 − λ23 λ32 ) − λ12 (λ21 λ33 − λ23 λ31 ) + λ13 (λ21 λ32 − λ22 λ31 ) ,

que coincide con la expresión (35.9). Por lo tanto, se encuentra

u ∧ v ∧ w = (det M ) (v1 ∧ v2 ∧ v3 ) .

También se puede observar que si denimos los vectores

⃗λ = (λ1 , λ2 , λ3 ), ⃗γ = (γ1 , γ2 , γ3 ), ζ⃗ = (ζ1 , ζ2 , ζ3 ),

usando el llamado triple producto vectorial se encuentra

 
u ∧ v ∧ w = ⃗λ · ⃗γ × ζ⃗ (v1 ∧ v2 ∧ v3 ) .

35.9. Caso de dimensión n


Ahora supongamos que V es un espacio vectorial sobre K con
dim (V ) = n.

En este caso, podemos construir funciones alternantes de las siguienes n − 1


formas diferentes
T2 : V × V → W,
T3 : V × V × V → W.
..
.
Tn : V n → W.

Además, supongamos que


v1 , v2 , · · · , vn

412
es una base del espacio vectorial V y que
Tm : V m → W
es una función alternante con
m ≤ n.
Entonces, si
u1 , u2 , · · · , um ∈ V
existen nm escalares λij en K tales que
u1 = λ11 v1 + λ12 v2 + · · · + λ1n vn ,
..
.
um = λm1 v1 + λm2 v2 + · · · + λmn vn ,
En este caso el producto exterior se puede expresar como

u1 ∧ u2 ∧ · · · ∧ um = ϵi1 i2 ···im λi1 j1 λi2 j2 · · · λim jm vj1 ∧ vj2 · · · ∧ vjm ,


i1 , i2 , · · · , im = 1, 2, · · · , m, j1 , j2 , · · · , jm = 1, 2, · · · , n,
j1 < j2 < · · · < jm .

En particular, si n = m tenemos
u1 = λ11 v1 + λ12 v2 + · · · + λ1n vn ,
..
.
un = λn1 v1 + λn2 v2 + · · · + λnn vn ,
por lo que se puede denir la matriz de n × n
 
λ11 · · · λ1n
M =  ... · · · .. 
. ,

λn1 · · · λnn

y se obtiene

u1 ∧ u2 ∧ · · · ∧ un = (detM ) v1 ∧ v2 ∧ · · · ∧ vn .

413
35.10. Derivada exterior
Consideremos la siguientes funciones
F : Rn → R.
Fa : Rn → R,
Fab : Rn → R, a, b = 1, 2, · · · , n.

A F la deniremos como una 0−Forma y su derivada exterior la deniremos


como
∂F a
dF = dx .
∂xa

También deniremos una 1−Forma como

f = Fa dxa .

y su derivada exterior la deniremos como

∂Fa b
df = dx ∧ dxa .
∂xb

Además, deniremos una 2−Forma como

g = Fab dxa ∧ dxb .

y su derivada exterior la deniremos como

∂Fab c
dg = dx ∧ dxa ∧ dxb .
∂xc

Siguiendo la misma lógica se puede denir una n-forma y su derivada exterior.

414
35.11. Caso n = 3
En este caso una 0-forma es una función como
F : R3 → R.

y su derivada exterior es

∂F 1 ∂F 2 ∂F 3
dF = dx + 2 dx + 3 dx
∂x1 ∂x ∂x

Ahora, del cálculo de varias variables sabemos que se cumple


 
⃗ = ∂F ∂F ∂F
∇F , , ,
∂x1 ∂x2 ∂x3

de donde
⃗ · d⃗x = ∂F dx1 + ∂F dx2 + ∂F dx3 ,
∇F
∂x1 ∂x2 ∂x3
lo por lo que
⃗ · d⃗x.
dF = ∇F

Ahora, si tenemos las funciones


F1 : R3 → R,
F2 : R3 → R,
F3 : R3 → R,

una 1−Forma se puede escribir como

ω = F1 dx1 + F2 dx2 + F3 dx3 .

415
Por lo que su derivada exterior es
dω = d(F1 dx1 ) + d(F2 dx2 ) + d(F3 dx3 )
 
∂F1 1 ∂F1 2 ∂F1 3
= dx + 2 dx + 3 dx ∧ dx1
∂x1 ∂x ∂x
 
∂F2 1 ∂F2 2 ∂F2 3
+ dx + 2 dx + 3 dx ∧ dx2
∂x1 ∂x ∂x
 
∂F3 1 ∂F3 2 ∂F3 3
+ dx + 2 dx + 3 dx ∧ dx3
∂x1 ∂x ∂x
∂F1 1 ∂F1 ∂F1
= 1
dx ∧ dx1 + 2 dx2 ∧ dx1 + 3 dx3 ∧ dx1
∂x ∂x ∂x
∂F2 1 ∂F 2 ∂F2
+ 1 dx ∧ dx2 + 2 dx2 ∧ dx2 + 3 dx3 ∧ dx2
∂x ∂x ∂x
∂F3 1 ∂F 3 ∂F 3
+ 1 dx ∧ dx3 + 2 dx2 ∧ dx3 + 3 dx3 ∧ dx3
 ∂x  ∂x  ∂x   
∂F2 ∂F1 1 2 ∂F 3 ∂F2 2 3 ∂F1 ∂F3
= − 2 dx ∧ dx + − 3 dx ∧ dx + − 1 dx3 ∧ dx1 ,
∂x1 ∂x ∂x2 ∂x ∂x3 ∂x
es decir

     
∂F2 ∂F1 1 2 ∂F3 ∂F2 2 3 ∂F1 ∂F3
dω = − 2 dx ∧ dx + − 3 dx ∧ dx + − 1 dx3 ∧ dx1 .
∂x1 ∂x ∂x2 ∂x ∂x3 ∂x

Ahora, del cálculo de varias variables sabemos que para la función vectorial

ω
⃗ = (F1 , F2 , F3 )

deniendo
î = (1, 0, 0), ĵ = (0, 1, 0), k̂ = (0, 0, 1)
el rotacional se dene como
î ĵ k̂
⃗ ×ω
∇ ⃗ = ∂ ∂ ∂
∂x1 ∂x2 ∂x3
F1 F2 F3
     
∂F3 ∂F2 ∂F1 ∂F3 ∂F2 ∂F1
= − 3 î + − 1 ĵ + − 2 k̂,
∂x2 ∂x ∂x3 ∂x ∂x1 ∂x

416
esto es
     
⃗ ×ω ∂F3 ∂F2 ∂F1 ∂F3 ∂F2 ∂F1
∇ ⃗ = − 3 î + − 1 ĵ + − 2 k̂,
∂x2 ∂x ∂x3 ∂x ∂x1 ∂x

de donde podemos denir

 

⃗ ×ω
 ∂F3 ∂F2
∇ ⃗ = − 3 ,
1 ∂x2 ∂x
 


 ∂F1 ∂F3
∇×ω⃗ = − 1 ,
2 ∂x3 ∂x
 

⃗ ×ω
 ∂F 2 ∂F 1
∇ ⃗ = − 2 .
3 ∂x1 ∂x

Por lo que la derivada exterior de una 1−Forma se puede escribir como

     
dω = ∇⃗ ×ω
⃗ dx2 ∧ dx3 + ∇⃗ ×ω
⃗ dx3 ∧ dx1 + ∇⃗ ×ω
⃗ dx1 ∧ dx2 .
1 2 3

Como podemos ver la derivada exterior de una 1−Forma dene el rotacional.

Ahora, para la 2−Forma

Ω = F1 dx2 ∧ dx3 + F2 dx3 ∧ dx1 + F3 dx1 ∧ dx2 ,

417
tenemos la derivada exterior
dΩ = d F1 dx2 ∧ dx3 + F2 dx3 ∧ dx1 + F3 dx1 ∧ dx2


= d F1 dx2 ∧ dx3 + d F2 dx3 ∧ dx1 + d F3 dx1 ∧ dx2


  
 
∂F1 1 ∂F1 2 ∂F1 3
= dx + 2 dx + 3 dx ∧ dx2 ∧ dx3 +
∂x1 ∂x ∂x
 
∂F2 1 ∂F2 2 ∂F2 3
+ dx + 2 dx + 3 dx ∧ dx3 ∧ dx1
∂x1 ∂x ∂x
 
∂F3 1 ∂F3 2 ∂F3 3
+ dx + 2 dx + 3 dx ∧ dx1 ∧ dx2
∂x1 ∂x ∂x
∂F1 1 ∂F2 ∂F3
= 1
dx ∧ dx2 ∧ dx3 + 2 dx2 ∧ dx3 ∧ dx1 + 3 dx3 ∧ dx1 ∧ dx2
∂x
  ∂x ∂x
∂F1 ∂F2 ∂F3
= + 2 + 3 dx1 ∧ dx2 ∧ dx3 ,
∂x1 ∂x ∂x

de donde
 
∂F1 ∂F2 ∂F3
dΩ = + 2 + 3 dx1 ∧ dx2 ∧ dx3 .
∂x1 ∂x ∂x

Ahora, si denimos
⃗ = (F1 , F2 , F3 ) ,

tenemos la divergencia

⃗ = ∂F1 + ∂F2 + ∂F3 .


⃗ ·Ω

∂x1 ∂x2 ∂x3

por lo cual
 
dΩ = ∇⃗ ·Ω
⃗ dx1 ∧ dx2 ∧ dx3 .

Así, la derivada exterior de una 2−Forma permite denir la divergencia.

418
Capítulo 36
Producto tensorial
En este capítulo estudiaremos el producto tensorial el cual nos permite en-
tender la estructura general de las funciones multilineales.

El producto tensorial tiene aplicaciones en diversas áreas como la compu-


tación, la mecánica cuántica, la relatividad general, etc.

36.1. Producto tensorial de dos espacios vecto-


riales
Supongamos que V1 , V1 y U son espacios vectoriales sobre K y la función
F : V1 × V2 → U

es bilineal. Se dice que el par (F, U ) es un producto tensorial de V1 y V2 si para


cualquier espacio vectorial W sobre K y para cualquier función bilineal
T : V1 × V2 → W,

existe una única función lineal


H : U → W,

tal que
T =H ◦F

Se puede observar que si existe el producto tensorial (F, U ), entonces cualquier


función bilineal de V1 ×V2 sobre cualquier espacio vectorial W se puede escribir

419
en términos de F.

Veamos el caso de espacios vectoriales de dimensión nita. Supongamos


que V1 , V2 , W tiene dimensión nita tal que
dim (V1 ) = n1 ,
dim (V2 ) = n2 .

y que
{v11 , v21 , · · · , vn1 }

es base de V1 y
{v12 , v22 , · · · , vm2 }

es base de V2 . También supongamos que la función


T : V1 × V2 → W, (36.1)
es bilineal. Debido a que T es una función bilineal existen nm vectores de W
tales que
T (vi1 , vj2 ) = wij ∈ W, i = 1, 2, · · · n, j = 1, 2, · · · , m. (36.2)
Debido a que cualquier función bilineal queda determinada por la forma en que
actúa en una base de su dominio, la expresión (36.2) determina completamente
a T.

Ahora, para U tomaremos un espacio vectorial sobre el campo K de di-


mensión
nm.
En U tomaremos una de sus bases y la enumeraremos de la forma
eij , i = 1, · · · , m, j = 1, · · · , n.

Así, podemos denir la función bilineal F


F : V1 × V2 → U, (36.3)
tal que
F (vi1 , vj2 ) = eij . (36.4)

420
Además, considerando que cualquier función lineal está denida por la forma
en que actúa en la base del dominio, existe una única función lineal
H : U → W,

tal que
H(eij ) = wij = T (vi , vj ).

Es posible probar que se cumple la igualdad


T = H ◦ F. (36.5)
En efecto podemos observar que
(H ◦ F ) (vi1 , vj2 ) = H(F (vi1 , vj2 )) = H(eij ) = wij = T (vi1 , vj1 ).

Por lo tanto, para cualquier par de elementos (vi1 , vj2 ) de la base del dominio
se cumple la igualdad
(H ◦ F ) (vi1 , vj2 ) = G(vi1 , vj2 ),

lo que implica que cualquier par de vectores


(v1 , v2 ) ∈ V1 × V2

se cumple la ecuación (36.5).

En consecuencia, cualquier función bilineal de V1 × V2 se puede escribir en


términos del espacio vectorial U y la función F denida en (36.3)-(36.4). Es
decir, la pareja
(U, F ),
es un producto tensorial de V1 y V2 .

La existencia del producto tesorial es muy útil porque nos dice que todas las
funciones bilineales se relacionan con la función universal F y basta estudiar
esta. Se suele denotar a U como

U = V 1 ⊗K V 2 ,

también se suele usar la notación


F (vi1 , vj2 ) = vi1 ⊗ vj2 .

421
F (vi1 , vj2 ) = vi1 ⊗ vj2 .

Se puede observar debido a que F es una función bilineal, si v1 , v1′ ∈ V1 ,


v2 , v2′ ∈ V2 y λ, γ ∈ K se cumple

(λv1 + γv1′ ) ⊗ v2 = λv1 ⊗ v2 + γv1′ ⊗ v2 .

De la misma forma, considerando que F es una función bilineal, se puede


probar que se cumple

v1 ⊗ (λv2 + γv2′ ) = λv1 ⊗ v2 + γv1 ⊗ v2′ ,


λ(v1 ⊗ v2 ) = (λv1 ) ⊗ v2 = v1 ⊗ (λv2 ),
−v1 ⊗ v2 = v1 ⊗ (−v2 ),
0 ⊗ v2 = v1 ⊗ 0 = 0.

36.2. Caso de R2
Como un ejemplo, veamos el caso en que V1 = V2 = R2 . Estos dos espacios
vectoriales tienen como base canónica
   
1 0
e1 = , e2 = .
0 1

Como T podemos tomar R4 , cuya base canónica es


       
1 0 0 0
0 1 0 0
E1 = 
0 , E2 = 0 , E3 = 1 , E4 = 0 .
      

0 0 0 1

Debido a que V1 = V2 = R2 y U = R4 la función F debe ser una función bilineal


que relacione la base de R2 × R2 con la base R4 . Una forma de relacionar estas

422
bases es con la regla
    
1 1
1 0  0
       
1 1 1 1
⊗ = F , =
 1  = 0 ,
   
0 0 0 0
0
0 0
    
0 0
        1
1 0 1 0 
1 = 1 ,
  
⊗ = F , =
0 1 0 1  0  0
0
1 0
    
1 0
0 0  0
       
0 1 0 1
⊗ = F ,  1  = 1 ,
=    
1 0 1 0
1
0 0
    
0 0
        0
0 0 0 0 
1 = 0 .
  
⊗ = F , =
1 1 1 1  0  0
1
1 1

Así, para dos vectores de R2 tenemos


             
a c 1 0 1 0
⊗ = a +b ⊗ c +d
b d 0 1 0 1
       
1 1 1 0
= ac ⊗ + ad ⊗
0 0 0 1
       
0 1 0 0
+bc ⊗ + bd ⊗
1 0 1 1
       
1 0 0 0
0 1 0 0
0 + ad 0 + bc 1 + bd 0
= ac        

0 0 0 1
 
ac
ad
=  
 bc 
bd

423
esto es
    
c ac
    a
a c 
 d  = ad ,
  
⊗ =
b d  c   bd 
b
d bd

De forma análoga, para un vector de Rm


 
a1
 a2 
u =  .. 
 
 . 
am

y un vector de Rn
 
b1
 b2 
v =  .. 
 
.
bn

se puede denir un producto vectorial de la forma

       
a1 b1 a1 v a1 b 1
 a2   b 2   a2 v   a1 b 2 
 ..   ..   ..   .. 
       
u ⊗ v =  .  ⊗  .  =  .  =  . ,
       
am−1  bn−1  am−1 v  am bn−1 
am bn am v am b n

note que el vector nal pertenece al espacio vectorial Rnm .

36.2.1. Producto de Kronecker


Otra opción de producto tensorial para R2 ×R2 es tomar como U a M2×2 (R),
que tiene dimensión 4. Si para R2 tomamos la base canónica
   
1 0
e1 = , e2 = ,
0 1

424
y para M2×2 (R) tomamos la base
 
1 0
e1 = ,
0 0
 
0 1
e2 = ,
0 0
 
0 0
e3 = ,
1 0
 
0 0
e4 = ,
0 1

la función bilineal F debe asociar estas dos bases. En este caso podemos tomar
       
1 1 1 1
⊗ = F ,
0 0 0 0
   T
1 1
=
0 0
  T 
1
1 0 
= 
 1T 

0
0
 
1 1 0
=
0 1 0
 
1·1 1·0
=
0·1 0·0
 
1 0
= ,
0 0

que se suele escribir como


       
1 1 1  1 0
⊗ = 1 0 = ,
0 0 0 0 0

425
además
       
1 0 1 0
⊗ = F ,
0 1 0 1
   T
1 0
=
0 1
  T 
0
1 1 
= 
 0T 

0
1
 
1 0 1
=
0 0 1
 
1·0 1·1
=
0·0 0·1
 
0 1
= ,
0 0

que se puede expresar como


       
1 0 1  0 1
⊗ = 0 1 = .
0 1 0 0 0

También tenemos el caso


       
0 1 0 1
⊗ = F ,
1 0 1 0
   T
0 1
=
1 0
  T 
1
0 0 
= 
 1T 

1
0
 
0 1 0
=
1 1 0
 
0·1 0·0
=
1·1 1·0
 
0 0
= ,
1 0

426
esto es
       
1 0 1  0 0
⊗ = 0 1 = .
0 1 0 1 0

El último caso es
       
0 0 0 0
⊗ = F ,
1 1 1 1
   T
0 0
=
1 1
  T 
0
0 1 
= 
 0T 

1
1
 
0 0 1
=
1 0 1
 
0·1 0·0
=
1·0 1·1
 
0 0
= ,
0 1

que se suele escribir como


       
0 0 0  0 0
⊗ = 0 1 = .
1 1 1 0 1

Así tenemos
       
1 1 1  1 0
⊗ = 1 0 = ,
0 0 0 0 0
       
1 0 1  0 1
⊗ = 0 1 = ,
0 1 0 0 0
       
0 1 0  0 0
⊗ = 1 0 = ,
1 0 1 1 0
       
0 0 0  0 0
⊗ = 0 1 = .
1 1 1 0 1

427
Considerando que F debe ser una función bilineal, se puede mostrar que
para cualquier par de vectores de R2 se tiene
       
a c a ac ad
(36.6)

⊗ = c d = .
b d b bc bd

Por ejemplo,
       
2 −1 2 −2 10
(36.7)

⊗ = −1 5 =
3 5 3 −3 15
La regla (36.6) se puede generalizar para obtener un producto tensorial entre
un vector de Cm y un vector de Cn de la siguiente forma
       ∗T  
a1 b1 a1 b1 a1
 a2   b 2   a2   b 2   a2 
 ..  ⊗  ..  =  ..   ..  =  ..  b∗1 b∗2 · · · b∗n
         
 .  .  .  .   . 
am bn am bn am
 
a1 b∗1 a1 b∗2 · · · a1 b∗n
 a2 b ∗ a2 b ∗ · · · a2 b ∗ 
 1 2 n
=  .. .
. .
. ,
 . . ··· . 
an b∗1 an b∗2 · · · am b∗n
es decir,
     
a1 b1 a1 b∗1 a1 b∗2 ··· a1 b∗n
 a2   b 2   a2 b ∗ a2 b ∗ ··· a2 b∗n 
     1 2
 ..  ⊗  ..  =  .. .
. ..  ,

 .  .  . . ··· . 
am bn an b1 an b∗2

··· am b∗n

a este producto tensorial se suele llamar producto de Kronecker.

36.2.2. Matrices
Como otro ejemplo, consideremos el espacio de las matrices reales de 2 × 2,
es decir V1 = V2 = M2×2 (R). En este caso podemos tomar la base
       
1 0 0 1 0 0 0 0
e1 = , e2 = , e3 = , e4 = .
0 0 0 0 1 0 0 1

428
Se puede observar que el espacio vectorial M2×2 (R) × M2×2 (R) tiene dimensión
16. Entonces, el espacio U debe tener dimensión 16. Por ejemplo, podemos
tomar como U al espacio vectorial M4×4 (R), cuya base canónica es
     
1 0 0 0 0 1 0 0 0 0 1 0
0 0 0 0 0 0 0 0
 , M3 = 0 0 0 0 ,
   
M1 = 
0 , M2 = 
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
     
0 0 0 1 0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0
 , M6 = 0 1 0 0 ,
 
M4 = 
0
 , M5 = 
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0 0 0 0
0 0 1 0 0 0 0 1
 , M9 = 0 0 0 0 ,
   
M7 = 
0 , M8 = 
0 0 0 0 0 0 0 1 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
 , M12 = 0 0 0 0 ,
   
M10 = 
0 , M11 = 
1 0 0  0 0 1 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
 , M15 = 0 0 0 0 ,
   
M13 = 
0 , M14 = 
0 0 0 0 0 0 0 0 0 0 0
1 0 0 0 0 1 0 0 0 0 1 0
 
0 0 0 0
0 0 0 0
M16 = 
0
.
0 0 0
0 0 0 1

429
La función F debe relacionar un par de elementos de la base de M2×2 (R) con
un elemento de la base de M4×4 (R). Una forma de denir a F es con la regla
       
1 0 0 1 1 0 1 0
⊗ = F ,
0 0 0 0 0 0 0 0
    
1 0 1 0
1 0 0
0 0 0
= 
 1
 
0 1 0 
0 0
0 0 0 0
 
1 0 0 0
0 0 0 0
= 
0 0
 = M1 ,
0 0
0 0 0 0

esto es,
 
    1 0 0 0
1 0 0 1 0 0 0 0
⊗ =  = M1 .
0 0 0 0 0 0 0 0
0 0 0 0

Tambiém tenemos
       
1 0 0 1 0 1 0 1
⊗ = F ,
0 0 0 0 0 0 0 0
    
0 1 0 1
1 0 0
0  0 0 
= 
 0
 
1 0 1 
0 0
0 0 0 0
 
0 1 0 0
0 0 0 0
= 
0 0
 = M2 ,
0 0
0 0 0 0

es decir,
 
    0 1 0 0
1 0 0 1 0 0 0 0
⊗ =  = M2 .
0 0 0 0 0 0 0 0
0 0 0 0

430
Adicionalmente tenemos
       
1 0 0 0 1 0 0 0
⊗ = F ,
0 0 1 0 0 0 1 0
    
0 0 0 0
1 1 0
0 1 0
= 
 0
 
0 0 0 
0 0
1 0 1 0
 
0 0 0 0
1 0 0 0
= 
0 0
 = M5 ,
0 0
0 0 0 0
       
1 0 0 0 1 0 0 0
⊗ = F ,
0 0 0 1 0 0 0 1
    
0 0 0 0
1 0 0
1 0 1
= 
 0
 
0 0 0 
0 0
0 1 0 1
 
0 0 0 0
0 1 0 0
= 
0 0
 = M6 ,
0 0
0 0 0 0
       
0 1 1 0 0 1 1 0
⊗ = F ,
0 0 0 0 0 0 0 0
    
1 0 1 0
0 0 1
0 0 0
= 
 1
 
0 1 0 
0 0
0 0 0 0
 
0 0 1 0
0 0 0 0
= 
0 0
 = M3 ,
0 0
0 0 0 0

431
       
0 1 0 1 0 1 0 1
⊗ = F ,
0 0 0 0 0 0 0 0
    
0 1 0 1
0 0 1
0 0 0
= 
 0
 
1 0 1 
0 0
0 0 0 0
 
0 0 0 1
0 0 0 0
= 
0 0
 = M4 ,
0 0
0 0 0 0
       
0 1 0 0 0 1 0 0
⊗ = F ,
0 0 1 0 0 0 1 0
    
0 0 0 0
0 1 1
0 1 0
= 
 0
 
0 0 0 
0 0
1 0 1 0
 
0 0 0 0
0 0 1 0
= 
0 0
 = M7 ,
0 0
0 0 0 0
       
0 1 0 0 0 1 0 0
⊗ = F ,
0 0 0 1 0 0 0 1
    
0 0 0 0
0 0 1
1 0 1
= 
 0
 
0 0 0 
0 0
0 1 0 1
 
0 0 0 0
0 0 0 1
= 
0 0
 = M8 ,
0 0
0 0 0 0

432
       
0 0 1 0 0 0 1 0
⊗ = F ,
1 0 0 0 1 0 0 0
    
1 0 1 0
0 0 0
0 0 0
= 
 1
 
0 1 0 
1 0
0 0 0 0
 
0 0 0 0
0 0 0 0
= 
1 0
 = M9 ,
0 0
0 0 0 0
       
0 0 0 1 0 0 0 1
⊗ = F ,
1 0 0 0 1 0 0 0
    
0 1 0 1
0 0 0
0 0 0
= 
 0
 
1 0 1 
1 0
0 0 0 0
 
0 0 0 0
0 0 0 0
= 
0 1
 = M10 ,
0 0
0 0 0 0
       
0 0 0 0 0 0 0 0
⊗ = F ,
1 0 1 0 1 0 1 0
    
0 0 0 0
0 1 0
0 1 0
= 
 0
 
0 0 0 
1 0
1 0 1 0
 
0 0 0 0
0 0 0 0
= 
0 0
 = M13 ,
0 0
1 0 0 0

433
       
0 0 0 0 0 0 0 0
⊗ = F ,
1 0 0 1 1 0 0 1
    
0 0 0 0
0 0 0
1  0 1 
= 
 0
 
0 0 0 
1 0
0 1 0 1
 
0 0 0 0
0 0 0 0
= 
0 0
 = M14 ,
0 0
0 1 0 0
       
0 0 1 0 0 0 1 0
⊗ = F ,
0 1 0 0 0 1 0 0
    
1 0 1 0
0 0 0
0  0 0 
= 
 1
 
0 1 0 
0 1
0 0 0 0
 
0 0 0 0    
0 0 0 0 0 0 0 1
= 
0 0
 = M11 , ⊗ =
1 0 0 1 0 0
    0 0 0 0
0 0 0 1
F ,
0 1 0 0
    
0 1 0 1
0 0 0
0  0 0 
= 
 0
 
1 0 1 
0 1
0 0 0 0
 
0 0 0 0
0 0 0 0
= 
0 0
 = M12 ,
0 1
0 0 0 0

434
       
0 0 0 0 0 0 0 0
⊗ = F ,
0 1 1 0 0 1 1 0
    
0 0 0 0
0 1 0
0 1 0
= 
 0
 
0 0 0 
0 1
1 0 1 0
 
0 0 0 0
0 0 0 0
= 
0 0
 = M15 ,
0 0
0 0 1 0
       
0 0 0 0 0 0 0 0
⊗ = F ,
0 1 0 1 0 1 0 1
    
0 0 0 0
0 0 0
1 0 1
= 
 0
 
0 0 0 
0 1
0 1 0 1
 
0 0 0 0
0 0 0 0
= 
0 0
 = M16 .
0 0
0 0 0 1

Usando que F es una función bilineal, se puede probar que en general se cumple
       
a b e f a b e f
⊗ = F ,
c d g h c d g h
    
e f e f
a g h b
g h 

=  
 e f

e f 
c d
g h g h
 
ae af be bf
ag ah bg bh 
= 
 ce cf de df  ,

cg ch dg dh

435
es decir
      
e f e f ae af be bf
    a b
a b e f 
g h g h  = ag
  ah bg bh 
⊗ = .
c d g h  e f e f   ce cf de df 
c d
g h g h cg ch dg dh

Por ejemplo
    
−1 8 −1 8
−2 3 2 5
   
−2 5 −1 8 3 2 
⊗ =    
3 4 3 2  −1 8 −1 8 
3 4
3 2 3 2
 
2 −16 −5 40
−6 −4 15 10
= 
−3 24 −4
.
32
9 6 12 8

Se puede mostrar que para cualquier dos matrices


   
a11 · · · a1m b11 · · · b1r
A =  ... .. 
. , B =  ... .. 
. ,
 
an1 · · · anm bs1 · · · bsr

se puede denir un producto tensorial como

 
a11 B · · · a1m B
A ⊗ B =  ... .. 
. .

an1 B · · · anm B

36.3. Producto de polinomios con el método Ma-


ya
Como una aplicación del producto de Kronecker entre vectores, veremos el
método maya para obtener el producto de dos polinomios.

436
Supongamos que K es un campo y que tenemos los polinomios
P (x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn ,
Q(x) = b0 + b1 x + b2 x2 + · · · + bm−1 xm−1 + bm xm .

con
a0 , a2 , · · · , an , b0 , b1 , · · · , bm ∈ K.

Entonces, el producto de estos polinomios es


a0 + a1 x + a2 x 2 + a3 x 3 + a4 x 4 + · · · + an x n

P (x)Q(x) =
b0 + b1 x + b2 x 2 + b3 x 3 + b4 x 4 + · · · + bm x m


= a0 b0 + (a0 b1 + b0 a1 )x + (a0 b2 + a1 b1 + b0 a2 )x2 + · · · +


+(an−2 bm + an−1 bm−1 + an bn−2 )xn+m−2 +
+(an−1 bm + an bm−1 )xn+m−1 +
+an bm xn+m ,

que se puede escribir como


P (x)Q(x) = c0 + c1 x + c2 x2 + · · · + cn+m−2 xn+m−2 + cn+m−1 xn+m−1 + cn+m xn+m

con
cn+m = an bm ,
cn+m−1 = an−1 bm + an bm−1 ,
cn+m−2 = an−2 bm + an− bm−1 + an bm−2 ,
..
.
c 2 = a0 b 2 + a1 b 1 + b 0 a2 ,
c 1 = a0 b 1 + b 0 a1 ,
c 0 = a0 b 0 ,

Se puede observar que los coecientes ci determinan el producto de los polino-


mios P (x) y Q(x).

Los mayas tenían un método muy eciente para realizar este producto en
el cual se usa el producto de Kronecker. Primero, al polinomio
P (x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn ,

437
le asociamos el vector columna
 
an
an−1 
 .. 
 
 . 
a= ,
 a2 
 
 a1 
a0

mientras que al polinomio


Q(x) = b0 + b1 x + b2 x2 + · · · + bm−1 xm−1 + bm xm

le asociamos el vector columna


 
bn
bn−1 
 .. 
 
 . 
b= .
 b2 
 
 b1 
b0

Posteriormente hacemos el producto de Kronecker de estos vectores


     
an bm an
an−1  bm−1  an−1 
 ..   ..   .. 
     
a⊗b =  . ⊗ . = . 

bm bm−1 · · · b2 b 1 b 0
     
 a2   b 1   a2 
     
 a1   b 2   a1 
a0 b0 a0
 
an b m an bm−1 an bm−2 ··· an b 2 an b 1 an b 0
an−1 bm an−1 bm−1 an−1 bm−2
 ··· an−1 b2 an−1 b1 an−1 b0 

an−2 bm an−2 bm−1 an−2 bm−2 ··· an−2 b2 an−1 b1 an−2 b0 
=  ... .. .. .. .. .. 
 
. . . . .  ,

 ··· 
 a2 b m
 a2 bm−1 a2 bm−2 ··· a2 b 2 a2 b 1 a2 b 0 

 a1 b m a1 bm−1 a1 bm−2 ··· a1 b 2 a1 b 1 a1 b 0 
a0 b m a0 bm−1 a0 bm−2 ··· a0 b 2 a0 b 1 a0 b 0

438
es decir
 
an b m an bm−1 an bm−2 ··· an b 2 an b 1 an b 0
an−1 bm an−1 bm−1 an−1 bm−2
 ··· an−1 b2 an−1 b1 an−1 b0 

an−2 bm an−2 bm−1 an−2 bm−2 ··· an−2 b2 an−1 b1 an−2 b0 
a ⊗ b =  ... .. .. .. .. .. 
 
. . . . .  .

 ··· 
 a2 b m
 a2 bm−1 a2 bm−2 ··· a2 b 2 a2 b 1 a2 b 0 

 a1 b m a1 bm−1 a1 bm−2 ··· a1 b 2 a1 b 1 a1 b 0 
a0 b m a0 bm−1 a0 bm−2 ··· a0 b 2 a0 b 1 a0 b 0

Ahora realizaremos una operación que llamaremos traza maya, la cual consiste
en sumar los elementos de las diagonales de la matriz de acuerdo con ell color
y colocaremos el resultado en un vector. En este caso tenemos
 
an b m

 an−1 bm + an bm−1 

an−2 bm + an−1 bm−1 + an bm−2 
..
 
T rmaya (a ⊗ b) =  . .
 
 

 a 0 b 2 + a 1 b 1 + a 2 b 2 

 a0 b 1 + a1 b 0 
a0 b0

Se puede observar que las entradas de este vector coincide con los coecientes
del producto de los polinomios P (x)Q(x).

36.3.1. Ejemplo
Consideremos los polinomios
P (x) = 2 − 3x + 4x2 + x3 ,
Q(x) = 1 + 2x − x2 .

En este caso tenemos los vectores



1  
4 −1
a=
−3 ,
 b= 2 
1
2

439
cuyo producto de Kronecker es

1  
4 −1
a⊗b = 
−3
⊗ 2 
1
2
 
1
4 
=   −1 2 1
−3
2
 
−1 2 1
−4 8 4
= 
 3 −6 −3 ,

−2 4 2

es decir
 
−1 2 1
−4 8 4
a⊗b=
 3 −6 −3 ,

−2 4 2

de donde
 
−1
−2
 
 12 
T rmaya (a ⊗ b) = 
−4 ,

 
1
2

que implica el resultado


P (x)Q(x) = 2 − 3x + 4x2 + x3 1 + 2x − x2
 

= 2 + x − 4x2 + 12x3 − 2x4 − x5 .

Este método para obtener el producto de dos polinomios se le suele llamar


método de la diagonal, de las columnas o de las casillas (lattice). Existen
documentos que indican que este método se conocía en la India en el siglo X y
después fue introducido por Fibonacci a Europa. Pero también existen códices
que muestran que el algorimo fue conocido por los mayas varios siglos antes
del siglo X. Notablemente, el producto de Kronecker es desarrollado hasta el

440
siglo XIX en las matemáticas de Europa. Actualmente este algoritmo se suele
usar en criptografía.
Un desarrollo semejante al mostrado en este capítulo se encuentra en el artículo
[19].

36.4. Caso general


Supongamos que V1 , V2 , · · · , VN y U son espacios vectoriales sobre K y la
función
F : V1 × V2 × · · · × VN → U
es multilineal. Se dice que el par (F, U ) es un producto tensorial si para cual-
quier espacio vectorial W sobre K y para cualquier función multilineal
T : V1 × V2 × · · · × VN → W,
existe una única función lineal
H : T → W,
tal que
T = H ◦ F.

Note que si existe el producto tensorial (F, U ), entonces cualquier función


multilineal de V1 × V2 × · · · × VN sobre cualquier espacio vectorial W, se puede
escribir en términos de U.

Veamos el caso de espacios vectoriales de dimensión nita. Supongamos


que cada espacio vectorial Vi (i = 1, 2, · · · , N ) tiene dimensión nita ni y que
el conjunto de vectores
{vi1 , vi2 , · · · , vini } (36.8)
es una de sus bases, también supongamos que la función
T : V1 × V2 × · · · × Vn → W,
es multilineal. Ahora, sabemos que cualquier función multilineal T queda de-
terminada por la forma en que actúa en la bases del dominio, que en este caso
es
V1 × V2 × · · · × VN .

441
Debido a que W es multilineal, existen n1 n2 · · · nN vectores en W, tales que
T (v1i1 , v2i2 , · · · , vN iN ) = wi1 i2 ···iN ∈ W,

donde
il = 1, 2, · · · , nl , l = 1, 2, · · · , N.

Para este caso, el espacio vectoria U lo tomaremos como un espacio vectorial


de dimensión
n1 · · · nN ,
también tomaremos una base de U y la enumeraremos de la forma
ei1 i2 ···iN , il = 1, · · · , nl , l = 1, · · · , N.

Por lo que podemos denir la función multilineal


F : V1 × V2 × · · · × VN → U,

tal que
F (v1i1 , · · · , vN iN ) = ei1 i2 ···iN .

Además, debido a que cualquier función lineal está denida por la forma en
que actúa en la base del dominio, existe una única función lineal
H : U → W,

tal que
H(ei1 i2 ···in ) = wi1 i2 ···iN = T (v1i1 , v2i2 , · · · , vN iN ).

Se puede probar que se cumple,


T = H ◦ F, (36.9)
en efecto, podemos ver que
(H ◦ F ) (v1i1 , · · · , vN iN ) = H(F (v1i1 , · · · , vN iN )) = h(ei1 i2 ···iN ) = wi1 i2 ···iN
= T (v1i1 , v2i2 , · · · , vN iN )

Así, para las bases (36.8) se cumple la igualdad


(H ◦ F ) (v1i1 , · · · , vN iN ) = T (v1i1 , · · · , vN iN )

442
lo que implica que para cualquier vector
(v1 , v2 , · · · , vN ) ∈ V1 × V2 × · · · × VN
se cumple la igualdad (36.9).

La existencia del producto tensorial es muy útil porque nos dice que todas
las funciones multilineales se relacionan con la función universal F y basta
estudiar ésta. Se suele denotar a U como

U = V1 ⊗K V2 ⊗K · · · ⊗K VN ,

también se suele usar la notación

F (v1 , v2 , · · · , vN ) = v1 ⊗ v2 ⊗ · · · ⊗ vN .

Se puede observar que debido a que F es una función multilineal, si


v1 ∈ V1 , v2 ∈ V2 , · · · , vi−1 ∈ Vi , vi , vi′ ∈ Vi , vi+1 ∈ Vi+1 , · · · , vN ∈ VN
y
λ, γ ∈ K
entonces se cumple
v1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ (λvi + γvi′ ) ⊗ vi+1 ⊗ · · · ⊗ vN =
= λv1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ vi ⊗ vi+1 ⊗ · · · ⊗ vN +
+γv1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ vi′ ⊗ vi+1 ⊗ · · · ⊗ vN .
De la misma forma, considerando que considerando que F es una función
multilineal, se puede probar que se cumple
λ (v1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ vi ⊗ vi+1 ⊗ · · · ⊗ vN ) =
= v1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ (λvi ) ⊗ vi+1 ⊗ · · · ⊗ vN ,
que implica
− (v1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ vi ⊗ vi+1 ⊗ · · · ⊗ vN ) =
= v1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ (−vi ) ⊗ vi+1 ⊗ · · · ⊗ vN
y
(v1 ⊗ v2 ⊗ · · · ⊗ vi−1 ⊗ 0 ⊗ vi+1 ⊗ · · · ⊗ vN ) = 0.

443
36.5. Tensor
Supongamos que V1 , V2 , · · · , Vn son espacios vectoriales sobre K, entonces
a las funciones
F : V1 × V2 × · · · × Vn → K

multilineales se les llama tensores.

Para la geometría diferencial y la relatividad general son de particular


importancia los tensores que involucran espacios vectoriales
V1 , V2 , · · · , Vn

y sus espacios vectoriales duales


V1∗ , V2∗ , · · · , Vn∗

En este caso, tendremos funciones multilineales de la fornma


F : V1∗ × V2∗ × · · · × Vn∗ × V1 × V2 × · · · × Vn → K

En este con texto, a los vectores de los espacios Vi se les llama contravariantes
y a los elementos de los espacios duales Vi∗ se les llama covariantes.

Por ejemplo, si
V = V1 = V2 = · · · = Vn
tenemos el espacio dual
V ∗ = V1∗ = V2∗ = · · · = Vn∗ .

Por lo que podemos construir el tensor


F : V ∗ × V ∗ × ··· × V ∗×V × V × ··· × V → K
| {z } | {z }
(36.10)
l m

Ahora, supogamos que V tiene dimensión n y que


{v1 , v2 , v3 , · · · , vn }

es una de sus bases. En este caso el espacio dual V ∗ tiene dimensión n y


supongamos que
{v1∗ , v2∗ , v3∗ , · · · , vn∗ }

444
es una de sus bases. Entonces, los tensores de la forma (36.10) son generados
por las funciones multilineales de la forma
vi∗1 ⊗ vi∗2 ⊗ · · · ⊗ vi∗l ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm (36.11)
con
i1 , i2 , · · · , il , j1 , j2 , · · · , jm = 1, 2, · · · , n.

Ahora, por simplicidad a los vectores que pertenecen a una base de V


(contravariantes) se suelen escribir con el índice abajo. Así, una base de V se
suele escribir como
{v1 , v2 , v3 , · · · , vn }

Mientras que los vectores que pertenecen a una base de V ∗ (covariantes) se


suelen escribir con el índice arriba. Así, una base de V ∗ se suele escibir como
{v1∗ = v 1 , v2∗ = v 2 , v3∗ = v 3 , . . . , vn∗ = v n }.

Por lo que las funciones (36.11) se pueden expresar de la forma


v i1 ⊗ v i2 ⊗ v i3 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm .

Así, cualquier tensor de la forma (36.10) se puede escribir como


F = Fi1 i2 ···il j1 j2 ···jm i1
v ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm . (36.12)
con
j1 j2 ···jm
Fi1 i2 ···il ∈ K.

Además, recordemos que si


v1 , v2 , v3 , · · · , vn

y
v1′ , v2′ , v3′ , · · · , vn′

son base de V se cumple


vi′ = Uij vj , (36.13)

445
con U la matriz de cambio de base. También recordemos que si
v1∗ , v2∗ , v3∗ , · · · , vn∗

y
v1∗′ , v2∗′ , v3∗′ , · · · , vn∗′

son base del espacio dual V ∗ se cumple


 T 
vi∗′ = U −1 vj∗ . (36.14)
ij

Con la notación de índices arriba y abajo (vectores covariantes y contravarian-


tes) la identidades (36.13) y (36.14) se suelen escribir como
vi′ = Ui j vj ,
v ′i = U i j v j .

Ahora, con un cambio de base, se debe cumplir la igualdad


j1 j2 ···jm i1
F = Fi1 i2 ···il v ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm
j1′ j2′ ···jm
′ ′ ′ ′
= Fi′′1 i′2 ···i′l v ′i1 ⊗ v ′i2 ⊗ · · · ⊗ v ′il ⊗ vj′ 1′ ⊗ vj′ 2′ ⊗ · · · ⊗ vj′ m
′ .

También se tiene
j1′ j2′ ···jm
′ ′i′1 ′ ′
F = Fi′′1 i′2 ···i′l v ⊗ v ′i2 ⊗ · · · ⊗ v ′il ⊗ vj′ 1′ ⊗ vj′ 2′ ⊗ · · · ⊗ vj′ m

′ ′ ′
 ′
  ′
  ′

= Fi′′1 i′2 ···i′l j1 j2 ···jm U i1 i1 v i1 ⊗ U i2 i2 v i2 ⊗ · · · ⊗ U il il v il ⊗
⊗ Uj1′ j1 vj1 ⊗ Uj2′ j2 vj2 ⊗ · · · ⊗ Ujm jm
  
′ vjm
′ ′ ′ jm ′ j1′ j2′ ···jm

= U i1 i1 · U i2 i2 · · · U il il · Uj2′ j2 · · · Uj2′ j2 Ujm
′ Fi′1 i′2 ···i′l
v i1 ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm ,


esto es,
′ ′ ′ jm ′ j1′ j2′ ···jm

F = U i1 i1 · U i2 i2 · · · U il il · Uj2′ j2 · · · Uj2′ j2 Ujm
′ Fi′1 i′2 ···i′l
v i1 ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm .


Esta igualdad implica el resultado


F = Fi1 i2 ···il j1 j2 ···jm v i1 ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm
′ ′ ′ jm ′ ′ ′ ′
F = U i1 i1 · U i2 i2 · · · U il il · Uj2′ j2 · · · Uj2′ j2 Ujm
′ Fi′1 i′2 ···i′l j1 j2 ···jm
v i1 ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm ,


446
que induce la regla de transformación
j1 j2 ···jm ′ ′ jm ′ j1′ j2′ ···jm

Fi1 i2 ···il = U i1 i1 · · · U il il · · · Uj2′ j2 Ujm
′ Fi′1 i′2 ···i′l .

Este tipo de reglas de transformación fueron importantes para la formulación


de los principios de la relatividad general y para establecer sus ecuaciones de
movimiento.

447
Capítulo 37
Compuertas clásicas y cuánticas
En este capítulo veremos que diferentes compuertas de la computación
clásica y cuántica se pueden expresar con herramientas del álgebra lineal.

37.1. Compuerta NOT


Primero veamos la negación. Supongamos que A es una proposición, en-
tonces la tabla de verdad de ¬A es (37.1)
A ¬A
V F
F V

Cuadro 37.1: Tabla de verdad de la negación NOT, ¬A


En este caso tenemos
NOT (V ) = F, (37.1)
NOT (F ) = V. (37.2)
Ahora, haremos la asignación
 
0
V = , (37.3)
1
 
1
F = . (37.4)
0
Entonces, podemos proponer la matriz
 
0 1
NOT = , (37.5)
1 0

448
con la cual se satisface
         
0 1 0 1 0 1 1 0
= , = . (37.6)
1 0 1 0 1 0 0 1

Estos resultados coinciden con los resultados (37.1)-(37.2). Así, con los vectores
(37.3) y (37.4) junto con la matriz (37.5) podemos representar la tabla de
verdad de la negación NOT (37.1).

37.2. Compuerta OR
Supongamos que tenemos las proposiciones A y B entonces la tabla de ver-
dad de A o B, está dado por (37.2)
A B A∨B
V V V
V F V
F V V
F F F

Cuadro 37.2: Tabla de verdad OR, A ∨ B.

Esta tabla se puede representar con las siguientes ecuaciones


OR (V, V ) = V, (37.7)
OR (V, F ) = V, (37.8)
OR (F, V ) = V, (37.9)
OR (F, F ) = F, (37.10)

449
Ahora, podemos hacer el producto tensorial
    
0 0
0 1  0
   
0 0
V ⊗V = ⊗ =
 0  = 0 ,
   
1 1
1
1 1
    
1 0
    0
0 1 
0 = 0 ,
  
V ⊗F = ⊗ =
1 0  1  1
1
0 0
    
0 0
    1
1 0 
1 = 1 ,
  
F ⊗V = ⊗ =
0 1  0  0
0
1 0
    
1 1
    1
1 1 
0 = 0 .
  
F ⊗F = ⊗ =
0 0  1  0
0
0 0
Entonces, podemos proponer la matriz OR
 
1 0 0 0
OR = , (37.11)
0 1 1 1
con la cual se satisface
 
  0  
1 0 0 0 
0 = 0 = V,

OR (V ⊗ V ) =
0 1 1 1 0 1
1
 
  0  
1 0 0   = 0 = V,
0  0
OR (V ⊗ F ) =
0 1 1 1 1 1
0
 
  0  
1 0 0 0 
1 = 0 = V,

OR (F ⊗ V ) =
0 1 1 1 0 1
0
 
  1  
1 0 0 0 
  = 1 = F,
0
OR (F ⊗ F ) =
0 1 1 1 0 0
0

450
es decir,
OR (V ⊗V) = V,
OR (V ⊗ F) = V,
OR (F ⊗V) = V,
OR (F ⊗ F) = F,

que coincide con la tabla de verdad de A ∨ B, dada por las expresiones (37.7)-
(37.10).

37.3. Compuerta AND


Si A y B son dos proposiciones, entonces la tabla de verdad de A y B, está
dado por (37.3)
A B A∧B
V V V
V F F
F V F
F F F

Cuadro 37.3: Tabla de verdad AND, A ∧ B .

Esta tabla se puede representar mediante las siguientes ecuaciones


AND (V, V ) = V, (37.12)
AND (V, F ) = F, (37.13)
AND (F, V ) = F, (37.14)
AND (F, F ) = F. (37.15)
Entonces podemos proponer la matriz AND de la forma
 
1 1 1 0
AND = , (37.16)
0 0 0 1

451
con la cual se satisface
 
  0  
1 1 1 0  0
  = 0 = V,

AND (V ⊗V) =
0 0 0 1 0 1
1
 
  0  
1 1 1 0  0 1
AND (V ⊗ F) =   = = F,
0 0 0 1  1 0
0
 
  0  
1 1 1 0  1
  = 1 = F,

AND (F ⊗V) =
0 0 0 1 0 0
0
 
  1  
1 1 1 0  0 1
AND (F ⊗ F) =   = = F,
0 0 0 1  0 0
0

es decir,
AND (V ⊗V) = V,
AND (V ⊗ F) = F,
AND (F ⊗V) = F,
AND (F ⊗ F) = F,

que coincide con la tabla de verdad de A ∧ B dada por las expresiones (37.12)-
(37.15).

37.4. Compuerta NAND


Ya tenemos la compuerta NOT para ¬A y la compuerta AND para A ∧ B.
Entonces para construir la compuerta NAND para ¬ (A ∧ B) , de la forma
NAND = NOT
 ·AND
 
0 1 1 1 1 0
=
1 0 0 0 0 1
 
0 0 0 1
= ,
1 1 1 0

452
es decir,
 
0 0 0 1
NAND = . (37.17)
1 1 1 0
Con la cual se satisface
 
  0  
0
  = 1 = F,
0 0 0 1  
NAND (V ⊗V) =
1 1 1 0 0 0
1
 
  0  
0 0 0 1  0 0
NAND (V ⊗ F) =   = = V,
1 1 1 0  1 1
0
 
  0  
0 0 0 1 
  = 0 = V,
1
NAND (F ⊗V) =
1 1 1 0 0 1
0
 
  1  
0 0 0 1  0 0
NAND (F ⊗ F) =   = = V,
1 1 1 0  0 1
0
esto es
NAND (V ⊗V) = F,
NAND (V ⊗ F) = V,
NAND (F ⊗V) = V,
NAND (F ⊗ F) = V,
que coincide con la tabla de verdad de
¬ (A ∧ B) .
Cuando se aplican compuertas de manera sucesiva se dice que se aplican
operaciones secuenciales.

37.5. Compuertas paralelas


No todas las operaciones con compuertas se pueden obtener con operacio-
nes secuenciales.

453
En algunos casos se requieren realizar operaciones paralelas en las cuales
una compuerta solo afecta a algunos de los vectores. Por ejemplo, si A y B son
dos proposiciones y queremos realizar la tabla de verdad de
¬A ∧ B (37.18)
la compuerta NOT solo afecta a la proposición A, pero no a B. Para la repre-
sentación de las operaciones paralelas podemos ocupar el producto tensorial
en las compuertas.

Antes de continuar, veamos la tabla de verdad de (37.18), la cual está re-


presentada en la tabla (37.4)
A B ¬A ¬A ∧ B
V V F F
V F F F
F V V V
F F V F

Cuadro 37.4: Tabla de verdad ¬A ∨ B.

Ahora, para solo negar a A ocuparemos la compuerta


NOT ⊗ I,

con la cual tendremos


(NOT ⊗ I) (A ⊗ B) = (NOT (A)) ⊗ B,

después, debemos aplicar la compuerta AND, es decir,


AND ((NOT ⊗ I) (A ⊗ B)) = AND ((NOT (A)) ⊗ B) ,

esto es, debemos aplicar la compuerta


AND (NOT ⊗ I) .

454
De forma explícita tenemos

  
0 1 1 0
NOT ⊗ I = ⊗
1 0 0 1
    
1 0 1 0
0 0 1 1
=    0 1 

 1 0 1 0 
1 0
0 1 0 1
 
0 0 1 0
0 0 0 1
= 
1 0 0 0 ,

0 1 0 0

es decir,
 
0 0 1 0
0 0 0 1
NOT ⊗ I = 
1
,
0 0 0
0 1 0 0

por lo que
 
  0 0 1 0
1 1 1 0 0 0 0 1
AND (NOT ⊗ I) = 
0 0 0 1 1 0 0 0
0 1 0 0
 
1 0 1 1
= .
0 1 0 0

Así, tenemos la compuerta


 
1 0 1 1
AND (NOT ⊗ I) = .
0 1 0 0

455
Con la cual se satisface
 
  0  
1 0 1 1 0
  = 1 = F,

(AND (NOT ⊗ I)) (V ⊗ V ) =
0 1 0 0 0 0
1
 
  0  
1 0 1 1 
0 = 1 = F,

(AND (NOT ⊗ I)) (V ⊗ F ) =
0 1 0 0 1 0
0
 
  0  
1 0 1 1 1
  = 0 = V,

(AND (NOT ⊗ I)) (F ⊗ V ) =
0 1 0 0 0 1
0
 
  1  
1 0 1 1 
0 = 1 = F,

(AND (NOT ⊗ I)) (F ⊗ F ) =
0 1 0 0 0 0
0

es decir,
(AND (NOT ⊗ I)) (V ⊗V) = F,
(AND (NOT ⊗ I)) (V ⊗ F) = F,
(AND (NOT ⊗ I)) (F ⊗V) = V,
(AND (NOT ⊗ I)) (F ⊗ F) = F,

que coincide con la tabla de verdad de


¬A ∧ B.

37.6. Leyes de De Morgan


Si A y B son dos proposiciones, una de las implicaciones de las leyes de De
Morgan es la igualdad
¬(¬A ∧ ¬B) = A ∨ B. (37.19)
La parte izquierda de la igualdad se obtiene con la compuerta
NOT (AND (NOT ⊗ NOT)) ,

456
mientras que la parte derecha es simplemnte la compuerta OR
 
1 0 0 0
OR = .
0 1 1 1

Así, la expresión (37.19) es equivalente a la igualdad


NOT (AND (NOT ⊗ NOT)) = OR. (37.20)
Para probar esta igualdad notemos que se cumple

  
0 1 0 1
NOT ⊗ NOT = ⊗
1 0 1 0
    
0 1 0 1
0 1 0 1
=    1 0
 0 1 0 1 
1 0
1 0 1 0
 
0 0 0 1
0 0 1 0
= 
0 1 0 0 ,

1 0 0 0

esto es
 
0 0 0 1
0 0 1 0
NOT ⊗ NOT = 
0
.
1 0 0
1 0 0 0

Por lo que,
 
   0 0 0 1
0 1 1 1 1 0 0 0 1 0
NOT (AND (NOT ⊗ NOT)) = 
1 0 0 0 0 1 0 1 0 0
1 0 0 0
  
0 1
0 1 1 1
=
1 0
1 0 0 0
 
1 0 0 0
=
0 1 1 1
= OR.

Lo que prueba la igualdad (37.20).

457
37.7. Notación binomial y bits
En muchos casos es más común emplear la notación binomial o de bits
V = 1,
F = 0

y para los vectores se suelen usar los kets, que originalmente surgieron en
Mecánica Cuántica en donde se toma
 
0
|V ⟩ = |1⟩ = ,
1
 
1
|F ⟩ = |0⟩ = .
0

Usando esta notación se toma


    
1 1
    1
1 1 
0 = 0 ,
  
|00⟩ = |0⟩ ⊗ |0⟩ = ⊗ =
0 0  1   0
0
0 0
    
0 0
    1
1 0 
1 = 1 ,
  
|01⟩ = |0⟩ ⊗ |1⟩ = ⊗ =
0 1  0  0
0
1 0
    
1 0
0 0  0
   
0 1
|10⟩ = |1⟩ ⊗ |0⟩ = ⊗  1  = 1 ,
=    
1 0
1
0 0
    
0 0
    0
0 0 
1 = 0 .
  
|11⟩ = |1⟩ ⊗ |1⟩ = ⊗ =
1 1  0  0
1
1 1

458
esto es
 
1
0
|00⟩ = |0⟩ ⊗ |0⟩ = 
0 ,

0
 
0
1
|01⟩ = |0⟩ ⊗ |1⟩ = 
0 ,

0
 
0
0
|10⟩ = |1⟩ ⊗ |0⟩ = 
1 ,

0
 
0
0
|11⟩ = |1⟩ ⊗ |1⟩ = 
0 .

37.8. Qubits
Una computadora cuántica usa como qubits los estados de espín de un
electrón. Los estados de espín tienen como base los vectores
   
1 0
|0⟩ = , |1⟩ = .
0 1
Entonces, cualquier estado del espín del electrón se puede escribir como com-
binación lineal de los estados |0⟩ y |1⟩ , esto es
|ψ⟩ = α0 |0⟩ + α1 |1⟩ ,
donde
|α0 |2 + |α1 |2 = 1.
Aquí
|α0 |2
representa la probabilidad de que el electrón se encuentre en el estado |0⟩ .
Mientras que
|α1 |2

459
representa la probabilidad de que el electrón se encuentre en el estado |1⟩ .

Los estados de espín de un electrón se pueden representar en la llamada


esfera de Bloch, que se muestra en la gura (37.1).

|ψ⟩ = |0⟩

|ψ⟩

|ψ⟩ = |1⟩

Figura 37.1: Representación del Qubit en la esfera de Bloch.

La diferencia entre la computación clásica y cuántica radica en que los bit


solo tienen acceso a los polos de la esfera de Bloch, mientras que los qubits
tienen acceso a toda la esfera de Bloch.

Para construir estados de varios qubits ocuparemos el producto tensorial,


por ejemplo
|11⟩ = |1⟩ ⊗ |1⟩ ,

o
|101⟩ = |1⟩ ⊗ |0⟩ ⊗ |1⟩ .

460
Podemos observar que en un sistema de n qubits, cada electrón aporta dos
elementos a la base del sistema. Por lo que un sistema de n qubits tiene di-
mensión
2n .

37.9. Compuertas cuánticas


Existen diferentes compuertas cuánticas, por ejemplo tenemos las matrices
de Pauli, que en computación cuántica se denotan como
 
0 1
X = NOT = σ1 = ,
1 0
 
0 −i
Y = σ2 = ,
i 0
 
1 0
Z = σ3 = .
0 −1

Otro ejemplo es la compuerta de Hadamard


 
1 1 1
H=√ ,
2 1 −1

con la cual se obtiene


|0⟩ + |1⟩
H |0⟩ = √ = |+⟩ ,
2
|0⟩ − |1⟩
H |1⟩ = √ = |−⟩ .
2
Se puede observar que las compuertas actuando en un qubit son transforma-
ciones geométricas de puntos sobre la esfera de Bloch (37.1).

Ahora, para realizar operaciones secuenciales debemos aplicar de mane-


ra sucesivas las compuertas. Por ejemplo, si el sistema está en el estado |ψ⟩
y tenemos las compuertas M1 , M 2, · · · , MN −1 podemos realizar la operación
secuencial
MN MN −1 · · · M2 M1 |ψ⟩ .

461
Para realizar operaciones paralelas se usa el producto tensorial. Por ejem-
plo, si el sistema se describe con el estado
|ψ⟩ = |ψ1 ⟩ ⊗ |ψ2 ⟩
y se tienen las dos compuertas
A1 , A2
podemos construir la compuerta paralela
A = A1 ⊗ A2 ,
con la cual se puede realizar la operación paralela
A |ψ⟩ = (A1 ⊗ A2 ) (|ψ1 ⟩ ⊗ |ψ2 ⟩) = (A1 |ψ1 ⟩) ⊗ (A2 |ψ2 ⟩)
esto es
A |ψ⟩ = (A1 |ψ1 ⟩) ⊗ (A2 |ψ2 ⟩) .

37.10. Compuertas con control o controladas


Existe otro tipo de compuertas que se les llama C-Compuertas, las cuales
actúan sobre sistemas de más de un qubit y si se cumple alguna condición
particular sobre uno de los qubits.

Por ejemplo, supongamos que tenemos la compuerta A para sistemas de


un qubit
 
a b
A= (37.21)
c d
Entonces podemos construir la compuerta CA que actúa sobre un sistemas de
dos qubits
|ψ⟩ = |ψ1 ⟩ ⊗ |ψ2 ⟩ = |ψ1 ψ2 ⟩ . (37.22)
En donde la regla es que la compuerta CA no cambia a los estados en los
cuales el primer qubit es |0⟩ , pero si el primer qubit es |1⟩ la compuerta A
actúa sobre el segundo qubit. Esto es
CA |00⟩ = |00⟩ ,
CA |01⟩ = |01⟩ ,
CA |10⟩ = |1⟩ ⊗ A |0⟩ ,
CA |11⟩ = |1⟩ ⊗ A |1⟩ .

462
Por ejemplo tenemos la compuerta CNOT es
CNOT |00⟩ = |00⟩ ,
CNOT |01⟩ = |01⟩ ,
CNOT |10⟩ = |1⟩ ⊗ NOT |0⟩ = |1⟩ ⊗ |1⟩ = |11⟩ ,
CNOT |11⟩ = |1⟩ ⊗ NOT |1⟩ = |1⟩ ⊗ |0⟩ = |10⟩ ,
esto es
CNOT |00⟩ = |00⟩ ,
CNOT |01⟩ = |01⟩ ,
CNOT |10⟩ = |11⟩ ,
CNOT |11⟩ = |10⟩ .
Así, la compuerta CNOTse puede representar con la matriz
 
1 0 0 0
0 1 0 0
CNOT = 
0
.
0 0 1
0 0 1 0

Como otro ejemplo tenemos la compuerta CH, la cual nos da


CH |00⟩ = |00⟩ ,
CH |01⟩ = |01⟩ ,
CH |10⟩ = |1⟩ ⊗ H |0⟩ = |1⟩ ⊗ |+⟩ = |1+⟩ ,
CH |11⟩ = |1⟩ ⊗ H |1⟩ = |1⟩ ⊗ |−⟩ = |1−⟩ ,
esto es
CH |00⟩ = |00⟩ ,
CH |01⟩ = |01⟩ ,
CH |10⟩ = |1+⟩ ,
CH |11⟩ = |1−⟩ .
Por lo que compuerta CH se puede representar con la matriz
1 0 0 0
 
0 1 0 0 
CNOT = 
0 0 √1 √1  .

2 2
0 0 √1 − √12
2

463
Para esete caso, una compuerta CA se puede representar con la matriz
 
I 0
CA = .
0 A

37.11. Ejercicios
1.- Si A y B son dos proposiciones, obtener la representación matricial de
la compuerta para la expresión
A ∨ ¬B. (37.23)
2.- Si A y B son dos proposiciones, usando la representación matricial de
las compuertas mostrar que se cumplen la ley de De Morgan

¬ (A ∨ B) = ¬A ∧ ¬B, (37.24)
es decir, usando la representación matricial de compuertas mostrar que se
cumple
NOT · (OR) = AND · (NOT ⊗ NOT) . (37.25)
3.- Si A y B son dos proposiciones, usando la representación matricial de
las compuertas mostrar que se cumplen la ley de De Morgan

¬ (A ∧ B) = ¬A ∨ ¬B.

es decir, usando la representación matricial de compuertas mostrar que se


cumple
NOT (AND) = OR (NOT ⊗ NOT) .

464
Capítulo 38
Transformada cuántica de Fourier
La Transformada Cuántica de Fourier está relacionada con la Transformada
Discreta de Fourier, sin embargo, estas transformadas se aplican en contextos
diferentes. Por esta razón, buscando que estos temas se puedan estudiar de
forma autónoma, los capítulos de estos temas se presentan de forma indepen-
diente con su notación propia y sin hacer referencia entre ellos.

38.1. Expansión binaria


Antes de iniciar, recordemos la expresión de los números naturales en la
forma binanria.

Primero notemos que los números 0 y 1 se pueden escribir como


0 = 0 · 20 ,
1 = 1 · 20

es decir
x = a0 20 , a0 = 0, 1.

Además, los 4 números


0, 1, 2, 3

465
se pueden escribir como
0 = 0 · 21 + 0 · 20 ,
1 = 0 · 21 + 1 · 20 ,
2 = 1 · 21 + 0 · 20 ,
3 = 1 · 21 + 1 · 20 ,

de donde
x = a1 21 + a0 20 , a1 , a0 = 0, 1.

De la misma forma, los primeros 8 números


0, 1, 2, 3, 4, 5, 6, 7

se pueden escribir como


0 = 0 · 22 + 0 · 21 + 0 · 20 ,
1 = 0 · 22 + 0 · 21 + 1 · 20 ,
2 = 0 · 22 + 1 · 21 + 0 · 20 ,
3 = 0 · 22 + 1 · 21 + 1 · 20 .
4 = 1 · 22 + 0 · 21 + 0 · 20 ,
5 = 1 · 22 + 0 · 21 + 1 · 20 ,
6 = 1 · 22 + 1 · 21 + 0 · 20 ,
7 = 1 · 22 + 1 · 21 + 1 · 20 ,

así
x = a2 22 + a1 21 + a0 20 , a1 , a0 = 0, 1.

En general, la expansión binaria de los primeros 2n números


0, 1, 2, · · · , 2n − 1

se pueden escribir como

x = an−1 2n−1 + an−2 2n−2 + · · · + a1 21 + a0 20 , an−1 , · · · , a0 = 0, 1.

466
38.1.1. Notación binaria fraccionaria
Ahora veremos la notación binaria fraccionaria.

Note que dado el conjunto de n números


x1 , x2 , · · · , xn

se puede construir el número decimal


x = 0.x1 x2 · · · xn .

Con esta expresión se puede se dene la fracción binaria como

x1 x2 x3 xn
[0.x1 x2 · · · xn ] = + 2 + 3 + ··· + n,
2 2 2 2

en particular,
x1
[0.x1 ] = ,
2
además,
x1 x2
[0.x1 x2 ] = + 2.
2 2
Por ejemplo,
1
[0,1] = ,
2
además,
1 1 3
[0,11] = + 2 =
2 2 4
otro ejemplo es
1 0 1 5
[0,101] = + 2+ 3 = .
2 2 2 8
Los resultados de esta sección los usaremos para expresar de forma más sencilla
los qubits y su transformada cuántica de Fourier.

467
38.2. Estados con notación binaria
Un qubit tienen como base los estados
   
1 0
|0⟩ = , |1⟩ = .
0 1

Para un sistema de un qubit cualquier estado se puede escribir como


|ψ⟩ = α0 |0⟩ + α1 |1⟩ , |α0 |2 + |α1 |2 = 1.

Además, note que si tenemos dos estados, N = 21 , de forma binaria tenemos


x = a0 20 , a0 = 0, 1,

por lo que la base de estados de un qubit se pueden escribir como


|a0 ⟩ , a0 = 0, 1.

Para dos qubits tenemos N = 22 = 4 estados, los cuales son

|0⟩ ⊗ |0⟩ = |00⟩ ,


|0⟩ ⊗ |1⟩ = |01⟩ ,
|1⟩ ⊗ |0⟩ = |10⟩ ,
|1⟩ ⊗ |1⟩ = |11⟩ .

Como podemos ver, estos estados se expresan en términos de los coecientes


de la expansión binaria de los primeros cuatro números. Así, inspirados en la
expansión binaria, si tenemos 2 qubits, a los elementos de la base del sistema
los enumeramos como
|0⟩ = |00⟩ ,
|1⟩ = |01⟩ ,
|2⟩ = |10⟩ ,
|3⟩ = |11⟩ .

Por lo que, cuando tenemos 2 qubits cualquier estado se puede escribir como
|ψ⟩ = α0 |0⟩ + α1 |1⟩ + α2 |2⟩ + α3 |3⟩ ,

468
con
|α0 |2 + |α1 |2 + |α2 |2 + |α3 |2 = 1.

Para tres qubits tenemos N = 23 = 8 estados, los cuales son

|0⟩ ⊗ |0⟩ ⊗ |0⟩ = |000⟩ ,


|0⟩ ⊗ |0⟩ ⊗ |1⟩ = |001⟩ ,
|0⟩ ⊗ |1⟩ ⊗ |0⟩ = |010⟩ ,
|0⟩ ⊗ |1⟩ ⊗ |1⟩ = |011⟩ .
|1⟩ ⊗ |0⟩ ⊗ |0⟩ = |100⟩ ,
|1⟩ ⊗ |0⟩ ⊗ |1⟩ = |101⟩ ,
|1⟩ ⊗ |1⟩ ⊗ |0⟩ = |110⟩ ,
|1⟩ ⊗ |1⟩ ⊗ |1⟩ = |111⟩ .

Entonces, siguiendo esta expansión binaria de los primeros 8 números, si tene-


mos 3 qubits enumeramos los elementos de la base como

|0⟩ = |000⟩ ,
|1⟩ = |001⟩ ,
|2⟩ = |010⟩ ,
|3⟩ = |011⟩ ,
|4⟩ = |100⟩ ,
|5⟩ = |101⟩ ,
|6⟩ = |110⟩ ,
|7⟩ = |111⟩ .

Así, cuando tenemos 3 qubits, cualquier estado se puede escribir como


|ψ⟩ = α0 |0⟩ + α1 |1⟩ + α2 |2⟩ + α3 |3⟩ + α4 |4⟩ + α5 |5⟩ + α6 |6⟩ + α7 |7⟩

con
|α0 |2 + |α1 |2 + |α2 |2 + |α3 |2 + |α4 |2 + |α5 |2 + |α6 |2 + |α7 |2 = 1

469
Si tenemos un sistema de n qubits, su base consta de N = 2n estados, los
cuales son
|0⟩ ⊗ · · · ⊗ |0⟩ ⊗ |0⟩ = |0 · · · 00⟩ ,
|0⟩ ⊗ · · · ⊗ |0⟩ ⊗ |1⟩ = |0 · · · 01⟩ ,
..
.
|1⟩ ⊗ · · · ⊗ |1⟩ ⊗ |1⟩ = |1 · · · 11⟩ .

Para enumerar estos estados emplearemos la expansión binaria de los pri-


meros 2n números. En este caso, si

k ∈ {0, 1, 2, · · · , 2n − 1}

deniremos el estado

|k⟩ = |an−1 an−2 · · · a1 a0 ⟩ ,

donde

k = an−1 2n−1 + an−2 2n−2 + · · · + a1 21 + a0 20 , an−1 , · · · , a0 = 0, 1.

Así, cuando tenemos n qubits, cualquier estado se puede escribir como

|ψ⟩ = α0 |0⟩ + α1 |1⟩ + · · · + α2n −1 |2n − 1⟩ ,

con
|α0 |2 + |α1 |2 + · · · + |α2n −1 |2 = 1.

38.3. Transformada cuántica de Fourier


Supongamos que tenemos n qubits, entonces si
n −1
2X
|ψ⟩ = γk |k⟩
k=0

470
es un estado del sistema, su Transformada Cuántica de Fourier se dene como

n −1
2X
QF T |ψ⟩ = γ̃k |k⟩
k=0

donde
n
2 −1
1 X
(38.1)
2πi πi
γ̃k = √ γj ω kj , ω = e 2n = e 2n−1 .
2n j=0

Por lo que
n −1
2X 2 −1 n
1 X
QF T |ψ⟩ = √ γj ω kj |k⟩
k=0
2n j=0
n −1
2X n −1
2X
!
1
= γj √ ω kj |k⟩
j=0
2n k=0
n −1
2X
= γj QF T |j⟩
j=0

con
2 −1 n
1 X jk
QF T |j⟩ = √ ω |k⟩ .
2n k=0

De forma explícita tenemos la transformación

1
QF T |0⟩ = √ (|0⟩ + |1⟩ + |2⟩ + · · · + |2n − 1⟩) ,
2n
1 n
|0⟩ + ω |1⟩ + ω 2 |2⟩ + · · · + ω 2 −1 |2n − 1⟩ ,

QF T |1⟩ = √
2n
1 n
|0⟩ + ω 2 |1⟩ + ω 4 |2⟩ + · · · + ω 2(2 −1) |2n − 1⟩ ,

QF T |2⟩ = √
2n
..
.
1  n n n 2

QF T |2n − 1⟩ = √ |0⟩ + ω 2 −1 |1⟩ + ω 2(2 −1) |2⟩ + · · · + ω (2 −1) |2n − 1⟩ .
2n

471
Por lo tanto, la transforama cuántica de Fourier se puede escribir como

    
|0⟩ 1 1 1 ··· 1 |0⟩
n
 |1⟩
 1 ω ω2 ··· ω 2 −1   |1⟩ 
 
|2⟩ 1 
1 ω 2 ω4 ··· ω 2(2n −1)  

|2⟩

QF T  = √ n .
  
..  . .. .. ... ..   .. 
 ..

2 
.  . . .  . 


n n −1 n (2n −1)2 |2n − 1⟩
|2 − 1⟩ 1 ω 2
ω −1)
2(2
··· ω

A la matriz
 
1 1 1 ··· 1
n
1 ω ω 2
··· ω 2 −1 
1 
2
ω4
n
ω 2(2 −1) 

W = √ 1 ω ··· (38.2)
. .. .. ... .. 
 ..
n

2 
. . . 
2n −1 2(2n −1) (2n −1)2
1 ω ω ··· ω

se le llama matriz de Fourier.

38.3.1. Un qubit
Si tenemos un qubit se cumple 21 = 2, por lo que
ω = eπi

de donde
 
1 1 1
W2 = H = √ ,
2 1 −1

a la matriz H se le llama matriz de Hadamard y es utilizada como una com-


puerta lógica en diferentes algoritmos de la computación cuántica [15].

Por lo tanto,
    
|0⟩ 1 1 1 |0⟩
QF T =√ ,
|1⟩ 2 1 −1 |1⟩

472
de donde
1
QF T |0⟩ = √ (|0⟩ + |1⟩) ,
2
1
QF T |1⟩ = √ (|0⟩ − |1⟩) .
2
Usando la notación de la fracción binaria, podemos ver que
1
QF T |0⟩ = √ |0⟩ + e2πi[0,0] |1⟩ ,

2
1
QF T |1⟩ = √ |0⟩ + e2πi[0,1] |1⟩ ,

2
es decir

1
QF T |a0 ⟩ = √ |0⟩ + e2πi[0.a0 ] |1⟩ ,

a1 = 0, 1.
2

Como podemos ver, con la notación binaria la transformada cuántica de Fourier


se puede escribir de forma compacta.

38.3.2. Dos qubits


Para dos qubits se tiene 22 = 4, por lo que
πi
ω=e2

de donde
 
1 1 1 1
1 1 i −1 −i 
W4 =  .
2 1 −1 1 −1
1 −i −1 i

Por lo tanto
    
|0⟩ 1 1 1 1 |0⟩
|1⟩ 1 1 i −1 −i  |1⟩
QF T 
|2⟩ = 2 1 −1 1 −1 |2⟩ ,
   

|3⟩ 1 −i −1 i |3⟩

473
que implica
1
QF T |0⟩ = (|0⟩ + |1⟩ + |2⟩ + |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ + |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ + |1⟩) + |1⟩ ⊗ (|0⟩ + |1⟩))
2
1
= (|0⟩ + |1⟩) ⊗ (|0⟩ + |1⟩) ,
2
es decir,
1
QF T |0⟩ = (|0⟩ + |1⟩) ⊗ (|0⟩ + |1⟩) .
2
Usando la expansión binaria este resultado se puede escribir como
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,00] |1⟩ .
 
QF T |00⟩ =
2
Además,
1
QF T |1⟩ = (|0⟩ + i |1⟩ − |2⟩ − i |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ + i |1⟩) − |1⟩ ⊗ (|0⟩ + i |1⟩))
2
1
= (|0⟩ − |1⟩) ⊗ (|0⟩ + i |1⟩) ,
2
de donde
1
QF T |1⟩ = (|0⟩ − |1⟩) ⊗ (|0⟩ + i |1⟩) .
2
Por lo que usando la expansión binaria, este último resultado se puede escribir
como
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,01] |1⟩ .
 
QF T |01⟩ =
2
Adicionalmente,
1
QF T |2⟩ = (|0⟩ − |1⟩ + |2⟩ − |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ − |1⟩) + |1⟩ ⊗ (|0⟩ − |1⟩))
2
1
= (|0⟩ + |1⟩) ⊗ (|0⟩ − |1⟩) ,
2
474
entonces,
1
QF T |2⟩ = (|0⟩ + |1⟩) ⊗ (|0⟩ − |1⟩) .
2
Usando la expansión binaria, este estado se puede escribir como
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,10] |1⟩ .
 
QF T |10⟩ =
2
De la misma forma
1
QF T |3⟩ = (|0⟩ − i |1⟩ − |2⟩ + i |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ − i |1⟩) − |1⟩ ⊗ (|0⟩ − i |1⟩))
2
1
= (|0⟩ − |1⟩) ⊗ (|0⟩ − i |1⟩) ,
2
así,
1
QF T |3⟩ = (|0⟩ − |1⟩) ⊗ (|0⟩ − i |1⟩) .
2
Con la expansión binaria este resultado se puede escribir como
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ .
 
QF T |11⟩ =
2
En resumen tenemos las transformaciones
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,00] |1⟩ ,
 
QF T |0⟩ = QF T |00⟩ =
2
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,01] |1⟩ ,
 
QF T |1⟩ = QF T |01⟩ =
2
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,10] |1⟩ ,
 
QF T |2⟩ = QF T |10⟩ =
2
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ ,
 
QF T |3⟩ = QF T |11⟩ =
2
que de forma compacta se puede expresar como

1
|0⟩ + e2πi[0.a0 ] |1⟩ ⊗ |0⟩ + e2πi[0.a1 a0 ] |1⟩ ,
 
QF T |a1 a0 ⟩ = a0 , a1 = 0, 1.
2

De esta forma la notación binaria nos permite escribri a la transformada cuán-


tica de Fourier de forma simple.

475
38.3.3. Tres qubits
Para 3 qubits se tiene 23 = 8, entonces
πi
ω=e4

por lo que la matriz de Fourier es


 
1 1 1 1 1 1 1 1
1 e πi4 i
3πi
e 4
πi 3πi
−1 −e 4 −i −e 4 
 
1
 i −1 −i 1 i −1 −i  
3πi πi 3πi πi 
1 
1 e 4 −i e 4 −1 −e 4 i −e 4
W8 = √  .
8 1 −1 1 −1 1 −1 1 −1 
πi 3πi πi 3πi 
1 −e 4 i −e 4 −1 e 4 −i e 4 

1 −i −1 −i −1
 
i 1 i 
3πi πi 3πi πi
1 −e 4 −i −e 4 −1 e 4 i e4

De esta matriz se obtiene


1
QF T |0⟩ = √ (|0⟩ + |1⟩ + |2⟩ + |3⟩ + |4⟩ + |5⟩ + |6⟩ + |7⟩)
8

1
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + |0⟩ ⊗ |0⟩ ⊗ |1⟩ + |0⟩ ⊗ |1⟩ ⊗ |0⟩
8
+ |0⟩ ⊗ |1⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |1⟩

+ |1⟩ ⊗ |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |1⟩ ⊗ |1⟩

1
= √ |0⟩ ⊗ (|0⟩ ⊗ |0⟩ + |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |1⟩)
8

+ |1⟩ ⊗ (|0⟩ ⊗ |0⟩ + |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |1⟩)
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ + |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |1⟩
8
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ (|0⟩ + |1⟩) + |1⟩ ⊗ (|0⟩ + |1⟩)
8
     
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ,
8
es decir,
     
1
QF T |0⟩ = √ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ .
8

476
Usando la expansión binaria, este resultado se puede escribir como
     
1 2πi[0,0] 2πi[0,00] 2πi[0,000]
QF T |000⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8

Además,
1  πi 3πi πi 3πi

QF T |1⟩ = √ |0⟩ + e 4 |1⟩ + i |2⟩ + e 4 |3⟩ − |4⟩ − e 4 |5⟩ − i |6⟩ − e 4 |7⟩
8

1 πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ + i |0⟩ ⊗ |1⟩ ⊗ |0⟩
8
3πi πi
+e 4|0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩

3πi
−i |1⟩ ⊗ |1⟩ ⊗ |0⟩ − e |1⟩ ⊗ |1⟩ ⊗ |1⟩
4


1  πi 3πi

= |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
2
 πi 3πi

− |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
   
1 πi 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
8
   
1  πi
  πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ + |1⟩ ⊗ i |0⟩ + ie 4 |1⟩
8
     
1 πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ,
8

de donde
     
1 πi πi
QF T |1⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ + e 2 |1⟩ ⊗ |0⟩ + e 4 |1⟩ .
8
que usando la expansión binaria, se puede escribir como
     
1 2πi[0,1] 2πi[0,01] πi
2πi[0,001]
QF T |001⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e e 2 |1⟩ ⊗ |0⟩ + e |1⟩ .
8

477
De la misma forma
1
QF T |2⟩ = √ (|0⟩ + i |1⟩ − |2⟩ − i |3⟩ + |4⟩ + i |5⟩ − |6⟩ − i |7⟩)
8

1
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |0⟩ ⊗ |1⟩ − |0⟩ ⊗ |1⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ ⊗ |1⟩
8

+ |1⟩ ⊗ |0⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩ ⊗ |1⟩

1
= √ |0⟩ ⊗ (|0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩)
8

+ |1⟩ ⊗ (|0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩)
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩
8
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ (|0⟩ + i |1⟩) − |1⟩ ⊗ (|0⟩ + i |1⟩)
8
     
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ,
8

por lo que
     
1
QF T |2⟩ = √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ,
8
que usando la expansión binaria se puede escribir como
     
1 2πi[0,0] 2πi[0,10] 2πi[0,010]
QF T |010⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8

478
Como otro caso tenemos
1  3πi πi 3πi πi

QF T |3⟩ = √ |0⟩ + e 4 |1⟩ − i |2⟩ + e 4 |3⟩ − |4⟩ − e 4 |5⟩ + i |6⟩ − e 4 |7⟩
8

1 3πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ − i |0⟩ ⊗ |1⟩ ⊗ |0⟩ +
8
πi 3πi
+e |0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩ +
4

πi
+i |1⟩ ⊗ |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩ ⊗ |1⟩

1  3πi πi

= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
8
 3πi πi

− |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
   
1 3πi πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
8
   
1  3πi
  πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ − i |1⟩ ⊗ |0⟩ + ie 4 |1⟩
8
   
1  3πi
  3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩
8
     
1 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ,
8
entonces,
     
1 3πi
QF T |3⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ,
8
que usando la expansión binaria se puede escribir como
     
1
QF T |011⟩ = √ |0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ ⊗ |0⟩ + e2πi[0,011] |1⟩ .
8

479
Ahora,
1
QF T |4⟩ = √ (|0⟩ − |1⟩ + |2⟩ − |3⟩ + |4⟩ − |5⟩ + |6⟩ − |7⟩)
8

1
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − |0⟩ ⊗ |0⟩ ⊗ |1⟩ + |0⟩ ⊗ |1⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ ⊗ |1⟩
8

+ |1⟩ ⊗ |0⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩ ⊗ |1⟩

1
= √ |0⟩ ⊗ (|0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩)
8

+ |1⟩ ⊗ (|0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩)
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩
8
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ (|0⟩ − |1⟩) + |1⟩ ⊗ (|0⟩ − |1⟩)
8
     
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ,
8

por lo tanto,
     
1
QF T |4⟩ = √ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ,
8
que usando la expansión binaria se puede escribir como
     
1 2πi[0,0] 2πi[0,00] 2πi[0,100]
QF T |100⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8

480
Otro caso es
1  πi 3πi πi 3πi

QF T |5⟩ = √ |0⟩ − e 4 |1⟩ + i |2⟩ − e 4 |3⟩ − |4⟩ + e 4 |5⟩ − i |6⟩ + e 4 |7⟩
8

1 πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ + i |0⟩ ⊗ |1⟩ ⊗ |0⟩
8
3πi πi
−e 4|0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩

3πi
−i |1⟩ ⊗ |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩ ⊗ |1⟩

1  πi πi

= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
 πi 3πi

− |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
   
1 πi 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
   
1  πi
  3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ + i |1⟩ ⊗ |0⟩ + ie 4 |1⟩
8
   
1  πi
  πi πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ + i |1⟩ ⊗ |0⟩ + ie 2 e 4 |1⟩
8
   
1  πi
  πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ + i |1⟩ ⊗ |0⟩ + iie 4 |1⟩
8
     
1 πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8

así,
     
1 πi
QF T |5⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8
que usando la expansión binaria se puede escribir como
     
1 2πi[0,1] 2πi[0,01] 2πi[0,101]
QF T |101⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8

481
También se encuentra
1
QF T |6⟩ = √ (|0⟩ − i |1⟩ − |2⟩ + i |3⟩ + |4⟩ − i |5⟩ − |6⟩ + i |7⟩)
8

1
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |0⟩ ⊗ |1⟩ − |0⟩ ⊗ |1⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ ⊗ |1⟩
8

+ |1⟩ ⊗ |0⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩ ⊗ |1⟩

1
= √ |0⟩ ⊗ (|0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩)
8

+ |1⟩ ⊗ (|0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩)
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩
8
   
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ (|0⟩ − i |1⟩) − |1⟩ ⊗ (|0⟩ − i |1⟩)
8
     
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ,
8

por lo cual
     
1
QF T |6⟩ = √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ,
8
que usando la expansión binaria, se puede escribir como
     
1 2πi[0,0] 2πi[0,10] 2πi[0,110]
QF T |110⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8

482
De la misma forma
1  3πi πi 3πi πi

QF T |7⟩ = √ |0⟩ − e 4 |1⟩ − i |2⟩ − e 4 |3⟩ − |4⟩ + e 4 |5⟩ + i |6⟩ + e 4 |7⟩
8

1 3πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ − i |0⟩ ⊗ |1⟩ ⊗ |0⟩
8
πi 3πi
−e 4|0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩ +

πi
+i |1⟩ ⊗ |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩ ⊗ |1⟩

1  3πi πi

= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
 3πi πi

− |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
   
1 3πi πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
   
1  3πi
  πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ − i |1⟩ ⊗ |0⟩ − ie 4 |1⟩
8
   
1  3πi
  3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩
8
     
1 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8

en consecuencia
     
1 3πi
QF T |7⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8
que usando la expansión binaria se puede escribir como
QF T |7⟩ = QF T |111⟩
     
1 2πi[0,1] 2πi[0,11] 2πi[0,111]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8

483
Por lo tanto,
QF T |0⟩ = QF T |000⟩
     
1
= √ |0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,00] |1⟩ ⊗ |0⟩ + e2πi[0,000] |1⟩ ,
8
QF T |1⟩ = QF T |001⟩
     
1 2πi[0,1] 2πi[0,01] 2πi[0,001]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |2⟩ = QF T |010⟩
     
1
= √ |0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,10] |1⟩ ⊗ |0⟩ + e2πi[0,010] |1⟩ ,
8
QF T |3⟩ = QF T |011⟩
     
1 2πi[0,1] 2πi[0,11] 2πi[0,011]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |4⟩ = QF T |100⟩
     
1 2πi[0,0] 2πi[0,00] 2πi[0,100]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |5⟩ = QF T |101⟩
     
1
= √ |0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,01] |1⟩ ⊗ |0⟩ + e2πi[0,101] |1⟩ ,
8
QF T |6⟩ = QF T |110⟩
     
1 2πi[0,0] 2πi[0,10] 2πi[0,110]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |7⟩ = QF T |111⟩
     
1
= √ |0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ ⊗ |0⟩ + e2πi[0,111] |1⟩ .
8

Con la notación binaria todos estos estados se pueden escribir de la forma


compacta

QF T |a2 a1 a0 ⟩ =
     
1 2πi[0.a0 ] 2πi[0.a1 a0 ] 2πi[0.a2 a1 a0 ]
√ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8

38.4. Caso general


En general, si tenemos n qubits tendremos 2n estados en la base del sistema,
además los primeros 2n números se puede escribir con la expansión binariar

484
como

k = an−1 2n−1 + an−2 2n−2 + · · · + a1 21 + a0 20 , an−1 , · · · , a0 = 0, 1.

Entonces la transformada cuántica de Fourier se puede escribir como

QF T |k⟩ = QF T |an−1 · · · a1 a0 ⟩
     
1
=√ |0⟩ + e2πi[0.a0 ] |1⟩ ⊗ |0⟩ + e2πi[0.a1 a0 ] |1⟩ ⊗ · · · ⊗ |0⟩ + e2πi[0.an ···a1 a0 ] |1⟩ .
2n

38.5. La inversa de la matriz de Fourier


Se puede observar que las componentes de la matriz de Fourier W (38.2)
se pueden escribir como
1
Wij = √ ω ij , i, j = 0, 1, 2, 3, · · · , 2n − 1.
2n
donde ω está denida en (38.1). Ahora, note que en esta matriz los índices
empiezan en cero y teminan en 2n − 1, por lo que tenemos una matriz de
(2n − 1) × (2n − 1) .

Además, considerando la denición de ω dada en (38.1), las componentes


de la matriz adjunta de W son
1 ∗
(W † )ij = √ ω ji
2n
1
= √ ω −ji ,
2n
es decir,
1
(W † )ij = √ ω −ji .
2n
De donde

(W W † )ij = Wik Wkj
1 1
= √ ω ik √ ω −jk
2 n 2n
1
= n ω ik−jk
2
1
= n ω k(i−j) ,
2
485
esto es,
1 k(i−j)
(W W † )ij = ω .
2n
Recordemos que, de acuerdo con la convención de la suma de Einstein, en esta
expresión tenemos una suma sobre k. Así, por razones de claridad, escribiremos
2 −1 n
1 X k(i−j)

(W W )ij = n ω . (38.3)
2 k=0

Para el caso en que


i=j
tenemos
2 −1 n

† 1 X k0
(W W )ii = n ω
2 k=0
2 −1 n
1 X
= n 1
2 k=0
2n
= n,
2
por lo que
(W W † )ii = 1.
Mientras que en el caso
i ̸= j
podemos denir
z = ω i−j (38.4)
y la suma (38.3) se puede escribir como
2 −1 n

† 1 X k
(W W )ij = n z .
2 k=0

Por lo tanto, usando la suma geométrica, tenemos


2 −1 n

† 1 X k
(W W )ij = z
N k=0
n
1 z2 − 1
= ,
2n z − 1

486
por lo cual
n
† 1 z2 − 1
(W W )ij = n ,
2 z−1
Ahora, considerando la denición de z dada en (38.4) y la denición ω dada
en (38.1) se encuentra
n 2n
z2 = ω i−j
 2π (i−j)2n
= e 2n
2π(i−j)2n
= e 2n
= e2π(i−j) = 1
es decir, n
z 2 = 1.
Por lo tanto, si i ̸= j, se encuentra
(W W † )ij = 0.
Estos resultados nos indican que se cumple la igualdad
(W W † )ii = δij ,
en otras palabras
W W † = I.
Por lo tanto, se cumple la igualdad

W † = W −1

y la matriz de Fourier W es una matriz unitaria.

Así
 
1 1 1 ··· 1
−1 −2 n
1 ω ω ··· ω −(2 −1) 
1 
ω −2 ω −4 ···
n
ω −2(2 −1)

W −1 = W † = √ 1 .

n
2  .
 ..
.. .. ... ..
. . .


−(2n −1) −2(2n −1) n −1)(2n −1)
1 ω ω ··· ω −(2

Con esta matriz se construye la Inversa de la Tranformada Cuántica de Fourier.

487
Referencias
[1] E. Lluis-Puebla, Álgebra lineal, Primera edición, Sistemas Técnicos de
Edición, México (1997).
[2] S. H. Friedberg, A. J. Insel y L. E. Spence, Álgebra lineal, Primera edición,
Publicaciones Cultural S.A, México (1982).
[3] P. Halmos, Finite-dimensional vector spaces, Segunda edición, Dover, New
York (2017).
[4] H. A. Rincón, Álgebra lineal, Facultad de Ciencias UNAM, México (2015).
[5] J. A. de la Peña, Álgebra lineal avanzada, Fondo de Cultura Económica,
México (1996).
[6] H. Anton, Introducción al álgebra lineal, Limusa, México (2001).
[7] A. M. Sales-Cruz y O. González-Gaxiola, Introducción al álgebra lineal
con Mathematica, UAM Cuajimalpa, México (2014).
[8] R. Courant y F. John, Introducción al cálculo y al análisis matemático,
Volumen I y II, Editorial Limusa, México (1990).
[9] M. Reed y B. Simon, Methods of modern mathematical physics, Academic
Press Inc, New York (1972).
[10] A. N. Kolmogorov, Elementos de la teoría de funciones y del análisis
funcional, Mir Moscú, México (1975).
[11] D. Luzardo y A. L. Peña, Historia del álgebra lineal hasta los albores del
siglo XX, Divulgaciones Matemáticas 14 Vol. 4, 153 (2006).
[12] N. Bourbaki, Elementos de historia de las matemáticas, Alianza Editorial,
Madrid (1976).
[13] M. J. Crowe, A History of vector analysis, Dover, New York (1967).

488
[14] A. D. Aczel, El último teorema de Fermat, el secreto de un antiguo pro-
blema matemático, Fondo de Cultura Económica, México (2003).
[15] J. D. Hidary, Quantum computing: an applied approach, Springer, Switzer-
land (2019).
[16] P. V. O' Neil, Matemáticas avanzadas para la ingeniería. Quinta edición.
International Thomson Editores, México (2004).
[17] H. Gardner, Mentes creativas: una anatomía de la creatividad. Ediciones
Paidós Ibérica, Madrid (1995).
[18] H. Weyl, Space, Time, Matter. Dover, USA (1955).
[19] L. F. Magaña, Las matemáticas y los mayas, Ciencias 19, (1990). (1955).

489
Índice Alfabético
O(n), 280 Exponencial de una matriz, 223
SO(2), 286
SO(3), 286 Formas bilineales, 363
SO(n), 280 Formas cuadráticas , 375
SU (2), 295 Formas multilineales, 390
SU (3), 296 Función alternante, 396
SU (n), 290 Funciones bilineales, 354
U (1), 294 Funciones multilineales, 387
U (2), 295 Gauss-Jordan, 94
U (n), 290 Generadores, 27
Gram-Schmidt, 196
Base, 30
Bloques de Jordan, 324 Imagen, 142
Independencia lineal, 28
Cambio de base, 129 Integral Gaussiana, 300
Cayley-Hamilton, 320 Inversa, 39
Convención de Einstein, 34
Ker, 139
Delta de Kronecker, 37
Dependencia lineal, 29 Método de Cramer, 89
Derivada exterior, 396 Método Maya, 436
Desigualdad de Bessel, 185 Matrices, 17, 33
Desigualdad de Schwarz, 186 Matrices ortogonales, 279
Desigualdad del triángulo, 187 Matrices antihermíticas, 273
Determinante, 52 Matrices de Dirac, 274
Dimensión, 30 Matrices de Gell-Mann , 267
Matrices de Pauli, 265
Espacio dual, 342 Matrices similares, 214
Espacio vectorial, 15 Matrices unitarias, 290
Espacios invariantes, 324 Matriz adjunta, 83
Espacios métricos, 189 Matriz asociada, 154
Espacios normados, 187 Matriz diagonal, 210

490
Núcleo, 139 Tensor de Levi-Civita, 54
Tensores, 390, 396
Operador adjunto, 253 Teorema de Pitágoras, 183
Operador hermítico, 258 Transformación lineal, 134
Transformaciones de Lorentz, 381
Polinomio característico , 317 Transformada cuántica de Fourier,
Producto de Kronecker, 424 465
Producto escalar, 165 Transformada discreta de Fourier,
Producto exterior, 396 308
Producto tensorial, 419 Transpuesta, 40
Qubit, 459 Traza, 43

Rotaciones, 279 Valores propios, 205


Vectores normales, 174
Subespacios vectoriales, 24 Vectores ortogonales, 172
Vectores propios, 205
Tensor, 424 Vectores unitarios, 174

491
Álgebra lineal, con ejercicios en Python, apli-
caciones y notas históricas, de Juan Manuel
Romero Sanpedro, es una obra que se puede
encontrar en la página web del repositorio de la
UAM Cuajimalpa Concéntric@.

La asistencia editorial estuvo a cargo de Denise


Ocaranza.

También podría gustarte