MMF Prop
MMF Prop
MMF Prop
Olivier Sarbach
Instituto de Fı́sica y Matemáticas
Universidad Michoacana de San Nicolás de Hidalgo
26 de noviembre de 2013
Índice
1. Algebra lineal 2
1.1. Números reales y complejos . . . . . . . . . . . . . . . . . . . . . 3
1.1.1. Propiedades algebráicas de R . . . . . . . . . . . . . . . . 4
1.1.2. El valor absoluto . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3. El campo de los números complejos . . . . . . . . . . . . 7
1.1.4. El complejo conjugado y la norma . . . . . . . . . . . . . 9
1.1.5. La representación polar de un número complejo . . . . . . 10
1.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3. Independencia lineal, bases, dimensiones . . . . . . . . . . . . . . 18
1.4. Productos escalares, bases ortonormales (caso real) . . . . . . . . 27
1.5. Productos escalares, bases ortonormales (caso complejo) . . . . . 36
1.6. Transformaciones lineales y matrices . . . . . . . . . . . . . . . . 42
1.6.1. Núcleo, imagen, invertibilidad de transformaciones lineales 44
1.6.2. Matrices de transformación . . . . . . . . . . . . . . . . . 51
1.7. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.8. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . 51
1.9. Diagonalización de matrices . . . . . . . . . . . . . . . . . . . . . 51
1.10. Matrices Hermitianas y matrices unitarias . . . . . . . . . . . . . 51
2. Cálculo 52
2.1. Sucesiones convergentes . . . . . . . . . . . . . . . . . . . . . . . 52
2.2. Funciones f : Rn → Rm continuas . . . . . . . . . . . . . . . . . . 54
2.3. Funciones f : Rn → Rm diferenciables . . . . . . . . . . . . . . . 61
2.4. El teorema de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.5. Extremos relativos de funciones f : Rn → R . . . . . . . . . . . . 76
2.6. El teorema de funciones inversas . . . . . . . . . . . . . . . . . . 80
2.7. Campos vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.8. Los teoremas de Gauss y de Stokes (sin demostración) . . . . . . 80
2.9. Ecuaciones diferenciales ordinarias . . . . . . . . . . . . . . . . . 80
1
2.10. Funciones complejas . . . . . . . . . . . . . . . . . . . . . . . . . 80
3. Teorı́a de grupos 81
3.1. Propiedades básicas de los grupos . . . . . . . . . . . . . . . . . . 81
3.2. Ejemplos de grupos discretos . . . . . . . . . . . . . . . . . . . . 81
1. Algebra lineal
El problema central del álgebra lineal es de resolver un sistema lineal,
Ax = b, (1)
Ejemplos
1. Buscar x1 y x2 tales que
4x1 − 12x2 = b1 ,
−x1 + 3x2 = b2 ,
donde b1 y b2 son números reales dados. Para analizar las preguntas (1)-
(4) multiplicamos primero la segunda ecuación por cuatro y sumamos el
resultado a la primera ecuación. Ası́ obtenemos que
0 = b1 + 4b2 ,
2
2. Sea Ω ⊂ R3 un subconjunto del espacio tridimensional R3 , y sea ∂Ω su
frontera. El problema de Dirichlet consiste en encontrar una función u :
Ω → R tal que
− ∆u(x) = ρ(x), x ∈ Ω,
u(x) = 0, x ∈ ∂Ω,
∂2 ∂2 ∂2
∆ := 2
+ 2+ 2
∂x ∂y ∂z
es el operador de Laplace. En este caso, los espacios V y W son espacios
funcionales de dimensión infinita. Eligiendo estos espacios de manera ade-
cuada permite demostrar que el problema de Dirchlet posee una solución
única para cada ρ ∈ W . Pero para entender bien este problema se necesi-
tan conocimientos básicos en análisis funcional (el estudio de operadores
lineales sobre espacio vectoriales de dimensión infinita).
El problema de Dirichlet surge en varias ramas de la fı́sica, como por
ejemplo en electrostática y gravitación.
N := {1, 2, 3, 4, . . .}
x + n = m, n, m ∈ N
no tiene soluciones x ∈ N si m ≤ n.
Por esta razón se define el conjunto de los números enteros
Los números enteros son completos con respecto a la suma, pero incompletos
con respecto a la multiplicación: La ecuación
p · x = q, p, q ∈ Z, p 6= 0,
3
Los números racionales son completos con respecto a la suma y la multiplicación;
como vamos a ver, constituyen un campo. A pesar de esto, los números racionales
también sufren de un tipo de incompletitud: Por ejemplo, la ecuación
x2 = 2, x∈Q
Por esta razón vamos a trabajar con un conjunto aún mas grande de números:
el conjunto de los números reales R. Geometricamente, los números reales
representan el conjunto de los puntos en una recta. Se pueden definir como el
conjunto de números que pueden ser aproximados por los números racionales.
Una definición precisa del conjunto de los números reales es no-trivial (ver, por
ejemplo, [1]). En vez de intentar esto, vamos a resumir las propiedades de los
números reales.
4
Definición 1 Un conjunto F donde están definidos una suma + : F × F → F y
una multiplicación · : F × F → F se llama un campo si se satisfacen los nueve
axiomas (A1)-(A4),(M1)-(M4),(D) con R reemplazado por F.
Ejemplos
1. El conjunto de los números racionales, Q, también forma un campo.
2. Como vamos a ver pronto, el conjunto de los números complejos, C, forma
un campo.
3. Se puede verificar que el conjunto F2 := {0, 1} con las operaciones + y ·
definidas por
0 + 0 := 0, 0 · 0 := 0,
0 + 1 := 1, 0 · 1 := 0,
1 + 0 := 1, 1 · 0 := 0,
1 + 1 := 0, 1 · 1 := 1,
forma un campo (es el campo mas pequeño de todos ya que todo campo
contiene por lo menos el elemento neutro aditivo (0) y el elemento neutro
multiplicativo (1 6= 0).
5
Lema 2 (Propiedades elementales del valor absoluto) El valor absoluto
satisface las siguientes propiedades:
(i) |a| = 0 si y sólo si a = 0.
(ii) | − a| = |a| para todo a ∈ R.
Demostración.
(i) Si a = 0, entonces por definición |a| = 0. Si a 6= 0, entonces también a 6= 0,
de manera que |a| =6 0.
Demostración.
(i) De acuerdo con el lema 2(v) se tiene −|a| ≤ a ≤ |a| y −|b| ≤ b ≤ |b|.
Entonces,
− (|a| + |b|) ≤ a + b ≤ |a| + |b|.
A partir del lema 2(iv) se infiere que
|a + b| ≤ |a| + |b|.
6
(ii) Usando el resultado del inciso (i) se tiene
|a| = |a − b + b| ≤ |a − b| + |b|,
Definimos en C:
El elemento 0C := (0, 0).
El elemento 1C := (1, 0).
El elemento i := (0, 1).
La suma + : C × C → C por
7
Lema 3 (C es un campo) El conjunto de los números complejos C con la
suma, la multiplicación, el elemento neutro aditivo 0C y el elemento neutro
multiplicativo 1C definidos arriba forma un campo.
El axioma (M3) ya fue verificado arriba. Para verificar el axioma (M4), sea
z = (x, y) ∈ C, z 6= 0C , dado. Entonces tenemos que encontrar w = (a, b) ∈ C
tal que z · w = 1C . Es decir, tenemos que encontrar a, b ∈ R tales que
xa − yb = 1,
xb + ya = 0.
z = x + iy.
8
Por ejemplo, sean z1 = x1 + iy1 , z2 = x2 + iy2 ∈ C, entonces
z1 + z2 = (x1 + x2 ) + i(y1 + y2 )
z := x − iy,
Observaciones
1. Re(z) = 12 (z + z).
1
2. Im(z) = 2i (z − z).
3. z = z si y sólo si z es real (Im(z) = 0).
4. z = −z si y sólo si z es puramente imaginario (Rez = 0).
5. Es fácil verificar que z1 + z2 = z1 + z2 y que z1 · z2 = z1 · z2 para todos
z1 , z2 ∈ C.
6. Obviamente, |z| = |z| para todos z ∈ C.
9
(iii) |z1 + z2 | ≤ |z1 | + |z2 | para todos z1 , z2 ∈ C.
Demostración.
p
(i) De la definición, |z| = x2 + y 2 , z = x + iy ∈ C, es obvio que |z| ≥ 0 y
que |z| = 0 si y sólo si x = y = 0, es decir, si y sólo si z = 0.
(ii) √ √
|z1 · z2 | = z1 · z2 · z1 · z2 = z1 · z1 · z2 · z2 = |z1 ||z2 |.
Puesto que Re(w) ≤ |w| para todos w ∈ C, y usando el resultado del inciso
(ii) obtenemos que
z · z −1 = 1.
|z|2 · z −1 = z.
Dado que |z| 6= 0 (por el Lema 4(i)) podemos dividir ambos lados por |z|2 y
obtenemos que
z
z −1 = 2 . (6)
|z|
Notamos que esta ecuación coincide con la representación de la inversa que
encontramos en (5).
Observaciones
10
1. Si z = 0 entonces el ángulo θ ∈ (−π, π) no está definido de manera única.
2. Puesto que Re(z) = |z| cos θ y Im(z) = |z| sen θ tenemos que
Im(z)
tan θ = , Re(z) 6= 0,
Re(z)
Observaciones
1. La imagen de la función f : R → C, f (θ) := eiθ , θ ∈ R, es el cı́rculo con
radio uno centrado en el origen del plano complejo. En particular,
11
4. De manera mas general, la función exponencial se puede definir para cual-
quier número complejo z ∈ C de la siguiente manera:
∞
X zk
exp(z) := . (11)
k!
k=0
Ejercicio 3.
(a) Convierta los siguientes números complejos a su forma polar.
√ √
−2 − 2i, 2 + 2 3i, 4 3 − 4i.
12
1.2. Espacios vectoriales
Ahora que definimos los números, introducimos los espacios vectoriales y
analizamos sus propiedades más básicas. Para dar una motivación, empezamos
con un caso familiar, el espacio de los vectores en el plano:
Definición 7 Un vector v = (v1 , v2 ) en el plano R2 es un par ordenado de
números reales v1 , v2 ∈ R. Los números v1 y v2 se llaman las componentes
del vector v. El vector cero está definido por 0 := (0, 0).
Geométricamente, un vector se puede interpretar como el conjunto de todos
los segmentos de recta dirigidos equivalentes a un segmento dirigido dado (una
“flechita”).
Podemos definir las siguientes operaciones sobre el espacio de vectores en el
plano:
Suma de dos vectores v = (v1 , v2 ), w = (w1 , w2 ) ∈ R2 :
v + w := (v1 + w1 , v2 + w2 ). (12)
13
Observación: Los axiomas (i)–(iv) son los mismo que los axiomas (A1)–(A4)
para un campo, ver la sección 1.1.1.
Ejemplos
1. Sea V := R2 = {v = (v1 , v2 ) : v1 , v2 ∈ R} con la suma y multiplicación
escalar definidos como en las ecuaciones (12,13). Entonces V forma un
espacio vectorial sobre R: Se satisfacen todos los axiomas (i)–(viii) con
0 := (0, 0) y −v := (−v1 , −v2 ).
2. De manera más general, si F es un campo y n ∈ N, definimos
v + w := (v1 + w1 , v2 + w2 , . . . , vn + wn ),
el inverso aditivo
−v := (−v1 , −v2 , . . . , −vn ),
y el vector cero
0 := (0, 0, . . . , 0).
No es difı́cil verificar que se satisfacen todos los axiomas (i)-(viii), de tal
manera que Fn forma un espacio vectorial sobre F.
Casos particulares son: Qn , Rn y Cn .
14
para todo x ∈ [0, 1]. Dado que la suma de dos funciones continuas es una
función continua, f + g ∈ V . De la misma manera, λ · f , 0V y −f definen
funciones continuas, y por lo tanto son elementos en V . Se puede verificar
que se cumplen todos los axiomas (i)–(viii) de tal manera que V es un
espacio vectorial real (es decir, sobre R).
De manera análoga podemos considerar la clase de funciones continuas
f : [0, 1] → C con valores complejos. En este caso, obtenemos un espacio
vectorial complejo.
5. Si reemplazamos la definición de la suma en la ecuación (15) por
mientras que
V := {v = (v1 , v2 ) ∈ R2 : v2 ≥ 0},
λ · (1, 2) ∈
/ V si λ < 0.
(iii) Si λ · v = 0 entonces λ = 0 o v = 0.
(iv) (−1) · v = −v para todo v ∈ V , donde (−1) es el inverso aditivo de 1 en
F. En particular, el inverso aditivo de v es único.
(v) El elemento neutro aditivo 0 es único.
Demostración.
15
(i) Por el axioma (iii) de la definición del espacio vectorial, 0 + 0 = 0. Usando
el axioma (v) obtenemos
λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0.
0 = λ−1 · (λ · v) = (λ−1 · λ) · v = 1 · v = v.
(iv) Usando el inciso (ii) y los axiomas (vi) y (viii) de la definición del espacio
vectorial obtenemos
16
Demostración. Supongamos primero que W es subespacio de V . Entonces
evidentemente se deben satisfacer las condiciones (i) y (ii) de la proposición.
Por otro lado, si W es un subconjunto de V obedeciendo las condiciones (i)
y (ii) de la proposición, verificamos que se satisfacen los axiomas (i)–(viii) de
la definición del espacio vectorial: Los axiomas (i),(ii),(v)–(viii) son evidentes,
porque se hereden de V . Para demostrar la validez del axioma (iii) usamos el
hecho de que W es no vacı́o. Entonces existe un vector w ∈ W , y de acuerdo al
inciso (ii) de la proposición anterior y de la condición (ii) tenemos
0 = 0 · w ∈ W.
−w = (−1) · w ∈ W,
Ejemplos
1. Si V es un espacio vectorial, entonces W := {0}, con 0 ∈ V el vector cero
de V , es un subespacio de V . V mismo también es subespacio de V .
2. Sean V := R2 y
W := {v = (v1 , v2 ) ∈ R2 : v1 = 2v2 } ⊂ V.
W 0 := {v = (v1 , v2 ) ∈ R2 : v1 = 2v2 + 1}
17
de R4 . Tenemos 0 = (0, 0, 0, 0) ∈ C y λ · w ∈ C para todo λ ∈ R y w ∈ C.
Por otro lado, sean
u := (1, 1, 0, 0) ∈ C,
v := (−1, 1, 0, 0) ∈ C.
Ejercicio 4.
(a) Determine si el subconjuto W dado de V es un subespacio.
(i) W = {w = (w1 , w2 ) ∈ R2 : w1 = w2 }, V = R2 ,
(ii) W = {w = (w1 , w2 ) ∈ C2 : Re(w1 ) = Im(w2 )}, V = C2 ,
(iii) W = {v = (v1 , v2 , v3 ) ∈ R3 : v3 ≥ v2 ≥ v1 ≥ 0}, V = R3 .
c1 · v 1 + c2 · v 2 + . . . + cn · v n = 0, c1 , c2 , . . . , cn ∈ F, (19)
implica que c1 = c2 = . . . = cn = 0.
Si los vectores v 1 , v 2 , . . . , v n no son linealmente independientes, entonces se
dice que son linealmente dependientes.
18
Definición 11 Sean v 1 , v 2 , . . . , v n vectores en un espacio vectorial V sobre F.
Entonces toda expresión de la forma
c1 · v 1 + c2 · v 2 + . . . + cn · v n ,
hv 1 , v 2 , . . . , v n i := {v = c1 · v 1 + c2 · v 2 + . . . + cn · v n : c1 , c2 , . . . , cn ∈ F}.
Observaciones
1. Si v 1 , v 2 , . . . , v n son vectores linealmente dependientes, entonces existen
números c1 , c2 , . . . , cn ∈ F que no son todos ceros, tales que vale la ecua-
ción (19). Si cj 6= 0 podemos despejar
1
vj = − c1 · v 1 + . . . cj−1 · v j−1 + cj+1 · v j+1 + . . . + cn · v n ,
cj
c1 + c2 = 0,
2c1 + 4c2 = 0,
3c1 + 9c2 = 0,
19
3. Ahora sea V = C2 , y consideramos los dos vectores
1 i
v := , w := .
1 −i
c1 + ic2 = 0,
c1 − ic2 = 0,
2c1 − c2 + c3 = 0,
3c1 + 6c2 = 0,
−2u + v + 5w = 0.
Muestre que
Z1
1, k = l,
fk (x)fl (x) dx = δkl :=
0, k 6= l.
0
20
(b) Usando el resultado del inciso (a), muestre que para cada N ∈ N, las
funciones f−N , f−N +1 , . . . , fN son linealmente independientes.
21
Entonces,
0 = u − u = (c1 − c01 )v 1 + (c2 − c02 )v 2 + . . . + (cn − c0n )v n .
Ahora, dado que los vectores v 1 , v 2 , . . . , v n son linealmente independientes, esto
implica que c1 − c01 = c2 − c02 = . . . = cn − c0n = 0, es decir c1 = c01 , c2 = c02 , . . .,
cn = c0n .
22
La siguiente proposición es importante para la definición de la dimensión de
un espacio vectorial.
v 1 = b1 w 1 + b2 w 2 + . . . + bm w m , b1 , b2 , . . . , bm ∈ F.
Todos los b0j s no pueden ser cero, de otra manera v 1 = 0 no podrı́a ser un
elemento de un conjunto de vectores linealmente independientes. Supongamos
entonces que b1 6= 0 (sino podemos cambiar los indices de w1 , . . . , wm ). Esto
implica que
1
w1 = (v − b2 w2 − . . . − bm wm ) .
b1 1
Entonces w1 ∈ hv 1 , w2 , . . . , wm i y consecuentemente, los vectores v 1 , w2 , . . . , wm
generan V .
Esto en su turno, implica que
v 2 = a1 v 1 + c2 w2 + . . . + cm wm
para escalares a1 , c2 , . . . , cm ∈ F. Los c0j s no pueden ser todos ceros, de otra ma-
nera los vectores v 1 y v 2 serı́an linealmente dependientes. Supongamos entonces
que c2 6= 0, entonces
1
w2 = (v − a1 v 1 − c3 w3 − . . . − cm wm ) ,
c2 2
y w2 ∈ hv 1 , v 2 , w3 , . . . , wm i. Esto implica que los vectors v 1 , v 2 , w3 , . . . , wm ge-
neran V .
Ahora supongamos que m < n. Siguiendo reemplazando los vectores wj ’s
por v j ’s llegamos a m vectores
v1 , v2 , . . . , vm
23
Demostración. Aplicando el resultado de la Proposición 4 a la base B :=
{v 1 , v 2 , . . . , v n } y los vectores w1 , w2 , . . . , wm que generan V obtenemos m ≥ n.
Intercambiando los papeles de los v j ’s y wj ’s concluimos de la misma manera
que n ≥ m. Entonces n = m.
{u1 , u2 , . . . , un }
aw + c1 u1 + . . . + cn un = 0,
24
(iv) Sean k = n y U = V . Si los vectores u1 , u2 , . . . , un no fueran linealmente
independientes, entonces existirı́a un j tal que
Ejemplos
1. Sea V := Rn = {v = (v1 , v2 , . . . , vn ) : v1 , v2 , . . . , vn ∈ R}. Definimos los
vectores
1 0 0
0 1 0
e1 := 0 , e2 := 0 , . . . , en := 0 . (20)
.. .. ..
. . .
0 0 1
B := {e1 , e2 , . . . , en }
dim Cn = n.
25
la multiplicación por un escalar λ a valores reales, λ ∈ R, en vez de λ ∈ C.
En este caso, los vectores e1 , e2 , . . . , en definidos en (20) ya no generan
todo el espacio Cn , pero podemos reemplazar B por la nueva base
dim V = ∞.
Ejercicio 7. Sea V := C([0, 1]) el espacio vectorial real de las funciones conti-
nuas f : [0, 1] → R.
(b) Usando el resultado del inciso (a), muestre que para cada N ∈ N, las
funciones f0 , f1 , . . . , fN son linealmente independientes.
(c) Concluya que dim V = ∞.
26
1.4. Productos escalares, bases ortonormales (caso real)
En esta sección y la siguiente añadimos una estructure al espacio vectorial:
el producto escalar. La presencia de este producto tiene varias consecuencias
interesante, como la existencia de una norma que permite definir la “longitud”
de un vector y la proyección ortogonal de un vector sobre un subespacio de
dimensión finita, un ingrediente que juega un papel muy importante en la teorı́a
de aproximación, por ejemplo.
En esta sección V denota un espacio vectorial real. El caso de productos
escalares sobre campos vectoriales complejos se analizará en la próxima sección.
Ejemplos
(v, w) := v · w = v1 w1 + v2 w2 + . . . + vn wn (21)
v · w = |v||w| cos ϕ,
√ p
donde |v| := v · v = v12 + v22 + . . . + vn2 es la magnitud del vector v.
27
2. Existen muchos (de hecho, infinitos) otros productos escalares sobre Rn .
Por ejemplos, sean α1 , α2 , . . . , αn números reales que son estrictamente
positivos. Entonces también podemos definir
Z1
(f, g) := f (x)g(x)dx, f, g ∈ V. (23)
0
Z1
(f, λg + h) = f (x)(λg(x) + h(x))dx
0
Z1 Z1
= λ f (x)g(x)dx + f (x)h(x)dx
0 0
= λ(f, g) + (f, h)
Z1
(f, f ) = f (x)2 dx ≥ 0
0
Definición 15 Sea V un espacio vectorial real con producto escalar (·, ·). En-
tonces definimos:
(i) Dos vectores v y w en V se llaman ortogonales si vale (v, w) = 0.
28
(ii) La norma (o magnitud) de un vector v en V está definida por
p
|v| := (v, v). (24)
Ejercicio 8. Sea V un espacio vectorial real con producto escalar (·, ·) y norma
inducida | · |. Demuestre las siguientes identidades:
(a) |v + w|2 = |v|2 + |w|2 para dos vectores ortogonales v, w ∈ V (Pitágoras)
(b) (v, w) = 14 |v + w|2 − |v − w|2 (identidad de polarización)
Demostración.
p
(i) Obviamente, |v| = (v, v) ≥ 0 para todo v ∈ V , y |v| = 0 si v = 0. Por
otro lado, si |v| = 0, entonces (v, v) = 0 y el axioma (P) implica que v = 0.
(ii) Sean λ ∈ R y v ∈ V . Entonces
p p p
|λ · v| = (λv, λv) = λ2 (v, v) = |λ| (v, v) = |λ||v|,
donde en el segundo paso usamos las propiedades (S) y (L) del producto
escalar.
(iii) Sean v, w ∈ V . Usando la bilinealidad del producto escalar encontramos
que
29
(iv) Sean v, w ∈ V . Entonces usando nuevamente la bilinealidad del producto
escalar y el resultado del inciso anterior encontramos que
|v + w|2 = |v|2 + 2(v, w) + |w|2
≤ |v|2 + 2|v||w| + |w|2 = (|v| + |w|)2 ,
lo que implica la afirmación.
Efectivamente,
1 1
= (f, g) ≤ |f ||g| = √ .
4 15
Definición 16 Un conjunto de vectores B = {v 1 , v 2 , . . . , v n } en un espacio
vectorial real con producto escalar (·, ·) se llama conjunto ortonormal en V
si
1, j = k,
(v j , v k ) = δjk := (25)
0, j 6= k.
Si además los vectores v 1 , v 2 , . . . , v n generan V , B se llama base ortonormal
de V .
Observación: Los vectores de cualquier conjunto ortonormal {v 1 , v 2 , . . . , v n }
en V son linealmente independientes, por si
c1 v 1 + c2 v 2 + . . . + cn v n = 0,
entonces tomamos el producto escalar de esta ecuación con v j y usando la
bilinealidad del producto escalar y la propiedad (25) concluimos que cj = 0
para j = 1, 2, . . . , n.
30
Ejemplo: Consideramos V = Rn con el producto escalar canónico (v, w) = v·w,
v, w ∈ Rn , ver el ejemplo en la página 27. Sean
1 0 0
0 1 0
e1 := 0 , e2 := 0 , . . . , en := 0 .
.. .. ..
. . .
0 0 1
los vectores que definen la base canónica en Rn . Entonces vale ej · ek = δjk para
j, k = 1, 2, . . . , n y e1 , e2 , . . . , en generan V . Por estas razones, {e1 , e2 , . . . , en }
es una base ortonormal de Rn .
Dado una base ortonormal B, es fácil calcular las componentes de un vector
v dado con respecto a B:
(v j , v) = cj , j = 1, 2, . . . , n.
31
(i) projW (v) = v si y sólo si v ∈ W
(ii) projW (projW (v)) = projW (v) para todo v ∈ V .
(iii) (w, v − projW (v)) = 0 para todo w ∈ W y v ∈ V .
(iv) projW (v) es independiente de la elección de la base {w1 , w2 , . . . , wn } de
W.
Demostración.
(i) Si v ∈ W , entonces el Teorema 4 implica que projW (v) = v. Por otro lado,
si v ∈ V satisface v = projW (v), entonces obviamente v = projW (v) ∈ W .
(ii) Sean v ∈ V y w := projW (v) ∈ W . Entonces el inciso (i) implica que
projW (w) = w, lo que demuestra (ii).
Por otro lado, dado que projW (v) ∈ W el Teorema 4 aplicado a la base
B 0 implica que
32
No es difı́cil verificar que B = {w1 , w2 }, donde
1 1
1 1
w1 := √ 0 , w2 := √ −2 ,
2 −1 6 1
v · w := v1 w1 + v2 w2 + v3 w3 + v4 w4
33
(b) Construya una base ortonormal de W y determine su dimensión.
(c) Encuentre la proyección ortogonal projW (v) del vector
0
1
v= −2
sobre W .
y vale
|u|2 = |u + w|2 − |w|2
para todo w ∈ W . Reemplazando w por projW (v) − w ∈ W obtenemos
y el producto escalar
Z1
(f, g) := f (x)g(x)dx, f, g ∈ V.
0
Su puede verificar que (fj , fk ) = δjk para j, k ∈ N0 , de tal manera que para
cada N ∈ N el conjunto {f0 , f1 , . . . , fN } es ortonormal.
Defina el subespacio W := hf0 , f1 i, dim W = 2, de V y la función h ∈ V por
1 − x, 0 ≤ x ≤ 12 ,
h(x) :=
x, 12 ≤ x ≤ 1.
34
Entonces la mejor aproximación de h en el subespacio W es
projW (h) = (h, f0 )f0 + (h, f1 )f1 .
Un pequeño cálculo revela que
Z1
3
(h, f0 ) = h(x)dx = ,
4
0
1 1 √
√ Z √ Z 2
(h, f1 ) = 2 h(x) cos(2πx)dx = 2 2 x cos(2πx)dx = 2 .
π
0 1/2
Concluimos que
3 2
projW (h)(x) = + cos(2πx), 0 ≤ x ≤ 1.
4 π2
35
1.5. Productos escalares, bases ortonormales (caso com-
plejo)
En esta sección analizamos los productos escalares sobre un espacio vectorial
V que es complejo. Entonces queremos generalizar los axiomas (S), (L) y (P) pa-
ra el caso complejo. En un principio, podrı́amos intentar proponer exactamente
los mismos axiomas, pero esta definición presentarı́a la siguiente inconsistencia:
Sea v ∈ V un vector que es diferente de cero. Entonces (P) implicarı́a que
(v, v) > 0,
Observaciones
1. Si (v, w) es real, (v, w) = (w, v) y recuperamos el axioma (S).
2. Ahora los axiomas (S̄) y (L) implican que
36
1. Definimos el producto escalar canónico en Cn como
(v, w) := v · w = v1 w1 + v2 w2 + . . . + vn wn (31)
Z1
(f, g) := f (x)g(x)dx, f, g ∈ V, (32)
0
es decir, si f (x) = f1 (x) + if2 (x) y g(x) = g1 (x) + ig2 (x) con f1 , f2 , g1 , g2 :
[0, 1] → R, entonces
Z1
(f, g) = [f1 (x)g1 (x) + f2 (x)g2 (x)] dx
0
Z1
+ i [f1 (x)g2 (x) − f2 (x)g1 (x)] dx.
0
Z1
(f, f ) = |f (x)|2 dx ≥ 0
0
Definición 19 Sea V un espacio vectorial complejo con producto escalar (·, ·).
Entonces definimos:
37
(i) Dos vectores v y w en V se llaman ortogonales si vale (v, w) = 0.
(ii) La norma (o magnitud) de un vector v en V está definida por
p
|v| := (v, v). (33)
38
Ejemplo: Consideramos V = Cn con el producto escalar canónico (v, w) = v·w,
v, w ∈ Cn , ver el ejemplo en la página 37. Sean
1 0 0
0 1 0
e1 := 0 , e2 := 0 , . . . , en := 0 .
.. .. ..
. . .
0 0 1
los vectores que definen la base canónica en Cn . Entonces vale ej · ek = δjk para
j, k = 1, 2, . . . , n y e1 , e2 , . . . , en generan V . Por estas razones, {e1 , e2 , . . . , en }
es una base ortonormal de Cn .
v = c1 v 1 + c2 v 2 + . . . + cn v n , cj = (v j , v), j = 1, 2, . . . , n. (35)
39
Terminamos esta sección con un ejemplo relacionado con la teorı́a de Fourier.
Entonces concluimos que las funciones f−N , f−N +1 , . . . , fN forman una base
ortonormal de WN y que por lo tanto dim WN = 2N + 1.
Ahora, sea h ∈ V la función definida por h(x) = x2 , −π ≤ x ≤ π. Vamos
a calcular la proyección ortogonal hN := projWN (h) de h sobre los subespacios
WN . Por definición,
N
X N
X
hN (x) = (fj , h)fj (x) = (fj , h)eijx .
j=−N j=−N
Calculamos
Zπ π
1 2 1 x3 π2
(f0 , h) = x dx = = ,
2π 2π 3 x=−π 3
−π
y para j ∈ Z, j 6= 0,
Zπ
1 2
(fj , h) = x2 e−ijx dx = (−1)j ,
2π j2
−π
40
Finalmente, usando el hecho de que eijx + e−ijx = 2 cos(jx) llegamos a
N
π2 X (−1)j
hN (x) = +4 cos(jx), −π ≤ x ≤ π. (37)
3 j=1
j2
y
∞
X 1 1 1 1 π2
= 1 + + + + . . . = . (39)
j=1
j2 4 9 16 6
Ejercicio 11.
41
(c) (opcional)
Sea V un espacio vectorial complejo con una norma, es decir, una función
k · k : V → R que satisface las condiciones
(i) kuk ≥ 0 para todo u ∈ V y kuk = 0 si y sólo si u = 0 (positividad)
(ii) kλ · uk = |λ|kuk para todo λ ∈ C y todo u ∈ V .
(iii) ku + vk ≤ kuk + kvk para todo u, v ∈ V (desigualdad del triángulo)
Demuestre que k · k proviene de un producto escalar sobre V si y sólo si
k · k satisface la ley del paralelogramo.
Ejemplos
1. Sean V = R3 y W = R2 . Definimos el mapeo A : V → W a través de
v1
v1 + v2
A(v) := , v = v2 ∈ V.
v2 − v 3
v3
42
Entonces vale para todo v, w ∈ V y todo λ ∈ R,
v1 + λw1
A(v + λw) = A v2 + λw2
v3 + λw3
v1 + λw1 + v2 + λw2
=
v2 + λw2 − v3 − λw3
v1 + v2 w1 + w2
= +λ
v2 − v3 w2 − w3
v1 w1
= A(v) + λA(w), v = v2 , w = w 2 .
v3 w3
Puesto que
Z1 Z1 Z1
T (f + λg) = (f (x) + λg(x))dx = f (x)dx + λ g(x)dx
0 0 0
= T (f ) + λT (g)
43
Puesto que para todo f, g ∈ V , λ ∈ R y x ∈ [0, 1] vale
d
[A(f + λg)](x) = (f + λg)(x)
dx
d d
= f (x) + λ g(x) = (Af )(x) + λ(Ag)(x),
dx dx
concluimos que A es una transformación lineal.
6. Sea V un espacio vectorial sobre F = R o C con producto escalar (·, ·) :
V × V → F. Sea u ∈ V fijo, entonces la función Tu : V → F definida por
(ii) La imagen de A:
Observaciones
44
1. La linealidad de A implica que ker(A) es un subespacio de V y que Rg(A)
es un subespacio de W . En particular, ker(A) y Rg(A) no pueden ser
vacı́os, porque 0V ∈ ker(A) y 0W ∈ Rg(A).
2. Sean V y W dos espacios vectoriales sobre el mismo campo F, y sea A :
V → W una transformación lineal. Entonces la ecuación lineal
A(x) = b,
v1 + v2 = 0,
v2 − v3 = 0,
45
(a) Muestre que A define una transformación lineal.
(b) Encuentre los espacios ker(A) y Rg(A) y sus dimensiones.
x1
(c) Encuentre el espacio de todas las soluciones x2 del sistema ho-
x3
mogéneo
x1 0
A x2 = 0 .
x3 0
b1
(d) Encuentre el espacio de todos los vectores b = b2 para los cuales el
b3
sistema no homogéneo
x1 b1
A x 2 = b2
x3 b3
tiene soluciones.
x1
(e) Encuentre todas las soluciones x2 del sistema no homogéneo
x3
x1 1
A x2 = 1 .
x3 1
(B ◦ A)(v) := B(A(v)), v ∈ V.
A ◦ B = IW , B ◦ A = IV . (46)
46
Observaciones
1. Si A : V → W es invertible, la inversa es única. Efectivamente, si B :
W → V y C : W → V son dos transformaciones lineales que satisfacen
A ◦ B = IW , B ◦ A = IV ,
y
A ◦ C = IW , C ◦ A = IV ,
entonces vale para todo w ∈ W ,
y concluimos que C = B.
2. Sean V, W, X tres espacios vectoriales sobre el mismo campo F, y sean
A : V → W y B : W → X invertibles. Entonces la transformación lineal
B ◦ A : V → X es invertible y vale
47
A(v) = w, ver la segunda observación en la página 45. Esto define un mapeo
B : W → V que asigna a cada w ∈ W este vector único v ∈ V tal que A(v) = w.
Por definición este mapeo satisface
A(B(w)) = A(v) = w
para todo w ∈ W , es decir, A ◦ B = IW . Además, vale para todo v ∈ V ,
B(A(v)) = B(w) = v, w := A(v)
dado que v es el úncio vector que satisface A(v) = w. Entonces también vale
B ◦ A = IV . Para concluir la demostración, falta verificar que B es lineal. Para
esto, tomamos w1 , w2 ∈ W y λ ∈ F. Entonces el vector v := B(w1 + λw2 )
satisface
A(v) = w1 + λw2 = A(B(w1 )) + λA(B(w2 )) = A(B(w1 ) + λB(w2 )),
donde usamos la linealidad de A en el último paso. Aplicando el operador B de
ambos lados de la ecuación concluimos que
v = B(w1 ) + λB(w2 ),
lo que demuestra que B es lineal.
48
Usando la linealidad de A y la definición de los vectores wj ’s obtenemos que
w = A(v) = ck+1 wk+1 + . . . + cn wn . Entonces los vectores de B 0 generan Rg(A).
Finalmente, demostramos que los vectores de B 0 son linealmente indepen-
dientes. Para esto, sean ck+1 , ck+2 , . . . , cn ∈ F números tales que
0 = ck+1 wk+1 + ck+2 wk+2 + . . . + cn wn
= A(ck+1 v k+1 + ck+2 v k+2 + . . . + cn v n ).
Esto implica que el vector
v := ck+1 v k+1 + ck+2 v k+2 + . . . + cn v n
es elemento del núcleo de A. Por otro lado, si v ∈ ker(A) entonces también debe
existir una expansión de la forma
v = c1 v 1 + c2 v 2 + . . . + ck v k .
Pero como los vectores v 1 , . . . , v k , v k+1 , . . . , v n son linealmente independientes,
concluimos que todos los cj ’s deben ser cero, lo que implica en particular que
los vectores de B 0 deben ser linealmente independientes.
Ejemplos
49
1. Sea V = W = R2 . Definimos la transformación lineal A : R2 → R2 por
v1 + v2 v1
A(v) := , v= ∈ R2 .
v1 − 2v2 v2
A es una transformación lineal y
v1 + v2 = 0 v1 0
A(v) = 0 ⇔ ⇔ = .
v1 − 2v2 = 0 v2 0
Entonces ker(A) = {0} y A es invertible. Para calcular la inversa de A
definimos
w1 v1 + v2
:= A(v) =
w2 v1 − 2v2
y aplicamos las siguientes operaciones (eliminación de Gauss):
w 1 = v1 + v2
w2 = v1 − 2v2 (II) − (I)
w1 = v1 + v2 (I) + 13 (II)
w2 − w1 = −3v2 − 13 (II)
2
3 w1 + 13 w2 = v1
1
3 w1 − 13 w2 = v2
Entonces concluimos que
v1 1 2w1 + w2
= A−1 (w) = .
v2 3 w1 − w2
2. Sea
RN := {v = (v1 , v2 , v3 , . . .) : v1 , v2 , v3 , . . . R}
el espacio de sucesiones reales con la suma y multiplicación por un escalar
λ ∈ R definidos por
v+w := (v1 + w1 , v2 + w2 , v3 + w3 , . . .),
λ·v := (λv1 , λv2 , λv3 , . . .)
para v, w ∈ R y el vector cero 0 := (0, 0, 0, . . .). RN es un espacio vectorial
N
50
1.6.2. Matrices de transformación
1.7. Determinantes
1.8. Autovalores y autovectores
1.9. Diagonalización de matrices
1.10. Matrices Hermitianas y matrices unitarias
51
2. Cálculo
En este capı́tulo estudiamos primero algunas propiedades de funciones f :
Rn → Rm (no necesariamente lineales) del espacio vectorial Rn al espacio vecto-
rial Rm . En particular, analizaremos la diferenciabilidad de funciones f : Rn →
Rm y sus aproximaciones por polinomios (el teorema de Taylor). Después, ana-
lizaremos la diferenciabilidad de campos vectoriales y de formas diferenciales
(análisis vectorial).
De ahora en adelante, consideramos el espacio vectorial real Rn con el pro-
ducto escalar canónico dado por
n
X
(x, y) := x · y = xj yj , x, y ∈ Rn , (49)
j=1
y la norma inducida
1/2
p n
X
kxk := (x, x) = x2j , x ∈ Rn . (50)
j=1
La norma es importante en todo lo que sigue porque nos permite introducir una
noción de distancia entre dos puntos x y y en Rn . Esta distancia se define como
Observaciones
1. Notamos que xk converge a x si y sólo si la sucessión real {kxk − xk}k∈N
converge a cero, es decir, si y sólo si
lı́m kxk − xk = 0. (53)
k→∞
52
2. El lı́mite x de una sucesión convergente xk en Rn es único: Sea y ∈ Rn
otro lı́mite, entonces usando la desigualdad del triángulo obtenemos que
kx − yk = kx − xk + xk − yk ≤ kx − xk k + kxk − yk → 0,
lo que implica x = y.
Definición 28 Si una sucesión xk de Rn no es convergente, se llama diver-
gente.
Ejemplos
1. Sean xk := ( k1 , 1 − k1 ), k ∈ N, y x := (0, 1). Dado ε > 0 definimos K(ε)
√
como un número natural mas grande que ε2 . Entonces,
√
1 1 2
kxk − xk = k( , − )k = <ε
k k k
para todos k ≥ K(ε), y por lo tanto,
lı́m xk = x.
k→∞
Demostración.
(i) Si xk → x, entonces existe para cada ε > 0 un K(ε) ∈ N tal que
n
X
kxk − xk2 = (xjk − xj )2 < ε2
j=1
53
(ii) Por otro lado, si vale (54), existen para cada ε > 0 números naturales
K1 (ε), K2 (ε), . . . , Kn (ε) tales que
ε
|xjk − xj | < √
n
Ejemplos
1. Sea xk := ( √1k , e−k , 1 − k12 ), k ∈ N. Puesto que √1
k
→ 0, e−k → 0 y
1 − k12 → 1 para k → ∞, obtenemos que
54
Teorema 12 (prueba con sucesiones) Sea f : Rn → Rm una función. En-
tonces f es continua en el punto x si y sólo si
lı́m f (xk ) = f (x)
k→∞
Demostración.
(i) Sea f continua en x y sea xk una sucesión en Rn que converge a x. Quere-
mos demostrar que f (xk ) → f (x). Entonces sea ε > 0. Por la continuidad
de f en el punto x existe un δ = δ(ε, x) > 0 tal que
kf (y) − f (x)k < ε
n
para todos y ∈ R con ky − xk < δ. Por la convergencia de xk a x existe
un K = K(δ) = K(ε, x) tal que
kxk − xk < δ
para todos k ≥ K. Entonces,
kf (xk ) − f (x)k < ε
para todos k ≥ K lo que implica que f (xk ) converge a f (x).
(ii) Por otro lado, supongamos que f no es continua en x. Entonces existe un
ε∗ > 0 tal que para todos δ > 0 existe un xδ ∈ Rn con
kxδ − xk < δ y kf (xδ ) − f (x)k ≥ ε∗ .
En particular, para δ = k1 , k ∈ N, existe xk ∈ Rn con
1
kxk − xk < y kf (xk ) − f (x)k ≥ ε∗ .
k
De esta manera, construimos una sucesión xk que converge a x pero que
tiene la propiedad que f (xk ) no converge a f (x).
Ejemplos
1. Sea f : R → R la función
0, x < 2,
f (x) :=
1, x ≥ 2.
Puesto que f es constante sobre los intervalos (−∞, 2) y (2, ∞), f es
continua en todos los puntos x0 6= 2. Pero f no es continua en el punto
x0 = 2, porque si definimos la sucesión xk = 2− k1 , k ∈ N, entonces xk → 2
pero f (xk ) → 0 6= 1 = f (2).
55
2. Sea f : R2 → R la función
(
x2 y
x2 +y 2 , (x, y) 6= (0, 0),
f (x, y) :=
0, (x, y) = (0, 0).
56
6. Sea A : Rn → Rm una función lineal, es decir
Entonces,
n
X m
X Xn
A(x) = xj A(ej ) = aij xj e0i .
j=1 i=1 j=1
tenemos la desigualdad
kA(x)k ≤ Ckxk (56)
para todos x ∈ Rn . Usando la linealidad de A, (56) implica que
57
Ejercicio 14.
(a) Demostrar que la función f : R3 → R definida por
(
x2 y 2 z
f (x, y, z) := x4 +y 4 +z 4 , (x, y, z) 6= (0, 0, 0),
0, (x, y, z) = (0, 0, 0)
Ejemplos
1. Sean a, b ∈ R, a < b y (a, b) := {x ∈ R : a < x < b}. (a, b) es abierto:
Sea x ∈ (a, b). Entonces, eligiendo 0 < δ < mı́n{b − x, x − a}, tenemos que
Bδ (x) = (x − δ, x + δ) ⊂ (a, b).
2. Los conjuntos (−∞, a) = {x ∈ R : x < a} y (b, ∞) := {x ∈ R : x > b},
también son abiertos.
3. La bola abierta centrada en x con radio δ > 0,
es abierta.
4. La bola cerrada centrada en x con radio δ > 0,
Bδ (x) = {y ∈ Rn : kx − yk ≤ δ},
58
5. La unión U ∪ V de dos subconjuntos abiertos U y V de Rn es abierta.
6. Sean a < b y [a, b] := {x ∈ R : a ≤ x ≤ b}. [a, b] es cerrado, porque el
complemento R \ [a, b] = (−∞, a) ∪ (b, ∞) es la unión de dos subconjuntos
abiertos.
7. Sean a, b ∈ R, a < b. El subconjunto [a, b) = {x ∈ R : a ≤ x < b} no es
abierto ni cerrado.
8. Sea U1 , U2 , U3 , . . . una familia de subconjuntos abiertos de Rn . La unión
[
Uj
j∈N
f −1 (V ) := {x ∈ U : f (x) ∈ V }
de Rn es abierto.
Observación: Esta definición es equivalente a la definición 29. Para ver esto,
vamos a asumir primero que f : U ⊂ Rn → Rm es continua en el sentido de la
definición 31 y mostrar que f es continua en el sentido de la definición 29 en
todos los puntos x0 ∈ U : Sean x0 ∈ U , y 0 := f (x0 ), ε > 0 y
V := Bε (y 0 ) = {y ∈ Rm : ky − y 0 k < ε}.
59
Debido a la definición 31, el subconjunto
60
2.3. Funciones f : Rn → Rm diferenciables
Primero, nos acordamos de la definición de diferenciabilidad para funciones
que dependen de una variable:
Definición 32 Una función f : R → R se llama diferenciable en x ∈ R si
existe el lı́mite
f (x + h) − f (x)
f 0 (x) := lı́m . (58)
h→0,h6=0 h
Observaciones
A(x)h := f 0 (x)h, h ∈ R.
ϕ(h)
lı́m =0
h→0,h6=0 h
y
f (x + h) = f (x) + A(x)h + ϕ(h), (59)
para todos h ∈ R. Para ver esto, definimos la función ϕ : R → R por
ϕ(h) := f (x + h) − f (x) − f 0 (x)h, h ∈ R. Entonces, para h 6= 0,
ϕ(h) f (x + h) − f (x)
= − f 0 (x) → 0
h h
para h → 0 puesto que f es diferenciable en x.
2. En particular, si f es diferenciable en x ∈ R, f es automaticamente con-
tinua en x, porque (59) implica que
ϕ(h)
lı́m [f (x + h) − f (x)] = lı́m h A(x) + = 0,
h→0 h→0 h
61
Definición 33 Sea f : U ⊂ Rn → R una función definida sobre un subconjunto
abierto U de Rn , y sean
Observaciones
1. Otras notaciones para la derivada parcial son:
∂
Dj f (x) ≡ f (x) ≡ ∂j f (x) ≡ f,j (x)
∂xj
donde
∇ ≡ (∂1 , ∂2 , . . . , ∂n )
se llama el operador nabla.
Ejemplos
p
1. Sea r : R2 → R la norma, r(x) := kxk = x21 + x22 . Entonces para
(x1 , x2 ) 6= (0, 0) tenemos que
x1 x2
D1 r(x) = p , D2 r(x) = p 2 ,
x21 + x22 x1 + x22
(x1 , x2 ) x
grad r(x) = p 2 = ,
x1 + x22 kxk
62
2. Sea f : R2 → R la función
x1 x2
kxk2 , x = (x1 , x2 ) 6= (0, 0),
f (x) :=
0, x = (x1 , x2 ) = (0, 0).
f (h, 0) − f (0, 0)
D1 f (0, 0) = lı́m = 0,
h→0,h6=0 h
f (0, h) − f (0, 0)
D2 f (0, 0) = lı́m = 0.
h→0,h6=0 h
Entonces, f es parcialmente diferenciable. A pesar de esto, f no es conti-
nua en el punto (0, 0) como vimos en el ejemplo 3 de la sección 2.2.
Notamos también que la función D1 f : R2 → R no es continua en el punto
(0, 0), porque si definimos la sucesión xk := (0, k1 ), k ∈ N, entonces xk → 0
pero D1 f (xk ) = k diverge.
El último ejemplo muestra que una función parcialmente diferenciable no es
necesariamente continua. Por otro lado, esperamos que una buena definición de
diferenciabilidad implica la continuidad. Por esta razón, definimos
Definición 34 Una función f : U ⊂ Rn → Rm definida sobre un subconjunto
abierto U de Rn se llama diferenciable en x ∈ U si existe una transformación
lineal A(x) : Rn → Rm y una función error ϕx : Bδ (0) ⊂ Rn → Rm definida
sobre una vecindad de 0 tal que
ϕ(h)
lı́m =0
h→0,h6=0 khk
y
f (x + h) = f (x) + A(x)(h) + ϕ(h) (62)
para todos h ∈ Bδ (0).
f se llama diferenciable si f es diferenciable en todos los puntos x ∈ U .
Observaciones
63
2. Geometricamente, la transformación lineal A(x) describe el espacio plano
tangente a la superficie
{(x, f (x) : x ∈ U } ⊂ Rn × Rm
en el punto (x, f (x)).
Ejemplo: Sea C = (cij ) una matriz real simétrica n × n, y sea f : Rn → R la
función definida por
n
X
f (x) := (x, Cx) = cij xi xj ,
i,j=1
Demostración del Teorema 13. Sabemos que existe una función ϕ : Bδ (0) ⊂
Rn → Rm tal que
ϕ(h)
lı́m =0 (63)
h→0,h6=0 khk
y
f (x + h) − f (x) = A(h) + ϕ(h) (64)
para todos h ∈ Bδ (0).
64
(i) (63) y (64) implican que
fi (x + hej ) − fi (x)
Dj fi (x) = lı́m = aij .
h→0,h6=0 h
65
pertenecen a Bδ (x) ⊂ V . Además, z (0) = x y z (n) = x + h. Como f es parcial-
mente diferenciable en todos los puntos de Bδ (x) y usando el teorema del valor
medio3 , existen valores θj ∈ (0, 1), j = 1, 2, . . . , n, tales que
Ejercicio 15.
x sen x1 , x 6= 0,
2
h(x) :=
0, x = 0
es diferenciable en todos los puntos x ∈ R con a < x < b. Entonces existe un valor y ∈ R con
a < y < b tal que
f (b) − f (a)
= f 0 (y).
b−a
66
(b) Calcule el gradiente de las siguientes funciones R2 → R y encuentre los
planos tangentes a las superficies en R3 representadas como gráficas de las
siguentes funciones de los puntos que se especifican:
f1 (x, y) := x2 + y 2 en (0, 0) y en (1, 2),
f2 (x, y) := xy en (0, 0) y en (1, 2),
1
f3 (x, y) := en (0, 0) y en (1, 1).
1 + x2 + y 2
67
La función g : R → Rn , g(t) := x + tv, t ∈ R, es diferenciable y Dg(t) = v.
Entonces, usando la regla de la cadena, obtenemos que
d
Dv f (x) = f ◦ g(t)
dt t=0
= Df (g(0)) ◦ Dg(0)
= Df (x) ◦ v.
68
2.4. El teorema de Taylor
Sea f : U ⊂ Rn → R una función definida sobre un subconjunto abierto
U de Rn , y sea f diferenciable en un punto x ∈ U . Como vimos en la sección
anterior, esto significa que existe una transformación lineal
ϕ(h)
lı́m =0
h→0,h6=0 khk
y
f (x + h) = f (x) + A(x)(h) + ϕ(h) (66)
para todos h ∈ Bδ (0). En otras palabras, es posible aproximar la función f en
una vecindad del punto x por la constante f (x) más la transformación lineal
h 7→ A(x)(h) = (grad f (x), h). El error está dado por la función ϕx que cae a
cero más rápidamente que khk.
En esta sección vamos a ver que si f es suficientemente suave se pueden
obtener aproximaciones de f que son mejores que (66). Empezamos por:
f (k) (x + θh) = p.
Para ver esto, suponemos primero que h > 0 y definimos la función H : [0, h] →
R,
k−1
X f (j) (x + y) p
H(y) := f (x + h) − (h − y)j − (h − y)k , 0≤y≤h
j=0
j! k!
69
que satisface H(0) = H(h) = 0. Además, H es diferenciable en los puntos
y ∈ (0, h) y
k−1
X f (j+1) (x + y) f (j) (x + y)
H 0 (y) = − (h − y)j − j(h − y)j−1
j=0
j! j!
p
+ k(h − y)k−1
k!
k−1
X f (j+1) (x + y) k−1
X f (j) (x + y)
= − (h − y)j + (h − y)j−1
j=0
j! j=0
(j − 1)!
p
+ (h − y)k−1
(k − 1)!
p − f (k) (x + y)
= (h − y)k−1 .
(k − 1)!
Por el teorema del valor medio existe z ∈ (0, h) tal que H 0 (z) = 0. Definiendo
θ := z/h ∈ (0, 1) esto quiere decir que
f (k) (x + θh) = p.
f (k) (x + θh) k
f (x + h) = Px,k−1 (h) + h = Px,k (h) + ϕx,k (h),
k!
donde
f (k) (x + θh) − f (k) (x) k
ϕx,k (h) = h .
k!
70
Dado que f (k) es continua y que θ ∈ (0, 1) tenemos que f (k) (x+θh)−f (k) (x) → 0
para h → 0. Entonces, h−k ϕx,k (h) → 0 para h → 0.
Ejemplos
1. Sea f : R → R la función exponencial f (x) = ex , x ∈ R. Existen todas
las derivadas de f , y f (k) (x) = ex para k = 0, 1, 2, . . ., x ∈ R. Entonces,
existe para cada x, h ∈ R y cada k ∈ N un θk ∈ (0, 1) tal que
ex+θk h k
f (x + h) = Px,k−1 (h) + h ,
k!
donde
k
X ex
Px,k (h) = hj .
j=0
j!
¿Qué pasa en el lı́mite k → ∞?
Puesto que
ex+θk h |h|k
hk ≤ ex+|h| → 0, k → ∞,
k! k!
71
donde las funciones ψ±,x tienen la propiedad que caen a cero más rápida-
mente que h. Entonces las funciones D± f dan una aproximación para la
primera derivada de f . El error de estas aproximaciones es del orden h. Se
puede obtener una mejor aproximación definiendo las derivadas centradas,
D0 f por
f (x + h) − f (x − h) 1
D0 f (x) = = (D+ f (x) + D− f (x)) , x ∈ R.
2h 2
En este caso, obtenemos que
1
D0 f (x) = f 0 (x) + f 000 (x)h2 + ψ0,x (h),
6
donde la función ψ0,x tiene la propiedad que h−2 ψ0,x (h) → 0 para h → 0.
Entonces, D0 f (x) es una aproximación para la derivada de f con un error
del orden h2 .
Los operadores de diferencias finitas D± , D0 se usan en la discretización
de ecuaciones diferenciales con derivadas parciales.
En lo que sigue, generalizamos el teorema de Taylor para funciones que
dependen de un número n arbitrario de variables.
Definición 35 Sea f : U ⊂ Rn → R una función definida sobre un subconjunto
abierto U de Rn . f se llama k veces parcialmente diferenciable si existen
todas las derivadas parciales del orden menor o igual a k,
Di1 Di2 . . . Dij f : U ⊂ Rn → R, i1 , i2 , . . . , ij ∈ {1, 2, . . . , n}, j ≤ k.
f se llama k veces continuamente diferenciable si existen todas las deriva-
das parciales del orden menor o igual a k y si todas las derivadas
Di1 Di2 . . . Dij f : U ⊂ Rn → R, i1 , i2 , . . . , ij ∈ {1, 2, . . . , n}, j ≤ k.
son continuas. En este caso, definimos para cada x ∈ U las cantidades
n
X
D(j) f (x)(h) :=
Di1 Di2 . . . Dij f (x) hi1 hi2 . . . hij , j ≤ k,
i1 ,i2 ,...,ij =1
para h = (h1 , h2 , . . . , hn ) ∈ Rn .
Ejemplos
1. Para k = 0 definimos
D(0) f (x)(h) := f (x), x ∈ U, h ∈ Rn .
72
3. Para k = 2, tenemos que
n
X
D(2) f (x)(h) = [Di Dj f (x)] hi hj = (h, Hessf (x)h),
i,j=1
73
Teorema 18 (teorema de Taylor en dimensiones n ≥ 1) Sean k ∈ N y U ⊂
Rn un subconjunto abierto de Rn . Sea f : U ⊂ Rn → R una función que es k
veces continuamente diferenciable. Sean x ∈ U y h ∈ Rn tales que el segmento
x + th, t ∈ [0, 1] esté contenido en U . Entonces existe θ ∈ (0, 1) tal que
k−1
X 1 (j) 1
f (x + h) = D f (x)(h) + D(k) f (x + θh)(h).
j=0
j! k!
74
Teorema 19 (teorema de Taylor en dimensiones n ≥ 1, segunda versión)
Sean k ∈ N y U ⊂ Rn un subconjunto abierto de Rn . Sea f : U ⊂ Rn → R una
función que es k veces continuamente diferenciable. Sean x ∈ U y δ > 0 tales
que Bδ (x) ⊂ U . Entonces existe una función error ϕx,k : Bδ (0) → R tal que
ϕx,k (h)
lı́m =0
h→0,h6=0 khkk
y
f (x + h) = Px,k (h) + ϕx,k (h)
para todos los h ∈ Bδ (0).
satisface
n
1 X
ϕx,k (h) ≤ Di1 Di2 . . . Dik f (x + θh) − Di1 Di2 . . . Dik f (x)khkk .
k! i
1 ,i2 ,...,ik =1
75
2 0
Dado que f (0, 0) = 0, grad f (0, 0) = (0, 0) y Hessf (0, 0) = , tenemos
0 0
que para h = (hx , hy ) ∈ R2 ,
ϕ(hx , hy )
→ 0, (hx , hy ) → (0, 0).
h2x + h2y
76
2.5. Extremos relativos de funciones f : Rn → R
Como una aplicación del teorema de Taylor vamos a analizar los extremos
relativos de funciones.
Definición 36 Sea f : U ⊂ Rn → R una función definida sobre un subconjunto
abierto U de Rn .
1. Un punto x ∈ U se llama mı́nimo relativo de f si existe δ > 0 tal que
Bδ (x) ⊂ U y
grad f (x) = 0.
77
Definición 37 Sea f : U ⊂ Rn → R una función parcialmente diferencia-
ble definida sobre un subconjunto abierto U de Rn . Un punto x ∈ U tal que
grad f (x) = 0 se llama un punto crı́tico de f o un punto estacionario de
f.
78
3. A se llama indefinida si existen h1 , h2 ∈ Rn tales que (h1 , Ah1 ) < 0 <
(h2 Ah2 ).
n
X
(h, Ah) = λj h2j . (69)
j=1
79
donde α = mı́n{λj : j = 1, 2, . . . , n} > 0 es el autovalor mı́nimo de A. Por
otro lado, dado que khk−2 ϕ(h) → 0 para h → 0, existe δ ∈ (0, ε) tal que
α
|ϕ(h)| ≤ khk2
4
para todos h ∈ Bδ (0). Entonces para dichos h’s, (70) implica que
α α α
f (x + h) − f (x) ≥ khk2 − khk2 = khk2 .
2 4 4
En particular, f (x + h) − f (x) > 0 para 0 < khk < δ, lo que implica que
x es un mı́nimo relativo estricto de f .
(ii) Similar que (i).
(iii) Sea A = Hessf (x) indefinida. Entonces existen vectores h1 , h2 tales que
kh1 k = kh2 k = 1 y
|α| 2 β 2
|ϕ(th1 )| ≤ t , |ϕ(th2 )| ≤ t ,
4 4
para todos |t| < δ. Entonces (70) implica que
α 2 |α| 2 |α|
f (x + th1 ) − f (x) ≤ t + t = − t2 < 0,
2 4 4
β 2 β 2 β 2
f (x + th2 ) − f (x) ≥ t − t = t > 0,
2 4 4
para 0 < |t| < δ. Entonces, x no puede ser un extremo relativo y x es un
punto silla.
Ejemplos
1. Sean a 6= 0, b 6= 0 dos valores reales, y sea f : R2 → R la función definida
por
1
ax2 + by 2 , (x, y) ∈ R2 .
f (x, y) =
2
Tenemos que
a 0
grad f (x, y) = (ax, by), Hessf (x, y) = , (x, y) ∈ R2 .
0 b
80
b) a < 0, b < 0: (0, 0) es un máximo estricto de f .
c) ab < 0: (0, 0) es un punto silla de f .
2. ¡Si grad f (x) = 0 y si Hessf (x) posee uno o varios autovalores igual a cero
(y Hessf (x) no es indefinida) hay que tener cuidado! Por ejemplo, las tres
funciones fi : R2 → R, i = 1, 2, 3, definidas por
f1 (x, y) := x2 + y 4 ,
f2 (x, y) := x2 ,
f3 (x, y) := x2 + y 3 ,
81
3. Teorı́a de grupos
3.1. Propiedades básicas de los grupos
3.2. Ejemplos de grupos discretos
Referencias
[1] H. Beyer, Calculus and Analysis: A combined approach, Wiley, 2010.
[2] M. Spivak, Calculus, Publish or Perish; 3rd edition.
[3] J. Marsden and A. Tromba, Vector Calculus, W. H. Freeman; 5th edition.
82