Álgebra Linear e Geometria Analítica - Universidade de Coimbra
Álgebra Linear e Geometria Analítica - Universidade de Coimbra
Álgebra Linear e Geometria Analítica - Universidade de Coimbra
ALARGADOS DE ALGEBRA
LINEAR E GEOMETRIA ANALITICA
AMILCAR BRANQUINHO
17-09-2013 | T.
1. Matrizes: Algebra
e propriedades.
2. Sistemas de equacoes lineares - Metodo de eliminacao de Gauss.
3. Inversao de matrizes - Algoritmo de Gauss-Jordan.
4. Determinantes.
5. Espacos e sub-espacos vectoriais.
6. Transformacoes lineares.
7. Espacos Vectoriais com produto interno. Metodo dos mnimos quadrados.
8. Diagonalizacao de matrizes.
9. Aplicacoes geometricas em R2 e em R3 : curvas e superfcies de segunda ordem.
Refer
encias Bibliogr
aficas.
Introducao `a Algebra
Linear - Ana Paula Santana e Joao Queiro;
Ref. 15-01/SAN.Int/ex. 2 c.17
Algebra
Linear - Seymour Lipschutz;
Ref. 15-01/LIP/3.ed.
Avaliac
ao na disciplina de Algebra
Linear e Geometria Analtica.
Todos os alunos tem direito a fazer exame.
Os alunos que frequentem 75% das aulas teoricas e 75% das aulas teorico-praticas poderao efectuar
outro tipo de avaliacao:
Duas frequencias de 10 valores.
Os alunos deverao obter um mnimo de 3 valores, para poderem realizar a segunda frequencia.
Os alunos que num dos tipos de avaliacao anterior tenham obtido classificacao superior a 17 valores
serao submetidos a uma prova complementar.
1
Algebra
Linear e Geometria Analtica
19-09-2013 | T.
Introducao ao estudo de matrizes. Exemplos e operacoes.
Matrizes. Sao muitos os exemplos de dados numericos apresentados em forma de tabelas bi-dimensionais. Para tal basta consultar jornais, revistas ou livros. Por exemplo, na seguinte tabela podemos
ver um balanco de vendas de duas livrarias nos meses de Julho e Agosto:
Julho
Agosto
Loja
Jornais
Revistas 15
20
Livros
45
Podemos apresentar
6 8
15 50 e
45 64
64
Loja
Jornais
Revistas 18
31
Livros
52
68
7 9
18 31.
52 68
Este tipo de tabela rectangular sera designada por matriz e os seus elementos por escalares.
Definico
es. Uma matriz de tipo m n com elementos, que designaremos por escalares, em R (ou C)
e uma tabela rectangular
a1,1 a1,2
a2,1 a2,2
A= .
..
..
.
am,1 am,2
a1,n
h ij=1,...,n
h i
a2,n
ou,
abreviadamente,
A
=
,
ou
ainda,
A
=
a
ai,j ,
i,j
..
i=1,...,m
.
am,n
Algebra
Linear e Geometria Analtica
ai,j = aj,i ).
x
x+y xz
, com x, y, z R .
Problema. Seja A =
x
y
y
y
+
z
x+z2 zy
z
Analise separadamente os casos em que A e triangular superior, triangular inferior ou simetrica.
Resoluc
ao. Para que A seja triangular superior, temos que x y = z y = x + z 2 = 0 , i.e.
x = y = z = 1 . A matriz A sera triangular inferior se x + y = y + z = x z = 0 e, portanto,
x = y = z . A matriz A e simetrica se x + y = x y , x z = x + z 2 e y + z = z y, logo y = 0 e
z =1 .
1
Temos
A e dada,
respectivamente
por
assim,
que a matriz
2 0
x
0 0
x
x x1
2x
, x
, x R.
,
1 2
x
0
0
1
0 1
2(x 1) 2x x
x1 1
1
Soma
m i n,
h dei matrizes
h ie produto de uma matriz por um escalar. Dadas duas matrizes
h
A = ai,j e B = bi,j , designamos por matriz soma, A + B, `a matriz m n, A + B = ai,j + bi,j .
Para h Ri ou C designamos por matriz produto de por A, `a matriz m n, A definida por
A = ai,j .
Propriedades das operac
oes com matrizes. Sejam A, B, C matrizes m n e , escalares, entao:
(soma de matrizes)
1. (A + B) + C = A + (B + C) ;
2. A + 0 = 0 + A = A ;
b) (A + B) = A + B;
3. A + (A) = (A) + A = 0 ;
c) (A) = ()A;
d) 1 A = A.
4. A + B = B + A .
h i
h
i
Note-se que a matriz A com A = ai,j e por definicao a matriz oposta de A, i.e A = ai,j .
Demonstrac
ao. Estas propriedades tem uma demonstracao imediata basta para tal recorrer `a definicao
de matriz e a`s propriedades que os escalares verificam.
Problema. Determine as matrizes X, Y M2,3 (C) tais que 3 X + Y = A , 4 X + 2 Y = B com
"
#
"
#
3/2 1 0
3 4 2
A=
e B=
.
2 1/2 5
2 1 8
[email protected]
Algebra
Linear e Geometria Analtica
Resoluc
ao. Tendo em atencao as propriedades anteriores, o sistema dado e equivalente a 6 X + 2 Y =
2A, 4X + 2Y = B , "
ou ainda, 2 X
# = 2 A B , 2 Y = 4 A + 3"B ; logo
#
0 1 1
3/2
0
1
X = A 1/2 B =
e Y = 2 A + 3/2 B =
.
1 0
1
3 1/2 6
Produto de matrizes. Sejam A, B matrizes m
h n
i e n p, respectivamente. Designamos por produto
A B da matriz A pela matriz B, `a matriz C = ci,j , m p com
n
X
ci,j = ai,1 b1,j + ai,2 b2,j + + ai,n bn,j =
ai,k bk,j , i.e.
k=1
c
a1,1 a1,2 a1,n
b1,1 b1,j b1,p
1,1
1,p
.
..
..
..
.
. b2,1 b2,j b2,p
.
.
=C.
..
..
.. =
AB =
ci,j
ai,1 ai,2 ai,n
.
.
..
.. bn1,1 bn1,j bn1,p
..
b
am,1 am,2 am,n
cm,1 cm,p
n,1
n,j
n,p
Exemplo. Calcule a matriz produto
1 2 3
"
#
#
"
2 1 5 3
3
6
1
2
3
+
10
12
4
6
+
35
3
6
+
1
10
15
4 2 3 5 2 7 2
4 + 6 6 20 8 + 12 21 5 12 2 + 6 25
4 1
5
Casos particulares de produto de matrizes, A B (Exemplos).
b1
n
h
i b2 X
ak b k .
a1 a2 an . =
..
k=1
bn
b
b
1,1
1,p
n
h
i
h
i
X
..
..
ak bk,j , j = 1, . . . , p .
a1 an .
. = c1 cp com cj =
k=1
bn,1 bn,p
a1,1 a1,n
b1
c1
a
a
1,1
1,n
n
X
. .
.
.
.
..
..
bn ,
k=1
am,1
am,n
am,1 am,n
bn
cn
que designamos por combinacao linear dos vectores coluna da matriz A.
a1 h
a
a
1 b1
1 b,n
i
.
..
.. b1 bn = ...
.
.
am b 1 am b n
am
[email protected]
Algebra
Linear e Geometria Analtica
a1,1 b1
b1 0 0
a1,1 a1,m
=
. . .
.
..
..
.
.
.
...
..
.
.
.
.
.
an,1 b1
0 0 bm
an,1 an,m
a1,1 b1
a1,1 a1,m
b1 0 0
=
.
. . .
.
.
.. ...
. . .. ..
.. ..
an,1 bn
an,1 an,m
0 0 bn
a1,1 b2
a2,2 b2
..
.
an,2 b2
a1,1 b1
a2,2 b2
..
.
an,2 bn
a1,m bn
a2,m bn
.
..
.
an,m bn
a1,m b1
a2,m b2
.
..
.
an,m bn
19-09-2013 | TP.
Exerccios sobre matrizes elementares, produtos de matrizes, propriedades da inversa de uma
matriz.
Propriedades do produto de matrizes. Supondo que as operacoes seguintes tem sentido:
1.
2.
3.
A I = A e I B = B (I e a matriz identidade)
4.
Determinamos o escalar na posicao i, k de (A B)C e de A(B C) que sao, como vimos, iguais. Pelo que
a identidade e valida para todo o i e k, logo temos a identidade
h 1.i h
i hP
i
0
0
0
Para a identidade 2 vamos somente verificar que: A(B +B ) = ai,h bh,j + bh,j =
h ai,h (bh,j + bh,j )
hP
i hP
i hP
i
P
0
0
=
=
+
= A B + A B0.
h ai,h bh,j +
h ai,h bh,j
h ai,h bh,j
h ai,h bh,j
Para verificar 3 basta tomar nos dois u
ltimos exemplos de produtos de matrizes os bj = 1, para termos
o pretendido.
Para 4 e 5 considerem-se os seguintes
1 2 5
3 0
A = 2 1 3 e B = 4
3
1 0 1
1 1
e, portanto, A B 6= B A ;
exemplos:
2
0 1 1
3; entao A B = 7 0 4
e
1
2 1 1
1 6 17
B A = 5 11 32
;
2 3 9
e os divisores de zero:
[email protected]
Algebra
Linear e Geometria Analtica
3
#
# "
#"
#
"
#
"
"
0
0
3
9
1
3
0
0
0
2
1
7
1 0 2 1
=
.
c.q.d.
=
; e tambem,
0 0
2 6 1 3
0 0 0
3 1 0 2 1 0 1
4 1 1
Definic
ao. Uma matriz quadrada n n, A, diz-se invertvel se existir uma matriz n n, X, tal que
A X = X A = In .
Propriedades das matrizes invertveis. Sejam A e B matrizes n n. Entao:
Se A e invertvel, entao A tem uma u
nica inversa.
Se A e B sao invertveis (e denotando por A1 , B 1 a matriz inversa de A, B, respectivamente), a
sua inversa e dada por (A B)1 = B 1 A1 .
Demonstrac
ao. Para a primeira propriedade basta supor que existem matrizes X, Y , n n tais que
A X = Y A = In . Entao, Y = Y In = Y (A X) = (Y A)X = In X = X. Logo X = Y .
Para demonstrar a segunda propriedade, usaremos o facto de que a inversa de uma matriz invertvel e
u
nica. Temos, por isso, somente que verificar que (A B)(B 1 A1 ) = In = (B 1 A1 )(A B). De facto,
(A B)(B 1 A1 ) = A(B B 1 )A1 = A In A1 = A A1 = In ,
e tambem (B 1 A1 )(A B) = B 1 (A1 A)B = B 1 In B = B 1 B = In .
c.q.d.
c.q.d.
Algebra
Linear e Geometria Analtica
0 1 1 0
1 0 0 1
, calcule as matrizes A2 e A3 :
1 0 0 0
0 1 0 0
1. indique quantos voos com uma u
nica escala existem entre as cidades 2 e 3.
2. indique quantos voos com duas u
nicas escalas existem entre as cidades 1 e 3.
3. analise se e possvel voar entre cada uma das cidades?
Resoluc
ao. O escalar na posicao 2, 3 de A2 e dado por a2,1 a1,3 + a2,2 a2,3 + a2,3 a3,3 + a2,4 a4,3 . Mais ainda,
cada termo da forma a2,j aj,3 , com j = 1, 2, 3, 4 e igual a 1 se a2,j = aj,3 = 1 , i.e. existe um voo directo
entre as cidades 2 e j e entre as j e 3, i.e. existe um voo com uma u
nica escala j entre as cidades 2 e 3.
Desta forma vemos que o escalar na posicao 2, 3 de A2 nos da o n
umero de voos com uma u
nica escala
entre as cidades
0
Como A2 =
2 e 3.
0 3
0 0 1
2 1 0
e A3 = 3 0
1 1 0
2 0
0 2
1 0 0 1
vemos que o escalar na posicao 2, 3 de A2 e
2 0
0 2
0 1
1 0
1, pelo que existe um voo com uma u
nica escala entre as
24-09-2013 | T.
Matrizes elementares. Aplicacao a` resolucao de sistemas lineares e decomposicao L U de uma
matriz.
Definic
ao. Um sistema de m equacoes lineares a n incognitas, x1 , . . . , xn e todo o conjunto de relacoes
do tipo
a1,1 x1 + a1,2 x2 + + a1,n xn = b1
(primeira equacao)
(segunda equacao)
..
.
(m-esima equacao)
Algebra
Linear e Geometria Analtica
e possvel) ou incompatvel (caso em que dizemos que o sistema e impossvel). Quando o sistema e
possvel, diz-se determinado se tiver solucao u
nica, e indeterminado se tiver mais do que uma solucao.
Exemplos.
1. O sistema x + y + z = 6 , x + y z = 0 , x + z = 4 , x + y = 3 de quatro equacoes nas incognitas
x, y, z, tem solucao u
nica (x, y, z) = (1, 2, 3) ; logo e possvel e determinado.
2. O sistema x+y +z = 6 , x+y z = 0 , x+y = 3 , x+y +2z = 9 de quatro equacoes nas incognitas
x, y, z, tem infinitas solucoes (x, y, z) = (, 3 , 3), R; logo e possvel e indeterminado.
3. O sistema x + y + z = 6 , x + y z = 0 , 2x 2y = 1 de tres equacoes nas incognitas x, y, z,
nao tem solucoes; de facto, ao somar as tres equacoes obtemos 0 = 7(!), logo as equacoes nao sao
compatveis.
Para resolver um sistema de equacoes e aconselhavel reduzi-lo a outros sistemas mais simples que lhe
sejam equivalentes, i.e. que tenham o mesmo conjunto solucao.
Propriedade fundamental de equival
encia de sistemas. Um sistema de equacoes lineares e equivalente a qualquer dos sistemas que resultam de realizar nele alguma das seguintes operacoes elementares:
Mudar a ordem das equacoes;
Multiplicar uma das das equacoes por qualquer escalar nao nulo;
Somar algebricamente, a uma das equacoes, outra delas;
Aplicar reiteradamente qualquer das operacoes anteriores.
Demonstrac
ao. Ve-se facilmente que as primeiras duas operacoes nao alteram a natureza o sistema.
Pela natureza da quarta operacao resta analisar a terceira operacao. Para tal, considere-se o sistema
de m equacoes a n incognitas (x1 , . . . , xn ):
a x + a1,2 x2 + + a1,n xn = b1
1,1 1
..
,
.
c.q.d.
Algebra
Linear e Geometria Analtica
admite
1 1 2
9
A x = b , onde A =
3 6 5 e b = 0 .
2 4 3
1
h
i
Considere-se o sistema na forma A b , i.e.
1 1 2 9
1 1 2
9
9
1 1 2
3 6 5 0 `2 3`1 0 3 11 27
0 3 11 27
2 4 3 1
0 2 7 17
0 0 1/3
1
`3 2`1
`3 2/3`2
Obtemos assim como u
nica solucao x = 1 , y =
2, z = 3.
1 1 2
U x 1 = 0, U x 2 = 1, U x 3 = 0, pelo que U = x 1 x 2 x 3 .
0
0
1
26-09-2013 | T.
Matrizes elementares. Aplicacao ao calculo da matriz inversa de uma matriz invertvel.
Na aula passada deixamos como exerccio a analise da invertibilidade da matriz triangular superior U
e em caso afirmativo o seu calculo.
Para tal vamos usar
1 1 2 1
0 3 11 0
0 0 1/3 0
1 1 0 1
1/3`2
0 1 0 0
0 0 1 0
[email protected]
a indicacao deixada
0 0
1 1
0 3
1 0
3`3
0 1
0 0
0 6
`1 `2
1/3 11
0
3
2 1 0 0
`1 2`3
1
11 0 1 0
`2 + 11`3 0
1 0 0 3
1 0 0 1 1/3 17
0 1 0 0 1/3
.
11
0 0 1 0
0
3
com
i
U I3 :
1 0 1 0 6
3 0 0 1 33
0 1 0 0 3
Algebra
Linear e Geometria Analtica
1 1/3 17
.
Obtemos assim, U 1 =
0
1/3
11
0
0
3
Definic
ao. Designamos por matriz elementar a`s matrizes quadradas que se obtenham ao aplicar `a
matriz identidade, com o mesmo n
umero de linhas, as operacoes elementares dadas na aula passada, i.e.
Mudar a ordem das equacoes;
Multiplicar uma das das equacoes por qualquer escalar nao nulo;
Somar algebricamente, a uma das equacoes, outra delas.
Assim, obtemos
as seguintes matrizes:
i
0
..
..
Pi,j =
.
.
j
1 0
1
i
j
..
.
1
..
Di () =
1
i
i
1
..
.
.
Ei,j () =
. .
j
1
1
i
j
..
.
..
..
.
.
`1
`
`
`
j
i1
i1
.
.
.
Assim, se A =
. , entao Pi,j A = . , Di ()A = `i , Ei,j ()A = `i + `j .
`i
`i+1
`i+1
`n
..
..
..
.
.
.
Relac
ao entre as operac
oes elementares e o produto de matrizes no sistema dado na aula
passada. As operacoes realizadas correspondem `a multiplicacao da matriz A, sucessivamente pelas
matrizes elementares E2,1 (3) , E3,1 (2) , E3,2 (2/3), i.e. o sistema dado e equivalente ao sistema
[email protected]
10
Algebra
Linear e Geometria Analtica
E3,2 (2/3) E3,1 (2) E2,1 (3) A x = E3,2 (2/3) E3,1 (2) E2,1 (3) b,
1 1 2
x
9
x
1
ou ainda
0 3 11 y = 27 , cuja solucao e obviamente y = 2 .
0 0 1/3
z
1
z
3
Observac
ao. Na resolucao do problema anterior obtivemos ainda a seguinte identidade:
1
0
0
1
0
0
1 1 2
.
3
A = 0 3 11 , pois E3,2 (2/3) E3,1 (2) E2,1 (3) = 3
1
0
1
0
0 2/3 1
0 0 1/3
0 2/3 1
1
1
0
0
Como
1
0
3
0 2/3 1
1 0 0
1 0 0
1 1 2
=
3 1 0, A = L U onde L = 3 1 0 e U = 0 3 11 .
2 2/3 1
2 2/3 1
0 0 1/3
Note-se que a matriz L reproduz, a menos do sinal, as operacoes realizadas em A para chegar a U .
Verifiquemos agora que a matriz das operacoes elementares por linhas, E3,2 (2/3) E3,1 (2) E2,1 (3), e
a inversa de
1 0
3 1
2 2/3
L, i.e.
0
1
0
0
1
0
0
1 0 0
1 0 0
3
= 3
3 1 0 = 0 1 0.
0
1
0
1
0
1
0 2/3 1
0 2/3 1
2 2/3 1
0 0 1
= 27.
U x = L1 b, com L1
0
1
1
Observac
ao. Conhecida a matriz inversa de U , U 1 , podemos determinar a matriz inversa de A, i.e.
A1 = U 1 L1 (pois A = L U ).
Definic
ao. Seja A uma matriz m n. Designamos por matriz transposta de A, a matriz n m que se
obtem de A colocando o escalar ai,j na linha j coluna i, para i = 1, . . . , m, j = 1, . . . , n.
h ii=1,...,m
h ij=1,...,n
Designamos por AT = aj,i
a matriz transposta de A = ai,j
.
j=1,...,n
i=1,...,m
11
Algebra
Linear e Geometria Analtica
Observac
ao. Se A e uma matriz quadrada, entao:
A e simetrica se, e somente se, A = AT ;
A e anti-simetrica se, e somente se, a A = AT ;
A + AT e simetrica e A AT e anti-simetrica. Alem disso, A = (A + AT )/2 + (A AT )/2 ; e,
portanto, toda a matriz quadrada se pode representar como a soma de uma matriz simetrica com
uma anti-simetrica.
Demonstrac
ao. Vamos somente verificar que se tem a identidade (A C)T = C T AT . Comparemos
entao, os elementos situados na linha i coluna j da matriz
n
X
(A C)T , i.e.
aj,k ck,i (linha j, coluna i de A C)
k=1
c.q.d.
k=1
def.
(A1 )T AT = (A A1 )T = I T = I .
c.q.d.
26-09-2013 | TP.
Resolucao dos problemas 30, 31, 32, 33, 42, 47, 48 e 53 do caderno de exerccios.
"
#"
#
cos sin cos sin
Resoluc
ao do problema 30.
sin cos
sin cos
"
# "
#
cos cos sin sin cos sin sin cos
cos( + ) sin( + )
=
=
sin cos + cos sin sin sin + cos cos
sin( + ) cos( + )
Resoluc
ao do problema 31. Temos somente que efectuar os produtos indicados e nos casos em que o
expoente e variavel tem de formular uma hipotese e prova-la usando o metodo de inducao matem
atica.
Por exemplo, pode provar-se que
"
#k "
#
"
#k "
#
1 1
1 k
cos sin
cos(k) sin(k)
=
, e que
=
, k N e R.
0 1
0 1
sin cos
sin(k) cos(k)
Resoluc
ao do problema 32. Facilmente se ve que Ak = diag{k1 , k2 , . . . , kn } .
Resoluc
ao do problema 33. (A + B)2 = (A + B)(A + B) = A2 + A B + B A + B 2 ,
(A + B)(A B) = A2 A B + B A B 2 e tambem (A B)2 = A(B A)B;
logo (A + B)2 = A2 + 2A B + B 2 , (A + B)(A B) = A2 B 2 e (A B)2 = A2 B 2 (como se diz no
enunciado) se, e somente se, A B = B A.
Resoluc
ao do problema 42. Pode verificar-se para estes exemplos A B = I = B A, tendo-se portanto,
A1 = B em cada um dos casos considerados.
[email protected]
12
Algebra
Linear e Geometria Analtica
Resoluc
ao do problema 47. Basta verificar que nas condicoes do problema
(I A)(I + A + + Ak1 ) = I = (I + A + + Ak1 )(I A) .
Assim, (I A)(I + A + + Ak1 ) = (I + A + + Ak1 ) (A + + Ak1 + Ak ) = I Ak , e como
Ak = 0 temos (I A)(I + A + + Ak1 ) = I .
Por outro lado,
(I + A + + Ak1 )(I A) = (I + A + + Ak1 ) (A + + Ak1 + Ak ) = I Ak ,
0
0
0
0 0 1
0 0 0
2
n
A =
0 0 0 e A = 0 0 0, n = 3, . . .; pelo que
0 0 0
0 0 0
1 1 0
1 1 1
1
2
(I A) = 0 1 1 = I + A + A = 0 1 1
.
0 0
1
0 0 1
2 2 1
.
Problema. Aplique o resultado do problema 47 para calcular a inversa de B =
0
3
1
0 0 1
Resoluc
ao. Multiplique B a` esquerda pela matriz
1
(diag{2, 3, 1})
= diag{1/2,
1/3, 1} = D1 (1/2) D2 (1/3)D3 (1), (produto
de matrizes diagonais)
1 1 1/2
0 1 1/2
. Agora, B1 = I A , com A = 0 0
.
obtendo B1 =
0
1
1/3
1/3
0 0
1
0 0
0
1
1
Aplique o problema 47 para calcular a matriz B1 (i.e. B1 = I + A + A2 , pois A3 = 0 ), e determine
.
Exerccio. Aplique o resultado do problema 47 para calcular a inversa de C =
5
7
0
4 2 1
Resoluc
ao do problema 53. Basta efectuar os produtos de matrizes e verificar as identidades indicadas
"
#"
cos sin
cos
sin
e tamb
" em
cos
sin
sin cos
cos
sin
#"
#
cos sin
= I2
sin cos sin cos
"
#"
#
cos sin
cos sin
=
= I2
sin cos
sin cos sin cos
sin cos
#"
#
sin
cos sin
cos
"
01-10-2013 | T.
Caracterstica de uma matriz. Criterio de invertibilidade de uma matriz quadrada. Discussao de
sistemas.
[email protected]
13
Algebra
Linear e Geometria Analtica
Vamos ver alguns sistemas de equacoes lineares que facilmente se podem resolver.
Definic
ao. As matrizes que verifiquem:
Cada linha (a partir da segunda) comeca com uma sucessao de zeros que tem pelo menos um zero
mais que a linha anterior. Note que, caso haja linhas constitudas somente por zeros, estas terao
de ocorrer nas u
ltimas linhas;
Nas linhas em que existe algum elemento nao nulo, o primeiro escalar nao nulo sera designado
por pivot;
sao designadas por matrizes em escada.
Um sistema de equacoes lineares diz-se em escada se a matriz do sistema estiver em escada.
d1
0 0 d2
0 0 0
d
3
0
0
0
0
0
0
d5
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
Discuss
ao de sistemas em escada. Considere o sistema M x = b , com M uma matriz em escada
m n com r pivots (logo M tem as u
ltimas m r linhas de zeros). Entao:
o sistema e possvel se, e somente se, os u
ltimos m r escalares do termos independente sao todos
nulos;
supondo que os u
ltimos m r escalares do termo independente sao zero, o sistema e possvel e
determinado se r = n e e indeterminado se r < n (note que nao e possvel que se tenha r > n).
o processo que nos permite reduzir, por operacoes elementares
M
etodo de eliminac
ao de Gauss. E
por linhas, um sistema de equacoes lineares, A x = b , a um sistema de equacoes lineares em escada
(equivalente ao inicial).
Definic
ao. Ao n
umero de pivots, r, da matriz em escada obtida de A por operacoes elementares por
linhas, designa-se por caracterstica de A, e sera denotado por car A .
Exemplos. Considere os sistemas em escada, M x = b :
x + 3z v = 2
h
i 1 0 3 0 1 2
0 0 0 1 2 1
u + 2v = 1
[email protected]
14
Algebra
Linear e Geometria Analtica
x + 3z v = 2
1 0 3 0 1 2
y + 5z = 7
h
i
0 1 5 0 0
7
;
, descrito matricialmente como M b
0
0
0
1
2
1
u
+
2v
=
1
0
0 0 0 0 0
0 = 0
A solucao coincide com a do sistema anteriormente estudado.
x + 3z v = 2
1 0 3 0 1 2
y + 5z = 7
0 1 5 0 0
7
;
0 0 0 1 2 1
u
+
2v
=
1
0 0 0 0 0
4
0 = 4
e um sistema impossvel.
x + 4y + z + u = 1
1
4
1
1
1
y + 2z u = 4
h
i
0 1 2 1 4
0 0 1 4 9
z
4u
=
9
0 0 0 1 2
u = 2
A solucao vem dada por u = 2 , z = 1 , y = 0 , x = 2 .
Crit
erio de invertibilidade. Se M e a matriz em escada que se obtem aplicando certas operacoes
elementares por linhas a uma matriz quadrada A, entao uma condicao necessaria e suficiente para que A
seja invertvel e que todos os elementos da diagonal de M sejam nao nulos.
C
alculo da inversa de uma matriz quadrada invertvel. A matriz A1 , de uma matriz invertvel, A, pode determinar-se da seguinte forma: realizam-se as adequadas operacoes elementares
sobre as linhas da matriz A, e simultaneamente sobre as linhas da matriz identidade, I, ate conseguir
que A se transforme na matriz identidade (o que e sempre possvel, pois A e invertvel e temos tantos
pivots como linhas da matriz A); neste momento, a transformada da matriz identidade pelas mesmas
operacoes e a matriz A1 .
[email protected]
15
Algebra
Linear e Geometria Analtica
Licenciaturas em Fsica e Engenharia Fsica
1 3 2
3 5 1
h
i
Resoluc
ao. Considere-se A I , i.e.
1 3 2 1 0 0
1 3 2 1
0 0
1 3 2 1 0 0
2 4 0 0 1 0 2`1 + `2 0 2 4 2 1 0
0 2 4 2 1 0
3 5 1 0 0 1
3`1 + `3
0 4 5 3 0 1
0 0 3 1 2 1
2`2 + `3
1
0
0
1 3 0 1/3 4/3 2/3
1 3 2
2`3 + `1
(existe A ) 1/2 `1 0 1 2
1
1/2
0 2`3 + `2 0 1 0 1/3 5/6 2/3
1/3 `3
0 0 1 1/3 2/3 1/3
0 0 1 1/3 2/3 1/3
3`2 + `1
1 0 0 2/3 7/6 4/3
-4 -7 8
0 1 0 1/3
. Logo A1 = 1 2 5 -4.
5/6
2/3
6
0 0 1 1/3 2/3 1/3
-2 4 -2
Teorema de Rouch
e. Considere-se um sistema de equacoes lineares A x = b, com A matriz m n e b
vector m 1 dados. Entao:
A x = b e possvel se, e somente se, car
= car A ;
h
i
A x = b e possvel e determinado se, e somente se, car A b = car A = n ;
h
i
A x = b e possvel e indeterminado se, e somente se, car A b = car A < n .
A b
03-10-2013 | T.
Discussao de Sistemas. Aplicacoes.
Definic
ao. Um sistema de equacoes lineares, A x = b , diz-se homgeneo se o termo indepenedente for 0 ,
i.e., for do tipo A x = 0 .
Lema. Um sistema homgeneo e sempre possvel (pois admite, pelo menos, como solucao a nula, i.e.
x = 0 e solucao). Mais ainda, se x 1 e x 2 sao duas quaisquer solucoes do sistema homgoeneo, A x = 0 ,
entao x 1 + x 2 e ainda uma solucao qualquer que sejam os escalares , .
Definic
ao. Seja A Mm,n . O conjunto de solucoes do sistema A x = 0 designa-se por n
ucleo de A, ou
x Rn : A x = 0 } .
sub-espaco nulo de A e representa-se por N(A) = {x
Teorema de representac
ao da soluc
ao. Seja A uma matriz m n de coeficientes em C e b um
vector de Cm . Se o sistema A x = b e possvel, e y e uma sua solucao, entao o conjunto solucao, sol ,
de A x = b e dado por sol = {yy + y 0 , y 0 N(A)} .
Demonstrac
ao. Verifiquemos primeiro que x = y + y 0 e de facto uma solucao do sistema A x = b , i.e.,
A(yy + y 0 ) = A y + A y 0 = b + 0 = b .
[email protected]
16
Algebra
Linear e Geometria Analtica
c.q.d.
Determinac
ao do n
ucleo de A. Considere-se o sistema A x = 0 com A matriz m n . Este sistema
e sempre possvel, sendo determinado caso, car A = n , e indeterminado caso car A < n .
Neste u
ltimo caso comecamos por identificar as variaveis livres em n
umero igual a n car A , correspondentes a`s variaveis sem pivot da matriz U na decomposicao P A = L U . Designamos por nulidade
de A o n
umeros de variaveis livres, n car A e denotamo-la por nul A .
Determinamos, de seguida, a solucao dos sistemas A x j0 = 0 onde x j0 , com j = 1, . . . , nul A e o vector
resultante de tomar todas as variaveis livres iguais a zero menos a j-esima variavel, que e igual a 1 .
Desta forma encontramos que y N(A) representa-se como combinacao linear dos vectores x j0 , i.e.
A
y = 1 x 10 + + nul A x nul
.
0
Aplicac
ao. Discuta em termos do parametro R o sistema de equacoes lineares A x = b com
x
1 2 4 3
2
, b = 3 e x = y ;
A=
3
7
5
5
z
5 12 6 7
w
e resolva o sistema dado para os valores de que o tornem possvel.
i
h
Resoluc
ao. Considere-se a matriz do sistema ampliada A b , i.e.
2
4 3
2
1
2
1 2 4 3 2
1 2 4 3
3 7 5 5 3 3`1 + `2 0 1 7 4
0
3
3
1 7 4
5 12 6 7
5`1 + `3
0 2 14 8 10
2`2 + `3
0
0
0
0 4
logo se 6= 4 o sistema e impossvel, e caso = 4 o sistema e possvel e indeterminado.
Vamos agora resolver o sistema quando = 4 . Comecemos por indicar que a caracterstica da matriz
do sistema e 2 (tem como pivots os escalares assinalados nas posicoes (1, 1) e (2, 2)) e a nulidade e 2
(o sistema dado tem como variaveis livres z, w ).
Comecemos por determinar uma solucao do sistema com z = w = 0 ; logo y = 7 e x = 6 , i.e.
h
iT
x p = 8 3 0 0 ; e resolvamos o sistema homogeneo associado primeiro com z = 1 e w = 0,
h
iT
e
e depois com z = 0 e w = 1, determinando, respectivamente, os vectores x 10 = 18 7 1 0
h
iT
x 20 = 11 4 0 1 .
A solucao geral do sistema de equacoes lineares com = 4 vem dado por
x = x p + x 10 + x 20 , com , R .
[email protected]
17
Algebra
Linear e Geometria Analtica
c.q.d.
Definic
ao. Seja A uma matriz m n. Dizemos que o produto de uma matriz triangular inferior, L,
por uma triangular superior, U , e uma decomposicao L U de A se A coincidir com L U a menos de
mudanca da ordem das linhas de A , i.e. existe uma matriz de permutacao, P , tal que P A = L U .
Decomposic
ao L U de uma matriz (algoritmo). Use operacoes elementares por linhas, i.e.
Ek E2 E1
sobre a matriz A por forma a transforma-la numa matriz em escada, U , (que e sempre possvel ainda
que para tal se tenha de multiplicar por matrizes de permutacao) i.e. (Ek E2 E1 )A = U ; e, portanto,
A = (Ek E2 E1 )1 U = L U , com L = E11 Ek1 .
h
i
h
i
Resumidamente temos. A I
0 2 2 4
0 2 2 2
. Comecamos por multipliExemplo. Determinar a decomposicao L U da matriz A =
1
2
2
1
2 6 7 5
car A pela matriz P1,4 , i.e. vamos efectuar operacoes elementares sobre P1,4 A
2 6 7 5 1 0 0 0
1
0 0 0
2 6
7
5
h
i
0 2 2 2 0 1 0 0
0 2
2
2
0
1 0 0
P1,4 A I4
1/2`2 + `3
`2 + `4
2 6
0 0
0 2
2
2
0
1 0 0
h
i
U L1 .
18
Algebra
Linear e Geometria Analtica
0 0
0
1
0 0
e
1/2 1/2 1 0
0
1
0 1
2 6
0 2
2
2
U =
0 0 1/2 1/2
0 0
0
2
L1 = L2 e que U1 = U2 .
c.q.d.
C
alculo da inversa de uma matriz quadrada invertvel (continuac
ao). A matriz A1 , de uma
matriz invertvel, A , pode determinar-se da seguinte forma: realizam-se as adequadas operacoes elementares sobre as linhas da matriz A, e simultaneamente sobre as linhas da matriz identidade, I , ate
conseguir que A se transforme
em escada
(o que e sempre possvel); neste momento,
h numai matriz
h
i
acabamos de levar a matriz A I a U L1 ; efectuando agora as operacoes elementares por
linhas a` matriz U ampliada com a matriz I ate que a primeira se transforme na matriz identidade,
obtemos como transformada de I a matriz U 1 . Agora, da representacao A = L U , temos que A1 =
U 1 L1 .
03-10-2013 | TP.
Resolucao dos problemas 29, 31. e), 60, 61, 63. g) e 65.
h i
h
i
Resoluc
ao do problema 29. a) Sendo A = ai,j e B = Bi,j , matrizes n n, entao o elemento
n
X
ai,k ak,j + bi,j , para i, j = 1, . . . , n.
situado na linha i, coluna j da matriz A2 + B e
k=1
#
2 1
3 2
"
, se tem A2 =
1 0
0 1
#
; e,
1 2
4
1
7
1 3 1 2
0
Resoluc
ao do problema 60. a)
3 1 2 1 = 0 ; b) 2 2 6 1 = 0 ;
1
1
1 1 1 1
2
1 5 3
[email protected]
19
Algebra
Linear e Geometria Analtica
Licenciaturas em Fsica e Engenharia Fsica
" #
# 1
"
3
1 1 " #
1
1
1
2
3
c)
2 3 2 = 8; d) 1 4 1 1 = 5 .
0
3
1 1
# x
"
" #
1 3 1
x
0
1
2
3
1
Resoluc
ao do problema 61. a)
2 2 6 y = 0 ; b) 1 4 1 y = 5 ;
1 1 1
z
2
z
3
1 2
4
x
7
1 1 " #
c)
3 1 2 y = 0 ; d) 2 3 y = 8.
3
1 5 3
z
1
1 1
1
1 1 1 1
Resoluc
ao do problema 63. g) Para resolver o sistema A x = b , com A =
1 1 3 2 e b = 3,
0
3 5 7 3
considere-se
1 1 1 1 1
h
i 1 1 1 1 1 1 1 1 1 1
A b = 1 1 3 2 3 `2 `3 3 5 7 3 0 3`1 + `3 0 2 4 0 3
.
3 5 7 3 0
1 1 3 2 3
`1 + `2
0 0 2 1 2
Vemos assim que o sistema dado e possvel e indeterminado, e x4 e uma variavel livre; a solucao geral
h
iT
do sistema sera dada por x = x 0 + x p , R, tais que A x 0 = 0 , e A x p = b , com x 0 = x y z 1
h
iT
h
iT
h
iT
e x p = x1 x2 x3 0 . Obtemos x p = 7/2 7/2 1 0 e x 0 = 3/2 2 1/2 1 .
1 0 0
1 1 1 1
e U = 0 2 4 0 .
Observac
ao. A decomposicao P2,3 A = L U tem L =
3
1
0
1 0 1
0 0 2 1
Resoluc
ao do problema 65. Consideramos a matriz ampliada
dosistemadepois
de multiplicada pela
1
0
i
h
2
matriz de permutacao P2,3 , i.e. P2,3 A b , com A =
1 1 e b = , i.e. depois de aplicar
1 1
0
0
0
as transforma
coes por linhas`2 = `1 + `2 e `3 = `1 + `3 temos
2 .
0 1
0
2
2
0 1 1
0
Agora, se = 1 o sistema e impossvel (pois a linha `02 le-se 0 = 1 ); se = 1 o sistema e possvel
e indeterminado (pois a linha `03 le-se 0 = 0 ); caso 6= 1 entao o sistema e possvel e determinado;
0
0
efectuando
a operacao `003 = (1 + )`
2 + `3
1
0 1
, obtemos como solucao
0
2
2
0
0
1 (1 + )
2 /(1 ) .
2
/(1 )
20
Algebra
Linear e Geometria Analtica
08-10-2013 | T.
Determinante de uma matriz quadrada de ordem n. Aplicacoes.
Definic
ao. Determinante de uma matriz de ordem n e uma funcao det : Mnn (K) K , com K R
ou C , verificando as seguintes condicoes:
1 para cada
h i = 1, . . . , n e i K , tem-se
h
i
h
i
det cj + b = det cj + det b ,
h
iT
h
iT
onde c j e b sao vectores coluna a1,j an,j , j = 1, . . . , n e b1 bn , respectivamente;
i
h
i
h
2 para cada i = 1, . . . , n e K , tem-se det c j = det c j ;
h
i
3 Se a matriz A tiver duas colunas iguais, tem-se det A = det c j c j = 0 ;
4 det In = 1 .
Notac
ao.
h i
O determinante de uma matriz A , det A , pode denotar-se como det ai,j ou ainda ai,j ou |A| .
As propriedades 1 e 2 expressam a linearidade por colunas da funcao determinante.
A definicao anterior nao se altera substituindo o termo coluna por linha (cf. texto de apoio).
No estudo que agora iniciamos vamos supor que existe uma u
nica funcao satisfazendo as condicoes 1
a 4, i.e. vamos considerar que a defincao dada e consistente.
Propriedades dos determinantes. Seja A uma matriz n n; entao tem-se:
a. se uma coluna de A for m
ultipla de uma outra, entao det A = 0 . Em particular, det A = 0 se a
matriz A tiver uma linha nula;
b. o determinante muda de sinal quando se trocam entre si duas colunas de A ;
c. se P e uma matriz de permutacao tem-se det P = 1 ;
d. O determinante de uma matriz A nao se altera se a uma coluna de A adicionarmos um m
ultiplo
de uma outra coluna.
i
h
Demonstrac
ao. Vamos denotar a matriz A por colunas, i.e. A = c i c j . Entao,
h
i
h
i
2
3
det c j c j = det c j c j = 0 ,
pelo que a fica provado.
Para demonstrarmos
b comecemos por considerar
h
i
3
det c i + c j c i + c j = 0 .
Aplicando
1 e 2) a este determinante,
h a linearidade (i.e. as
i propriedades
h
i
h podemos escrever i
det c i c i + det c i c j + det c j c i
i
h
+ det c j c j = 0 .
[email protected]
21
Algebra
Linear e Geometria Analtica
Mas da propriedade 3 temos que det
ci cj
cci
c.q.d.
Observac
ao. As propriedades que acabamos de estabelecer
admitem umai leitura em termos de deterh
minantes de produtos de matrizes, i.e. sendo A = c i c j
uma matriz n n, entao:
h
i
c j c i = A Pi,j ,
c i c j + cci = A Ei,j () ,
h
i
c i ccj = A Dj () .
Agora, det Pi,j = det
ej ei
nulos com excepcao que que esta na posicao j que e igual a 1. Assim, pela propriedade b temos que
det Pi,j = 1 .
Mais ainda,
i
h
det Ei,j () = det e i e j + eei
h
i
h
i
a
= det e i e j + det e i eei = det In = 1 .
i
h
2
Temos ainda que det Dj () = det e i eej = det In = .
Assim, podemos escrever para qualquer matriz A Mnn :
det(A Pi,j ) = (det A) (det Pi,j ) ,
det(A Ei,j ()) = (det A) (det Ei,j ()) ,
det(A Dj ()) = (det A) (det Dj ()) .
1 2 3
2 0 0
e B = 3 4 0 .
Exemplo. Calcule o determinante das matrizes A =
0
4
5
0 0 7
1 0 5
Resoluc
ao. Ve-se facilmente
que
1 1/2 3/7
;
A D2 (1/4) D3 (1/7) =
0
1
5/7
0 0
1
mais ainda, A D2 (1/4) D3 (1/7) E1,2 (1/2) E1,3 (3/7) E2,3 (5/7) = I .
Assim, A = E2,3 (5/7) E1,3 (3/7) E1,2 (1/2) D3 (7) D2 (4) ; pelo que
det A = |E2,3 (5/7)| |E1,3 (3/7)| |E1,2 (1/2)| |D3 (7)| |D2 (4)| = 28 .
[email protected]
22
Algebra
Linear e Geometria Analtica
Para a matriz B comecamos por multiplicar a` direita pela matriz D1 (1/2) D2 (1/4) D3 (1/5) , i.e.
1
0 0
1/2 0 1
Logo B = E3,1 (1/2) E2,1 (3/2) D3 (5) D2 (4) D1 (2) ; e, portanto, det A = 40 .
Determinantes de matrizes especiais.
det(D1 (1 ) Dn (n )) = det D1 (1 ) det Dn (n ) =
n
Y
j=1
Demonstrac
ao. De facto, sendo T+ =
"
T+ =
1e 1 2e 2 + e 1
j=1
que tem todos os escalares nulos com excepcao que que esta na posicao j que e igual a 1.
Se algum dos elementos diagonais for nulo, i.e. k = 0 , para algum k = 1, . . . , n entao, a coluna k
k1
k1
X
X
t
e
t
de T+ , k =
j , admite a representacao k =
jk tj , com jk , j = 1, . . . , k 1 bem determinados.
j=1
j=1
"
obtemos T+ D1 (1/1 ) Dn (1/n ) =
e 1 e 2 + e 1 e 3 + ( e 1 + e 2 ) e n +
n1
X
#
ej
j=1
Agora, adicionando `a segunda coluna da matriz que obtivemos pelo processo anterior, e 2 + e 1 , () e 1
transforma-mo-la em e 2 , e pela propriedade d o valor do determinante nao se altera. Como sabemos
esta operacao corresponde a multiplicar a matriz T+ D1 (1/1 ) Dn (1/n ) por E1,2 () , pelo que a
matriz inicial foi transformada em
T+ D1 (1/1 ) Dn (1/n ) E1,2 () =
"
e 1 e 2 e 3 + ( e 1 + e 2 ) e n +
n1
X
#
ej
j=1
23
Algebra
Linear e Geometria Analtica
Para matrizes triangulares inferiores T pode provar-se da mesma forma tendo em atencao que
"
#
n
n
X
X
e j 2 e 2 +
e j n e n ,
T = 1 e 1 +
j=2
j=3
n
Y
j .
c.q.d.
j=1
10-10-2013 | T.
Determinantes de matrizes quadradas: Teorema de Laplace.
Teorema. Considere a decomposicao L U para uma matriz A quadrada n n, i.e. A = P T L U (pois,
P T P = I ); entao, det A = det P det U , e tambem det AT = det A .
Demonstrac
ao. Basta notar que P T P = In ; e, portanto, det P T det P = 1 , ou ainda, tendo em
atencao a propriedade c, det P T = det P . Agora pela decomposicao L U de A temos o resultado
procurado para o determinante da matriz A .
Para mostrar que det AT = det A basta notar que o determinante de uma matriz triangular e o produto
dos seus elementos diagonais, pelo que det U T = det U .
c.q.d.
Teorema. Sejam A, B matrizes quadradas n n . Entao, det(A B) = det A det B . Alem disso, se A
e invertvel, entao det A1 = (det A)1 .
Demonstracao. A primeira identidade e consequencia da representacao L U para as matrizes A e B ,
quando estas sao invertveis, e de que tanto L como U admitem uma representacao como produto de
matrizes elementares. Quando A ou B nao sao invertveis, temos tambem que A B nao e invertvel,
pelo que det(A B) = 0 = det A det B .
Para a segunda identidade basta notar que pela definicao de matriz invertvel A1 A = In , e da propriedade anterior temos det(A1 A) = det A1 det A = 1 , de onde se obtem o resultado procurado. c.q.d.
Problema. Analise a existencia de uma matriz quadrada A , n n invertvel e tal que AT = A3 .
Resoluc
ao. Das hipoteses temos det A = (1)n (det A)3 , i.e. (1 (1)n (det A)2 ) det A = 0 .
[email protected]
24
Algebra
Linear e Geometria Analtica
Agora, como det A 6= 0 , conclumos que (det A)2 = (1)n , i.e. se n e par (det A)2 = 1 e se n e mpar
(det A)2 = 1 ; logo, caso n sejapara, det A= 1 , e caso n seja mpar det A = i .
#
"
i 0 0
i
0
n
X
(1)i+j ai,j det Ai,j , i = 1, . . . , n ).
j=1
Demonstrac
ao. Escrevendo a coluna j da matriz A na forma c j =
n
X
i=1
i = 1, . . . , n , o vector coluna que tem todos os escalares nulos com excepcao do que esta na posicao i
que e igual a 1 . Desta forma escrevemos A por colunas como
"
#
n
X
c j1
ai,j e i c j+1 .
i=1
n
X
det
c j1 ai,j e i c j+1
i=1
n
X
ai,j det
c j1 e i c j+1
i=1
a1,j1 0 a1,j+1
..
..
..
.
.
.
ai1,j1 0 ai1,j+1
a
1
a
i = 1, . . . , n.
i,j1
i,j+1
i+1,j1 0 ai+1,j+1
..
..
..
.
.
.
O determinante destas matrizes coincidem a menos de (1)j com o determinante das matrizes que
resultam delas por troca da coluna j sucessivamente com as colunas j 1 ate `a coluna 1 , i.e. com o
determinante das matrizes
[email protected]
25
Algebra
Linear e Geometria Analtica
0 a1,j1
a1,j+1
.
..
..
..
.
.
0 ai1,j1 ai1,j+1
ai,j+1 i = 1, . . . , n.
1 ai,j1
0 a
i+1,j1
i+1,j+1
..
..
..
.
.
.
Mais ainda, o determinante destas matrizes coincidem a menos de (1)i com o determinante das
matrizes que resultam delas por troca da linha i sucessivamente com as linhas i 1 ate ate a` linha 1 ,
i.e. com o determinante das matrizes
1 ai,j1
ai,j+1
i = 1, . . . , n.
0 a1,j1
a1,j+1
..
..
..
.
.
.
0 ai1,j1 ai1,j+1
0 a
i+1,j1 ai+1,j+1
..
..
..
.
.
.
Mas o determinante desta matriz e igual ao determinante da matriz que se obtem da matriz A por
supressao da linha i e da coluna j, i.e. podemos escrever
n
n
i X
h
X
ai,j (1)i+j det Ai,j .
det A =
det c j1 ai,j e i c j+1 =
i=1
i=1
c.q.d.
Exemplos.
"
Seja A =
c det A2,1
a b
; det A = a det A1,1 b det A1,2 = c det A2,1 + d det A2,2 = a det A1,1
c d
= b det A1,2 + d det A2,2 ,
g h i
"
#
"
#
"
#
e f
d f
d e
onde A1,1 =
, A1,2 =
, A1,3 =
;
h i
g i
g h
e do caso analisado anteriormente temos que det A1,1 = e i f h , det A1,2 = d i f g e det A1,3 =
d h g e . Assim, det A = a e i a f h b d i + b f g + c d h c g e .
Observac
ao. No primeiro exemplo, observe-se a posicao na matriz A dos escalares (que agora identificamos com 1s) que aparecem nos produtos duplos da formula de calculo do determinante, i.e.
[email protected]
26
Algebra
Linear e Geometria Analtica
Licenciaturas em Fsica e Engenharia Fsica
#
#
"
"
0 1
1 0
bc,
ad e
1 0
0 1
cujos determinantes valem, respectivamente 1 e 1 (pois coincidem com a matriz identidade e com a
matriz de permutacao), que e o sinal de a d e b c na formula do determinante.
No segundo exemplo, observe-se a posicao na matriz A dos escalares (que agora identificamos com 1s)
queaparecem
nos produtos
triplos
da formula
de calculo
do determinante, i.e.
1 0 0
0 1 0
0 0 1
0 1 0
0 0 1
1 0 0
1 0 0
0 1 0
0 0 1
0 0 1
1 0 0
0 1 0
(pois coincidem com a matriz identidade, ou com matrizes de permutacao ou com produtos de matrizes
de permutacao). Obtemos assim a regra de Sarrus, i.e. det A = (a e i+b f g+d h c)(c e g+b d i+f h a) .
10-10-2013 | TP.
Determinantes de matrizes quadradas: Regra de Cramer. Resolucao de Exerccios.
h i
Definic
ao. Seja A = ai,j uma matriz n n . Definimos matriz adjunta como a matriz transposta da
matriz dos complementos algebricos de A, i.e.
1+1
h
iT (1) det A1,1
..
adj A = (1)i+j det Ai,j =
.
..
..
.
=
.
.
1+n
n+n
(1)
det A1,n (1)
det An,n
T
(1)n+1 det A1,n
..
n+n
(1)
det An,n
Kronecker. De facto,
n
h
X
k+j
(1) ak,i det Ak,j = det
k=1
ci ci
i
j
h i
Aplicac
ao `
a resoluc
ao de sistemas (Regra de Cramer). Seja A = ai,j uma matriz n n e
h i
b = bi um vector n 1 . O sistema A x = b diz-se de Cramer se a matriz do sistema, A , for invertvel.
[email protected]
27
Algebra
Linear e Geometria Analtica
h
Um sistema de Cramer tem solucao u
nica x = x1
xn
iT
dada por
xj = j /(det A) ,
onde j e para cada j = 1, . . . , n, o determinante da matriz que se obtem de A por substituicao da
coluna j (deh A) pelo vector b , i.e.
i
xj = det c j1 b c j+1 /det A , j = 1, . . . , n .
" n
#
X
(1)i+j (det Ai,j ) bi
Indicac
ao. Basta notar que (adj A) b =
e
i=1
n
h
i
X
que, do teorema de Laplace, obtemos que
(1)i+j (det Ai,j ) bi = det c j1 b c j+1 .
i=1
h
i
Assim, (det A) bj = det c j1 b c j+1 , j = 1, . . . , n .
c.q.d.
A x = b , com A = 1 5
1 e b = 4 e x = y
.
3 2 4
1
z
Como det A = 2 , sabemos que A e invertvel, pelo que o sistema dado e de Cramer. Mais ainda,
T
|A1,1 | |A1,2 | |A1,3 |
1
|A2,1 | |A2,2 | |A2,3 | ,
A1 =
det A
|A3,1 | |A3,2 | |A3,3 |
com |A1,1 | = 18 , |A1,2 | = 1 , |A1,3 | = 13 , |A
2,1 | = 10 , |A2,2 | = 1 , |A2,3 | = 7 , |A
3,1
| = 16 ,
18 10 16
3
1
1
1
28
Algebra
0
1
l)
0
0
1
0
0
0
0 1
1 0
0 1
1 0
15-10-2013 | T.
Resolucao dos problemas 64, 93 e 96 do caderno de exerccios.
Resoluc"
ao do problema
64. Pode ver-se que o determinante da matriz
#
#
" do sistema
(4 13 i)/15 (3 i)/15
i
1+i
1
,
e igual a 3 6 i , logo A e invertvel e A =
A=
(1 + 3i)/15 (2 + i)/15
1 i 6 + i
pelo que a solu
" cao do sistema vem dada# por
"
# "
#
(4
13
i)/15
(3
i)/15
3
+
i
(37
39
i)/15
A1 b =
=
.
(1 + 3i)/15 (2 + i)/15
4
(8 + 14i)/15
Outro processo: A partir do momento que verificamos que a matriz do sistema, A , e invertvel, podemos
aplicar directamente
a# Regra de Cramer para resolver o sistema
dado, obtendo-se
#
3 + i 1 + i
i
3+i
4
1 i
6 + i
4
23 7 i
4 + 6 i
z=
=
e w=
=
,
det A
3 6 i
det A
3 6 i
que e a solucao do sistema (confirmar).
Podemos
ainda, como
determinar
A:
"
# processo alternativo
"
# a decomposi
" cao L U da #matriz
"
#
i
1+i
i
1+i
1
0
i
1+i
, i.e. A =
.
1 i 6 + i
(1 + i)`1 + `2
0 6 + 3 i
(1 + i) 1
0 6 + 3 i
Agora, temos somente que resolver o seguinte sistema em escada (exerccio),
#
# "
#"
# "
#1 "
#" # "
"
3+i
3+i
1
0
3+i
1
0
z
i
1+i
.
=
=
=
6 + 4i
4
1+i 1
4
(1 + i) 1
w
0 6 + 3 i
1 1
1 1
3
2
2 + 3 = ( 1) ( + 2) . Assim, se a R \ {2, 1} a matriz A e invertvel. Mais ainda, para
T
|A1,1 | |A1,2 | |A1,3 |
1
1
|A2,1 | |A2,2 | |A2,3 | ,
6= 2, 1 , a sua inversa vem dada por A =
det A
|A3,1 | |A3,2 | |A3,3 |
2
2
com |A1,1 | = 1 , |A1,2 | = 1 , |A1,3 | = 1 , |A2,1 | = 1 , |A2,2 | = 1
, |A2,3 | = 1 , |A3,1 |=
1 1 1 2
1
1 1 2 1 .
1 2 , |A3,2 | = 1 , |A3,3 | = 1 ; e, portanto, A1 =
( 1)2 ( + 2)
1 2 1 1
Resoluc
ao do problema 96. Como A = T B T 1 e
= det T det B det T 1 = det T det B (det T )1 obtemos
[email protected]
Algebra
Linear e Geometria Analtica
17-10-2013 | T.
Espaco vectorial. Exemplos. Sub-espaco vectorial. Exemplos.
Conceito de Espaco Vectorial. Seja V um conjunto dado cujos elementos serao designados por vectores. Consideremos tambem o conjunto K (que sera sempre R ou C ) cujos elementos serao designados
por escalares. Diremos que V e um espaco vectorial sobre K se as operacoes soma e produto por um
escalar, satisfazem as seguintes propriedades, para todo o ~u, ~v , w
~ V , , K :
+ :VVV
. :KVV
1. (~u + ~v ) + w
~ = ~u + (~v + w)
~ ;
2. ~0 : ~u + ~0 = ~0 + ~u = ~u ;
a) ( + ) . ~u = . ~u + . ~u ;
3. ~u : ~u + (~u) = (~u) + ~u = ~0 ;
c) ( . ~u) = ( ) . ~u ;
4. ~u + ~v = ~u + ~v ;
d) 1 . ~u = ~u .
b) . (~u + ~v ) = . ~u + . ~v ;
Observac
ao. Caso K seja C o espaco vectorial V diz-se complexo; e caso K = R , V diz-se um espaco
vectorial real.
No que se segue vamos aligeirar a notacao e denotar os vectores de ~u de V por u .
Exemplos. Alem dos espacos Kn , ou mesmo Mm,n (K) com K = R ou C que nos serviram como
modelo (cf. aula T | 19-09-2013 em Propriedades das operaco
es com matrizes) convem citar os
seguintes exemplos de espacos vectoriais:
O conjunto das funcoes definidas num mesmo conjunto D com valores em K , que denotamos por
F(D, K) , com as operacoes adicao de funcoes e produto de uma funcao por um escalar, i.e.
+ : F(D, K)F(D, K) F(D, K) sendo f + g a funcao definida em D por (f +g)(x) = f (x)+g(x);
. : K F(D, K) F(D, K) sendo . f a funcao definida em D por ( . f )(x) = f (x) .
O conjunto dos polinomios com coeficientes em K na variavel x, que denotaremos por P[x] e um
espaco vectorial sobre K , relativamente `as operacao usuais de soma de polinomios e do produto
de um escalar por um polinomio.
Definic
ao. Seja V um espaco vectorial sobre K e seja U um subconjunto de V . Dizemos que U e um
sub-espaco vectorial de V se as operacoes sobre V estiverem bem definidas sobre U ; e, portanto, U e
tambem um espaco vectorial sobre K .
Teorema de caracterizac
ao. U e um sub-espaco vectorial do espaco vectorial V se, e somente se,
sendo 6= U V se tem
u + v U e . u U , para todo o u , v U e K .
Propriedade (*)
Observac
ao. As condicoes anteriores de caracaterizacao de um sub-espaco podem ser substituidas por
.u + . v U , u , v U e , K ,
Propriedade (**)
30
Algebra
Linear e Geometria Analtica
Demonstrac
ao. Nao vamos demonstrar que a carcaterizacao de sub-espacos mas somente indicar que o
enunciado na observacao e natural. De facto, se se verificam as condicoes (*) entao . u U e . v U ,
pelo que de (*) temos que . u + . v U . Agora, se (**) se tem, entao, tomando = = 1 , por um
lado e = 0 por outro obtemos (*).
c.q.d.
Observac
ao. O vector nulo, 0 , pertence a todos os sub-espacos vectoriais de um dado espaco vectorial V . Alem disso, o espaco vectorial V tem como sub-espacos V e {00} . Os demais sub-espacos de V
dizem-se proprios.
Exemplos.
1. O conjunto U = {(x, y, z) R3 : 3 x 2 y + 4 z = 0} e um sub-espaco vectorial de R3 .
(Basta verificar que o vector nulo de R3 esta em U e que toda a combinacao linear de vectores
de U e ainda um vector de U .)
2. O conjunto dos polinomios complexos cujo grau e menor do que ou igual a 5, P5 [x] , e um sub-espaco vectorial de P[x] .
(Basta justificar que o polinomio zero esta em P5 [x] e que toda a soma algebrica de polinomios
de grau menor do que, ou igual a, 5 e ainda um polinomio de P5 [x] .)
3. O conjunto das matrizes 7 7 de escalares reais e simetricas, e um sub-espaco vectorial de M7 (R) .
(Basta verificar que a matriz nula 7 7 e simetrica, que a soma de matrizes simetricas e ainda
uma matriz simetrica e que o produto de uma matriz simetrica por um escalar e tambem uma
matriz simetrica.)
17-10-2013 | TP.
Sub-espaco linear gerado por um conjunto de vectores. Resolucao do problema 99 do caderno de
exerccios.
Intersecc
ao de sub-espacos. A intersecao de sub-espacos de um mesmo espaco vectorial V e ainda
um sub-espaco vectorial de V .
Demonstrac
ao. Designemos por U a interseccao dos sub-espacos Uj , j = 1, 2 . Note-se que o vector
nulo pertence a cada um destes sub-espacos Uj , pelo que tambem pertence a U ; logo U 6= . Tomem-se
agora u , v quaisquer vectores em U e , K , entao por hipotese (U1 , U1 , sao sub-espacos)
. u + . v Uj , j = 1, 2; logo . u + . v U1 U2 = U .
c.q.d.
Observac
ao. A uniao de sub-espacos de um mesmo espaco vectorial V nao e, em geral, um sub-espaco
vectorial de V . Por exemplo, considere os seguintes sub-espacos vectoriais de R2
U1 = {(x, 0) : x R} e U2 = {(0, y) : y R} .
Justificac
ao. Basta notar que o vector soma dos vectores (1, 0) U1 e (0, 1) U2 , (logo pertencem a
U1 U2 ), e o vector (1, 1) = (1, 0) + (0, 1) que nao pertence a U1 U2 .
[email protected]
31
Algebra
Linear e Geometria Analtica
u1 , . . . , u n } um conjunto de vectores de V .
Definic
ao. Seja V um espaco vectorial sobre K ; seja S = {u
Designam-se por combinacoes lineares de vectores de S os vectores
v = 1 . u 1 + + n . u n , onde j K , j = 1, . . . , n .
Exemplos. Considere os vectores a = (1, 0, 1) , b = (0, 1, 1) e c = (1, 1, 2) . Verifique que
L({aa, b , c }) = { . a + . b + . c , , , R} e um sub-espaco vectorial de R3 , e identifique-o.
Resoluc
ao. O vector nulo pertence ao espaco; para tal basta tomar = = = 0 . Considere agora
os vectores arbitrarios u , v L({aa, b , c }) , i.e. j , j , j R , com j = 1, 2 tais que
u = 1 . a + 1 . b + 1 . c = (1 + 1 , 1 + 1 , 1 + 1 + 21 ) e
v = 2 . a + 2 . b + 2 . c = (2 + 2 , 2 + 2 , 2 + 2 + 22 ) .
Entao para todo o , R temos . u + . v = (1 + 2 ) . a + (1 + 2 ) . b + (1 + 2 ) . c ; logo
. u + . v L({aa, b , c }) .
Vamos passar a` identificacao do sub-espaco L({aa, b, c}) , i.e. que propriedade intrnseca e satisfeita pelos
vectores que o compoem. Vimos ja que u L({aa, b , c }) , se existem escalares , , R tais que
u = (u1 , u2 , u3 ) := . a + . b + . c = ( + , + , + + 2) .
Emnotacaomatricial
este identidade le-se:
1 0 1
u1
0 1 1 = u2 ,
1 1 2
u3
que sabemos ser um sistema possvel (pois, por definicao de L({aa, b , c }) , sabemos que existem para cada
u L({aa, b , c }) escalares
, ,
b + . c ). Discutindo o sistema
obtemos
R tais que u = . a + .
1 0 1 u1
1 0 1
u1
1 0 1
u1
0 1 1 u2
0 1 1
;
u2
u2
0 1 1
1 1 2 u3
`1 + `3
0 1 1 u3 u1
`2 + `3
0 0 0 u3 u1 u2
u := (u1 , u2 , u3 ) R3 : u3 = u1 + u2 } .
logo u3 u1 u2 = 0 , e a condicao procurada, i.e. L({aa, b , c }) = {u
Teorema. O conjunto de todas as combinacoes lineares de vectores de S e um sub-espaco vectorial
de V , que se designa por espaco vectorial gerado por S , que denotaremos por L(S) , i.e.
L(S) = {1 . u 1 + + n . u n : j K , j = 1, . . . , n} .
Alem disso, L(S) e o menor, no sentido da inclusao, sub-espaco de V que contem S .
Demonstrac
ao. Confirmemos primeiro que L(S) se trata de um sub-espaco vectorial, i.e. L(S) 6=
e que . u + . v L(S) sempre que u , v L(S) , , K . De facto, por definicao
n
n
n
X
X
X
u , v L(S) j , j K : u =
j . u j e v =
j . u j ; logo . u+ . v =
( j + j ) . u j ;
j=1
j=1
j=1
pelo que . u + . v L(S) . Por outro lado, todo o sub-espaco que contenha S tera de conter todas
as combinacoes lineares de vectores de S , logo tera de conter L(S) . Como por, definicao, L(S) e um
sub-espaco vectorial que contem S , conclumos que L(S) e o menor sub-espaco que contem S . c.q.d.
[email protected]
32
Algebra
Linear e Geometria Analtica
Resoluc
ao do problema 99.
a) Comece por verificar que o vector (0, 0, 0, 0) esta em
U = {(x1 , x2 , x3 , x4 ) R4 : x1 = x2 , x3 = x4 } ;
mais ainda, a soma de dois vectores u := (u1 , u2 , u3 , u4 ) e v := (v1 , v2 , v3 , v4 ) de U e um vector
de U , pois u1 + v1 = (u2 + v2 ) e
22-10-2013 | T.
Conjuntos equivalentes de vectores. Soma de sub-espacos vectoriais. Dependencia e independencia
linear.
u1 , . . . , u p }
Definic
ao. Sejam S = {u
espaco vectorial V . Dizemos que os conjuntos S e T sao equivalentes se geram o mesmo sub-espaco,
i.e. L(S) = L(T ) , ou ainda, todo o vector de qualquer dos conjuntos S ou T se escreve como combinacao
linear dos vectores do outro (conjunto).
Esta relacao entre conjuntos de vectores e de equivalencia, i.e. e reflexiva, simetrica e transitiva.
u, v } , com u =
Exemplo. Mostre que os conjuntos {aa, b , c } , definido na aula TP | 17-10-2013, e {u
(2, 1, 3) , v = (1, 2, 3) , sao equivalentes.
Basta verificar que existem j , j , j R , com j = 1, 2 tais que u = 1 a + 1 b + 1 c
v =
33
Algebra
Linear e Geometria Analtica
3+3 = w3 , e possvel (em , , ); donde se conclui, somando as duas primeiras equacoes a` simetrica
u, v }) = {(w1 , w2 , w3 ) R3 : w3 = w1 + w2 } = L({aa, b , c }) .
da terceira, que w3 = w1 + w2 , i.e. L({u
Soma de sub-espacos vectoriais. Sejam U1 , U1 sub-espacos vectoriais de um mesmo espaco vectorial V . Definimos o conjunto soma de U1 com U2 , como
u1 + u 2 , u 1 U1 , u 2 U2 } .
U1 + U2 = {u
Este conjunto e um sub-espaco vectorial de V .
Alem disso, e o menor, no sentido da inclusao, sub-espaco de V que contem U1 , U2 .
Demonstrac
ao. O conjunto U1 + U2 e um sub-espaco de V pois considerando u , v U1 + U2 existem
u1 + v 1 ) + (u
u2 + v 2 ) com
u 1 , v 1 U1 e u 2 , v 2 U2 tais que u = u 1 + u 2 e v = v 1 + v 2 . Assim, u + v = (u
u 1 + v 1 U1 (pois U1 e sub-espaco vectorial) e u 2 + v 2 U2 (pois U2 e sub-espaco vectorial); logo
u + v U1 + U2 . Mais ainda, sendo um escalar, temos u = u 1 + u 2 U1 + U2 (isto porque
u1 U1 , pois U1 e sub-espaco vectorial, e u2 U2 , pois U2 e sub-espaco vectorial).
Analisemos agora a u
ltima afirmacao. Todo o vector u 1 U1 esta em U1 + U2 , pois como o vector
nulo esta em U2 , temos que u 1 = u 1 + 0 U1 + U2 ; logo U1 U1 + U2 . Analogamente conclumos que
U2 U1 + U2 . Ja so falta mostrar que
se U for um sub-espaco de V com U1 U e U2 U , entao U1 + U2 U .
De facto, sendo u U1 + U2 , existem u 1 U1 e u 2 U2 tais que u = u 1 + u 2 ; mas por hipotese
U1 , U2 U , pelo que u U .
c.q.d.
y
Resoluc
ao do problema 101. Os conjuntos M = { (1, 1),
figura ao lado).
u R2 : u M ou u N }; o primeiro e o subM N = {u
-espaco nulo e o segundo nao e sub-espaco, pois o vector soma
-1
-1
Gr
aficos de M e de N
34
Algebra
Linear e Geometria Analtica
Note que o sub-espaco U1 = L({(1, 0, 0, 0), (0, 1, 0, 0)}) e tambem U2 = L({(0, 1, 0, 0), (0, 0, 1, 0)}) ;
mais ainda U1 + U2 = L({(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}) e U1 U2 = L({(0, 1, 0, 0)}) .
Definic
ao. Sejam U1 , U2 , sub-espacos vectoriais de um mesmo espaco vectorial V . Dizemos que a
soma dos sub-espaco U1 , U2 e directa, e escrevemos U1 U2 se todo o vector de U1 U2 admitir uma
u
nica representacao com soma de vectores de U1 e de U2 , i.e. se u 1 + u 2 = v 1 + v 2 , com u 1 , v 1 U1 ,
u2 , v 2 U2 , entao u1 = v 1 e u2 = v 2 .
Caracterizac
ao. Sejam U1 , U2 , sub-espacos vectoriais de um mesmo espaco vectorial V . A soma
U1 + U2 e directa se, e somente se, u 1 + u 2 = 0 , com u 1 U1 , u 2 U2 , entao u 1 = u 2 = 0 .
Demonstrac
ao. A implicacao directa e imediata, pois se todo o elemento de U1 U2 tem uma representacao u
nica como soma de um elemento de U1 com um de U2 , em particular tal e verdadeiro para
o vector nulo (que esta obviamente em U1 U2 ).
Para analisar a implicacao recproca, basta supor que u 1 + u 2 = v 1 + v 2 , para algum u 1 , v 1 U1 , e
u1 v 1 ) + (u
u2 v 2 ) = 0 ; mas, por hipotese, a u
u 2 , v 2 U2 ; entao (u
nica representacao do vector nulo
como soma de vectores de U1 e U2 e como soma de vectores nulos, temos que u 1 = v 1 e u 2 = v 2 . c.q.d.
Observac
ao. Pode ver-se a soma dos sub-espacos U1 , U2 e directa se, e somente se, U1 U2 = {00} .
u) = 0 e u U1 , u
u U2 , temos que
De facto, se u e um vector de U1 U2 , entao como u + (u
u = 0 ; pelo que U1 U2 = {00} .
u = u
u2 e como
Agora, se U1 U2 = {00} temos que u 1 + u 2 = 0 , com u 1 U1 , u 2 U2 , entao u 1 = u
u2 U2 , temos que u 1 , u 2 U1 U2 ; logo u 1 = u 2 = 0 , i.e. a u
u
nica representacao do vector nulo
como soma de um vector de U1 com um vector de U2 e 0 + 0 = 0 .
c.q.d.
35
Algebra
Linear e Geometria Analtica
24-10-2013 | T, TP.
Revisao sobre a materia dada.
Resoluc
ao do Problema 46. Sejam A, B matrizes invertveis; entao A1 (A + B) B 1 = (A1 A +
A1 B) B 1 = (I + A1 B) B 1 = I B 1 + A1 B B 1 = B 1 + A1 I = A1 + B 1 . Verifique tambem
que B 1 (A + B) A1 = A1 + B 1 .
Resoluc
ao do Problema 50. Sendo A uma matriz m n , entao B = AT A e uma matriz m m e
C = A AT e uma matriz n n . Para verificar que estes dois produtos de matrizes nao coincidem basta
tomar A uma qualquer matriz rectangular. Verifiquemos que os produtos de matrizes dados definem
uma matriz simetrica, i.e. B T = B e C T = C . De facto, B T = (AT A)T = AT (AT )T = AT A = B e
C T = (A AT )T = (AT )T AT = A AT = C .
Resoluc
ao do Problema 63.
36
Algebra
Linear e Geometria Analtica
det(A) = (1)n det A . Sabemos tambem que det(A B) = det A det B , pelo que det(A2 ) = (det A)2 ,
det(Ek,l () A) = det(Ek,l ()) det A = det A , e det(Pk,l A) = det Pk,l det A = det A .
Resoluc
ao do Problema 95. Se A = AT , entao det A = (1)n det A (ver problema anterior, tendo
em atencao que det A = det AT ). Entao, (1 (1)n ) det A = 0 , pelo que se n e mpar, conclumos que
det A = 0 . Caso n seja par nada se pode concluir.
Resoluc
ao do Problema 37. Tendo em atencao o produto de matrizes apresentadoh na pagina i4
deste texto, temos que, sendo A uma matriz m n definida por colunas, i.e. A = c 1 c n ,
h
iT
h
iT
com c j = a1,j am,j , j = 1, . . . , n e v = v1 vn , entao A v = v1 c 1 + + vn c n . Da
h
i
h
iT
mesma forma se ve que sendo B = d 1 d n , com d j = b1,j bm,j , j = 1, . . . , n , se tem
B v = v1 d 1 + + vn d n .
Por hipotese sabemos que A v = B v , v Rn . Em particular, esta identidade verifica-se para
h
iT
v = ` j com ` j = 0 0 1 0 0 , j = 1, . . . , n .
j
Assim, A ` j = B ` j , para j = 1, . . . , n e equivalente a c j = d j para j = 1, . . . , n , i.e. para A = B .
w = A v , v R} e
Resoluc
ao do Problema 112. Sendo A uma matriz m n o conjunto U = {w
um sub-espaco vectorial de Rm , que designaremos por espaco das colunas de A . De facto, como ficou
expresso no problema anterior w e combinacao linear das colunas de A , logo U = L({cc1 , . . . , c n }) , onde
c j e, para cada j = 1, . . . , n , a coluna j de A .
Resoluc
ao do Problema 111. O vector (1, 1, , ) pertence ao sub-espaco gerado pelos vectores
(1, 0, 2, 1), (1, 1, 2, 2) se existirem escalares , tais que (1, 1, , ) = (1, 0, 2, 1) + (1, 1, 2, 2) , i.e.
se o sistema de equacoes lineares + = 1 , = 1 , 2 + 2 = , + 2 = . Das primeiras duas
equacoes obtemos = 2 , = 1 ; pelo que = 2 , = 0 .
Resoluc
ao do Problema 119. Basta determinar R tal que a u
nica combinacao linear nula
dos vectores (1, 2, 5, 8) , (1, 1, 1, 5) , (1, 2, 11, ) , e a que tem todos os escalares iguais a zero, i.e.
(1, 2, 5, 8)+ (1, 1, 1, 5)+ (1, 2, 11, ) = (0, 0, 0, 0) somente se, = = = 0 . Ve-se facilmente
que o sistema dado e equivalente a ( + , + 4, 0, ( 44)) = (0, 0, 0, 0) , que tem uma u
nica
solucao, (, , ) = (0, 0, 0) , se, e somente se, 6= 44 ; logo {(1, 2, 5, 8), (1, 1, 1, 5), (1, 2, 11, )} e,
para 6= 44 , um conjunto de vectores linearmente independente.
29-10-2013 | T.
Realizacao da primeira Frequencia.
"
#
1
1 2
2
3
1
37
Algebra
Linear e Geometria Analtica
a) Ordene as matrizes de forma que o produto das tres matrizes esteja definido e calcule-o.
b) Analise se as matrizes B C e C B sao invertveis, e em caso afirmativo calcule a sua inversa.
c) Indique um sistema de equacoes lineares tendo C como matriz do sistema e A como solucao.
Indique a solucao geral desse sistema.
d) Seja S uma matriz simetrica 2 2 ; mostre, sem calcular o produto de matrizes, que B S B T e
co gerado pelos
# 1
4
1 2 "
2 3 1
Resoluc
ao do Problema 1. a) B C A =
2 1 1 1 1 1 = 3 .
1
5
1 3
"
#
0 5 1
e C B = 7 2 . Agora det(B
B C ) = 0 e det(C
C B) = 4 ,
b) Calculemos B C =
5
5
3
2 0
"
#
1 6 2
0
1/2
C B )1 =
pelo que B C nao e invertvel e C B e; alem disso, (C
.
1/2 7/4
h
iT
h
iT
: C x = d e o sistema
c) Ve-se facilmente que C A = 2 1 = d , pelo que x = x1 x2 x3
procurado. A solucao geral do sistema vem dada por x = A + x 0 , R onde x 0 : C x 0 = 0 . Pode
verificar-se que C tem caracterstica 2, e variavel livre x3 , pelo que tomando x3 = 1 em C x 0 = 0 ,
h
iT
obtemos x2 = 1/5 e x1 = 4/5 , logo x 0 = 4/5 1/5 1 .
T
B S B T )T = (B
B T )T S T B T e como S T = S temos que
B S B T )T = B S B
d) (B
(B
.
1
0
0
1 4
2
Resoluc
ao do Problema 2. a) A = L U onde L = 1
1
0 e U = 0 3
3
.
1 (1 + )/3 1
0 0 2
b) Sabemos que esta decomposicao e u
nica se A for invertvel, i.e. 6= 2 .
h
iT
c) Efectuando as operacoes indicadas na matriz L ao vector b obtemos e = 1 3 0 . Temos assim
que o sistema U x = e , equivalente ao inicial, e possvel e indeterminado (com variavel livre x3 ). Logo,
h
iT
tomando x3 = 0 no sistema completo, obtemos como solucao x p = 3 1 0 ; tomando x3 = 1 no
h
iT
sistema homogeneo, temos como solucao x 0 = 2 1 1 . Logo x = x p + x 0 , R .
d) O sub-espaco procurado e dado por
h
iT
h
iT
h
iT
U = { 1 1 1 + 4 1 5 + 2 1 3 , , , R} .
[email protected]
38
Algebra
Linear e Geometria Analtica
Trata-se pois do sub-espaco formado pelas combinacoes lineares dos vectores coluna da matriz A . Ash
iT
h
iT
h
iT
h
iT
sim, w = w1 w2 w3 U se , , R : w = 1 1 1 + 4 1 5 + 2 1 3 ;
h
iT
ou em notacao matricial A = w e um sistema possvel; aplicando operacoes elementares
h
i
por linhas sobre a matriz ampliada A w temos
1 4 2
1
4 2 w1
w1
w1
1 4 2
1 1 1 w2 `1 + `2 0 3 3 w2 + w1
.
0 3 3
w2 + w1
1
5 3 w3
0 1 1 w3 w1
0 0 0 (3w3 4w1 w2 )/3
`1 + `3
`2 /3 + `3
h
iT
Obtemos assim que U = { w1 w2 w3 R3 : w2 = 4w1 + 3w3 } .
31-10-2013 | T.
Propriedades da dependencia e independencia linear de um conjunto de vectores. Teorema fundamental da independencia linear. Definicao de base de um espaco vectorial de tipo finito.
Consideraco
es sobre a depend
encia e independ
encia linear de um conjunto de vectores.
Um conjunto de vectores que contenha o vector nulo e linearmente dependente.
u} com u 6= 0 e linearmente independente. Alem disso, um conjunto de dois
O conjunto singular {u
vectores e linearmente dependente se, e somente se, um deles for um m
ultiplo do outro.
Se um conjunto de vectores e linearmente dependente, entao o mesmo acontece a um conjunto de
vectores que o contenha.
Se um conjunto de vectores e linearmente independente, entao o mesmo acontece a um seu sub-conjunto.
Propriedades da depend
encia e independ
encia linear. Os vectores aqui considerados pertencem
todos a um mesmo espaco vectorial V .
u1 , . . . , u p } , e linearmente dependente se, e somente se, algum
1. Um conjunto de vectores, S = {u
uj } .
dos vectores de S , u j , depende linearmente dos demais vectores de S , i.e. de S \ {u
2. Se um vector w e combinacao linear dos vectores u 1 , . . . , u p e estes sao combinacao linear dos
vectores v 1 , . . . , v q , entao w e combinacao linear dos vectores v 1 , . . . , v q .
3. Dois conjuntos de vectores sao equivalentes se, e somente se, todo o vector de um dos conjuntos
e combinacao linear dos vectores do outro, e reciprocamente.
4. Se S e um conjunto de vectores linearmente independente e v e um vector que nao e combinacao
linear dos vectores de S , entao o conjunto S {vv } e linearmente independente.
Demonstrac
ao. Vamos fazer somente a demonstracao de 1 e de 4, pois 3 e uma consequencia directa da
definicao de conjuntos equivalente de vectores e da propriedade 2 (cf. aula T | 22-10-2013). Por outro
lado 2 e um lema tecnico, que voltaremos a aplicar ao longo do curso. De facto, seja w for um vector do
u1 , . . . , u p }) , i.e. existem escalares 1 , . . . , p tais que w = 1 u 1 + + p u p . Agora,
sub-espaco L({u
[email protected]
39
Algebra
Linear e Geometria Analtica
w = 1 (11 v 1 + + q1 v q ) + + p (1p v 1 + + qp v q ) ;
e, portanto, w e uma combinacao linear dos vectores v 1 , . . . , v p , i.e. w L({vv 1 , . . . , v q }) . Mais ainda,
p
q
X
X
j v j , com j =
k jk , j = 1, . . . , q .
w=
j=1
k=1
Para demonstrarmos 1 comecemos por analisar a implicacao directa: supomos que o conjunto S =
u1 , . . . , u p } e linearmente dependente, i.e. existem escalares 1 , . . . , p nao todos nulos (i.e. j 6= 0
{u
para algum j {1, . . . , p}) tais que 1 u 1 + + p u p = 0 . Podemos supor, sem perda de generalidade,
s.p.g., que 1 6= 0 o que nos permite escrever u 1 = 2 /1 u 2 p /1 u p ; logo um dos vectores
de S depende linearmente dos demais.
Reciprocamente, se um dos vectores de S , que podemos considerar s.p.g. u1 depende linearmente dos
demais, i.e. existem escalares 2 , . . . , p tais que u1 = 2 u 2 + + p u p ; e, portanto,
u1 + 2 u 2 + + p u p = 0 ,
u
que e uma combinacao linear nula de vectores de S , com coeficientes nao todos nulos, i.e. o conjunto
de vectores S e linearmente dependente.
u1 , . . . , u p } e considere-se uma combinacao linear nula de elementos
Analisemos agora 4. Seja S = {u
u} , i.e. 1 u 1 + + p u p + u = 0 . Se 6= 0 , teramos u = 1 / u 1 p / u p ,
de S {u
o que e falso pois por hipotese u nao depende linearmente dos vectores de S . Conclumos assim
que = 0 . A combinacao linear nula considerada toma a forma 1 u 1 + + p u p = 0 , o que implica
que 1 = = p = 0 (pois o conjunto de vectores S e linearmente independente).
c.q.d.
c.q.d.
Definic
ao. Um espaco vectorial, V , sobre K, e dito finito, se tem um conjunto finito de vectores
u1 , . . . , u p } tal que V = L(S) .
geradores de V , i.e. se em V existe um conjunto de vectores S = {u
[email protected]
40
Algebra
Linear e Geometria Analtica
Se V e de tipo finito, dizemos que um conjunto de vectores B = {ff 1 , . . . , f n } e uma base de V se, B e
um conjunto gerador de V linearmente independente.
Teorema de caracterizac
ao de base. Num espaco vectorial de tipo finito, V , um conjunto de vectores, B = {ff 1 , . . . , f n } , e uma base de V se, e somente se, todo o vector u de V admitir uma u
nica
representacao como combinacao linear dos vectores de B .
Demonstrac
ao. Como B e um conjunto gerador do espaco vectorial V , um vector v V admite uma
representacao como combinacao linear dos vectores de B . Vamos supor que admite mais do que uma
tal representacao, i.e. existem escalares j e j tais que
v = 1 f 1 + + n f n e v = 1 f 1 + + n f n ; logo, (1 1 )ff 1 + + (n n )ff n = 0
e como B e um conjunto de vectores linearmente independente temos que j = j , j = 1, . . . , n .
Vejamos agora que se tem o recproco, i.e. suponhamos que todo o vector de V admite uma representacao
u
nica como combinacao linear de vectores de B e provemos que entao B e um conjunto de vectores
linearmente independente. De facto, como 0 V temos que este vector admite representacao u
nca
como combinacao linear dos vectores de B (que e obviamente a combinacao linear dos vectores de B
com escalares todos nulos), pelo que B e um conjunto de vectores linearmente independente.
c.q.d.
Exemplos.
1. O conjunto de vectores {ee1 , . . . , e n } com
e 1 = (1, 0, . . . , 0) , e 2 = (0, 1, 0, . . . , 0) , . . . , e n = (0, . . . , 0, 1) ,
formam uma base de Kn , designada por base canonica de Kn .
2. O conjunto das matrizes Ei,j com i = 1, . . . , m e j = 1, . . . , n , onde Ei,j e a matriz m n com
todos os elementos iguais a 0 com excepcao do que se encontra posicao i, j que vale 1, e a base
canonica de Mm,n .
3. O conjunto B = {1, x, . . . , xn } e a base canonica do espaco vectorial dos polinomios de grau
menor do que ou igual a n, Pn [x] .
31-10-2013 | TP.
Resolucao dos problemas 104, 122, 123 e 138 do caderno de exerccios.
Resoluc
ao do problema 104. Sendo A e B matrizes reais m n e p m , respectivamente; os
x Rn : A x = 0 } e
espacos nulos de A e de B A sao, respectivamente N(A) = {x
x
N(B A) = {x
c.q.d.
41
Algebra
Linear e Geometria Analtica
Resoluc
ao do problema 122. Seja {vv 1 , . . . , v p } um conjunto de vectores linearmente independente,
i.e. 1 v 1 + + p v p = 0 se, e somente se, 1 = = n = 0 .
v1 , . . . , v p } e ainda linearmente independente,
Entao, tomando 0 6= K o conjunto de vectores {
pois 1 ( v 1 ) + + p v p = (1 ) v 1 + + p v p , e a condicao 1 = 0 e equivalente a 1 = 0 .
Para K , o conjunto de vectores {vv 1 + v 2 , v 2 . . . , v p } e linearmente independente. De facto,
1 (vv 1 + v 2 ) + 2 v 2 + + p v p = 1 v 1 + (1 + 2 )vv 2 + p v p , e esta combinacao linear de
vectores e nula se, e somente se,
1 = 0 = 3 = = p = 0 e 1 + 2 = 0 , i.e. para 1 = 0 = 2 = = p .
Resoluc
ao do problema 123. Ve-se facilmente que F = L({(2, 1, 0), (1, 0, 1)}) , logo trata-se de
um sub-espaco vectorial de R3 . Como o conjunto de vectores que gera F e linearmente independente,
e uma base de F e, portanto, dim F = 2 .
h
i
Resoluc
ao do problema 138. Considere-se a matriz A = c 1 c n definida por colunas e tambem
h
i
a matriz AT = ` T1 ` Tm definita por linhas. Sejam ainda, car A = r e car AT = r0 e mostremos
que r = r0 . Se car AT = r0 , sabemos existir um subconjunto de r0 vectores de {``T1 , . . . , ` Tm } linearmente
independente. Alterando a ordem dos vectores neste conjunto, podemos supor s.p.g. que os primeiros r0
vectores formam um conjunto linearmente independente e os demais vectores sao combinacao linear
r0
X
j
destes, i.e. existem escalares k tais que ` Tj =
kj ` k , j = r0 + 1, . . . , m , ou ainda, para j =
k=1
r0 + 1, . . . , m , aj,s =
r0
X
kj ak,s , s = 1, . . . , n .
k=1
k=1
#
1 0 1
0 1 0
h
iT
L({ 1 0 1 }) , enquanto que N(AT ) = {00} . Logo,
dim N(A) = nul A 6= nul AT = dim N(AT ) .
05-11-2013 | T.
Aplicacoes das nocoes de base e dimensao de um espaco vetorial. Mudanca de base num espaco
vetorial. Matriz de mudanca de base. Aplicacoes.
[email protected]
42
Algebra
Linear e Geometria Analtica
Exist
encia de bases. Todo o conjunto de vectores gerador de um espaco vectorial de tipo finito,
V 6= {00} contem uma base de V . Logo, todo o espaco vectorial de tipo finito tem uma base.
Ideia da demonstrac
ao. Basta notar que se T for um conjunto gerador de V , entao se for linearmente
independente e uma base de V e o teorema fica provado. Em caso contrario, existe um vector v de T que
e combinacao linear dos restantes vectores de T . Retiramo-lo de T e voltamos a analisar a independencia
linear do conjunto de vectores T \{vv } . Se T \{vv } for um conjunto de vectores linearmente independente
o processo termina, pois T \ {vv } e uma base de V , caso contrario continuamos com o processo descrito.
Este processo termina ao fim de um n
umero finito de passos, pois no pior dos casos conclumos que V
e gerado por um so vector nao nulo de T .
c.q.d.
Teorema da dimens
ao. Toda a base de um espaco vectorial de tipo finito, V 6= {00} , tem o mesmo
n
umero de vectores. A este n
umero designamos por dimensao do espaco vectorial V e denotamo-lo por
dim V . Convencionamos ainda que o espaco vectorial nulo, V = {00} tem dimensao zero. (A partir de
agora os espacos vectoriais de tipo finito serao designados por espacos vectoriais de dimensao finita.)
Demonstrac
ao. Temos somente que provar que qualquer se sejam as bases B e B 0 de V , o seu cardinal
coincide. Suponhamos que o cardinal de B e B 0 e igual a m e n , respectivamente; entao, como B e
um conjunto de vectores que gera V e B 0 e um conjunto de vectores linearmente independente em V
temos que m n . Por outro lado sabemos tambem que B e um conjunto de vectores linearmente
independente em V e B 0 e um conjunto de vectores que gera V pelo que n m . Logo m = n . c.q.d.
Consequ
encias. A dimensao de um espaco vectorial, V , e o n
umero maximo de vectores de V que
formam um conjunto linearmente independente; e tambem e o n
umero mnimo de vectores de V que
formam um conjunto gerador de V .
Teorema de completac
ao da base. Seja V e um espaco vectorial de dimensao finita n. Se S =
u1 , . . . , u p } e um conjunto de vectores linearmente independente com p < n ; entao existe um conjun{u
to S 0 de n p vectores de V linearmente independente tal que S S 0 e uma base de V .
Mais ainda, os vectores de S 0 podem tomar-se dentre os elementos de uma base qualquer de V .
Ideia da demonstrac
ao. Basta analisar que pelo menos um dos vectores de uma base B de V , que
denotamos por v , nao e combinacao linear dos vectores de S (pois, caso contrario, S sera uma base
de V !). Completamos S com esse vector e analisamos se existe algum vector B \ {vv } que e combinacao
linear dos vectores de S {vv } , recomecando assim o processo que nos leva a` construcao de uma base a
partir de um conjunto de vectores linearmente independente.
c.q.d.
43
Algebra
Linear e Geometria Analtica
Alem disso, c pode ser escolhido de entre os vectores da base canonica de R3 , i.e. {ee1 = (1, 0, 0), e 2 =
(0, 1, 0), e 3 = (0, 0, 1)} . Ve-se facilmente que e 1 = a + b , pelo que nao podemos tomar o vector e 1 para
completar a base; no entanto, {aa, b , e 2 } e um conjunto de vectores linearmente independente, pelo que
este conjunto de vectores pode ser tomado como base de R3 .
Teorema da dimens
ao de um sub-espaco. Se U e um sub-espaco vectorial de um espaco vectorial V
de dimensao finita, entao U tem dimensao finita e tem-se dim U dim V . Mais ainda, dim U = dim V
somente se U = V .
Demonstrac
ao. Se U = {00} o resultado e evidente. Suponhamos entao que existe 0 6= u U .
Em U existem conjuntos de vectores linearmente independentes com cardinal m n (note-se que
estes conjuntos sao linearmente independentes em V ). Se m for o cardinal do maior conjunto de
vectores linearmente independente em U , temos que dim U = m , pelo que dim U dim V . Agora
dim U = dim V se, e somente se, U contem um conjunto de n vectores linearmente independente, que
sera por isso uma base de V , logo U = V .
Definic
ao. Sejam V um espaco vectorial sobre K de dimensao finita, B = {ff 1 , . . . , f n } uma base
de V e v um qualquer vector de V . Dizemos que v tem coordenas (1 , . . . , n ) na base B de V se
v = 1 f 1 + + n f n .
u1 = (1, 0, 0), u 2 = (1, 1, 0), u 3 = (1, 1, 1)} , e linearmente indepenExemplo. O conjunto de vectores {u
u1 , u 2 , u 3 } e uma base de R3 . Nesta base as coordenadas do vector
dente em R3 e dim R3 = 3 , logo {u
(x, y, z) sao (x y, y z, z) , pois (x, y, z) = (x y) u 1 + (y z) u 2 + z u 3 .
Teorema de mudanca de base. Sejam V um espaco vectorial sobre K de dimensao n , B =
{ff 1 , . . . , f n } uma base de V , e x = (x1 , . . . , xn ) as coordenadas do vector v V na base B . Considere-se ainda uma base B 0 = {gg 1 , . . . , g n } de V e x 0 = (x01 , . . . , x0n ) as coordenadas do vector v na base B 0 .
Se g1 = 11 f 1 + + n1 f n , . . ., gn = 1n f1 + + nn f n , entao x 0 e a solucao do sistema de equacoes
11 1n
.
..
.
lineares A x 0 = x com A =
.
.
. A matriz A e designada por matriz de mudanca de coorn1 nn
denadas da base B para a base B 0 . A matriz A e invertvel e a sua inversa e a matriz de mudanca de
coordenadas da base B 0 para a base B .
Ideia da Demonstrac
ao. Basta aplicar a propriedade 2 da dependencia e independencia linear. De
n
X
0
0
0
0
x0j g j ; e
facto, como x = (x1 , . . . , xn ) sao as coordenadas do vector v na base B temos que v =
j=1
n
X
j=1
x0j
n
X
k=1
!
kj f k
n
n
X
X
k=1
!
kj x0j f k . Como dos dados do
j=1
44
Algebra
Linear e Geometria Analtica
teorema temos que v =
n
X
k=1
n
X
kj x0j , k = 1, . . . , n .
c.q.d.
j=1
1 3 0
x1
x
x1
5 3
6
2 7 2 y1 = y , ou equivalentemente, y1 = 2 1
0 1
1
z1
z
z1
2 1 1
0
0
Assim, (x, y, z) = (5 x + 3 y + 6 z) e 1 + (2 x + y + 2 z) e 2 + (2 x y z) e 03 .
x
y .
z
Exerccio. Considere o espaco vectorial das matrizes 2 2 com escalares reais, i.e. M2,2 (R) , e o
conjunto "S = {E
#
#
"
# 1 , E2 , E"3 , E4 }# , com "
1 0
1 1
0 1
0 0
.
E4 =
, E3 =
, E2 =
E1 =
1 0
0 0
0 1
0 1
Mostre que S e uma base de M2,2 (R) e determine as coordenadas na base S de uma matriz generica
M M2,2 (R) .
07-11-2013 | T.
Isomorfismo entre um espaco vectorial de dimensao finita n , V , e o espaco vectorial Kn . Analise
da independencia linear de um conjunto de vectores de V a partir dos vectores coordenadas em Kn .
Aplicacoes.
Definic
ao (Identificac
ao de um espaco vectorial de dimens
ao finita). Sejam V um espaco
vectorial sobre K de dimensao n e B = {ff 1 , . . . , f n } uma base de V . A transformacao coor : V Kn
que a cada vector v V faz corresponder o vector das coordenadas de v na base B de V , i.e. se
v = 1 f 1 + + n f n , entao coor(vv ) = (1 , . . . , n ) , e tal que, para todo o u , v V e K se tem
u) , i.e. a transformacao coor e linear.
coor(vv + u ) = coor(vv ) + coor(u
Alem disso, a transformacao inversa de coor e tambem linear e bijectiva, pelo que dizemos que coor e
um isomorfismo (isoigual; morfoforma) de V em Kn .
Algumas consideraco
es. Da definicao de funcao coor temos que se coor(vv ) = (1 , . . . , n ) entao
v = 1 f 1 + + n f n , e tambem que se coor(u
u) = (1 , . . . , n ) entao u = 1 f 1 + + n f n . Assim,
[email protected]
45
Algebra
Linear e Geometria Analtica
v + u =
n
X
j f j +
j=1
n
X
n
X
k f k =
(j + j ) f j ;
k=1
j=1
Acabamos de mostrar que entre os vectores de S existem as mesmas relacoes de dependencia e independencia linear que entre os vectores de S , pelo que dim L(S) = dim L(S ) .
c.q.d.
Exemplo. No espaco vectorial das matrizes 23 com escalares reais, M2,3 (R) considere o conjunto S =
"
#
"
#
"
#
"
#
1 0 0
2 1 0
3 1 2
0 3 2
{M1 , M2 , M3 , M4 } onde M1 =
, M2 =
, M3 =
, M4 =
.
2 1 1
3 0 1
4 2 0
0 3 3
Como dim M2,3 (R) = 6 estabelecemos um isomorfismo entre M2,3 (R) , considerado com a base canonica,
"
#
"
#
"
#
"
#
1 0 0
0 1 0
0 0 1
0 0 0
, E2 =
, E3 =
, E4 =
,
i.e. {E1 , E2 , E3 , E4 , E5 , E6 } , com E1 =
0 0 0
0 0 0
0 0 0
1 0 0
"
#
"
#
0 0 0
0 0 0
E5 =
, E6 =
, e R6 de forma que
0 1 0
0 0 1
coor(M1 ) = (1, 0, 0, 2, 1, 1) , coor(M2 ) = (2, 1, 0, 3, 0, 1) , coor(M3 ) = (3, 1, 2, 4, 2, 0) , coor(M4 ) =
(0, 3, 2, 0, 3, 3) .
Tendo em atencao u
ltimo teorema vemos que
dim L(S) = dim L({coor(M1 ), coor(M2 ), coor(M3 ), coor(M4 )})
[email protected]
46
Algebra
Linear e Geometria Analtica
1
2 3
0 1 1
0
0 2
= car
3 4
2
1
0 2
1 1 0
1 2
3
0
0
operacoes
3
3
0 1 1
elementares
0 0
2
2
2
car
=
0
0 0 3 3
por
0 0 3 3
3
linhas
0 0
6
6
3
Donde se conclui que o sub-espaco linear de M2,3 (R) gerado pelas matrizes {M1 , M2 , M3 , M4 } , L(S) ,
tem dimensao tres, e tambem que uma sua base e dada por {M1 , M2 , M3 } . Verifique (exerccio) que
uma
" qualquer matriz de L(S) tem a forma
x1
x2
x3
2 x1 + x2 3 x3 /2 x1 + 2 x2 3 x3 /2 x1 3 x2 + 3 x3
#
, x1 , x2 , x3 R .
1 1
1 0 0 2
1 1
operacoes elementares
0 1 0 3
0 1
0
1
car
=
2 0
0 0 2 3 3 6
por linhas
0 3 2 0 3 3
0 0 2 3 3 6
(cf. problema 123 resolvido na aula T | 31-10-203) concluindo assim que a dimensao de L(S) e 3 ; no
Observac
ao. Para a analise da dimensao
1 0 0 2
2 1 0 3
matriz transposta, i.e. car
3 1 2 4
07-11-2013 | TP.
Resolucao dos problemas 135, 139 e 142 do caderno de exerccios. Formula de Grassman sobre as
dimensoes de sub-espacos F , G , F + G , F G de um mesmo espaco vectorial.
Problema. Seja P4 [x] o espaco vectorial dos polinomios de coeficientes reais de grau menor do que,
ou igual a 4. Considere o conjunto S = {pp1 , p 2 , p 3 } P4 [x] , com p 1 (x) = 3 2 x + x2 + 4 x3 + x4 ,
p2 (x) = 4 x + x2 + 6 x3 2 x4 e p3 (x) = 7 8 x + 3 x2 + x3 + x4 , onde , sao n
umeros reais
fixos. Determinar , de forma que L(S) , i.e. o sub-espaco vectorial gerado por S , tenha dimensao 2. Identifique explicitamente L(S) , indique uma base (diferente de {pp1 , p 2 }) para este sub-espaco,
e expresse os vectores p 1 , p 2 , p 3 nessa base.
Resoluc
ao. O espaco vectorial dos polinomios com coeficientes reais P4 [x] tem dimensao cinco, logo e
ismorfo a R5 . Considerando o isomrfismo relativamente a` base canonica de P4 [x] , i.e. {1, x, x2 , x3 , x4 } ,
[email protected]
47
Algebra
Linear e Geometria Analtica
0 1 2
2 1 8 elementares
car
= car 1
0 0
0 .
=
1
3
0 0 8
por
4
6
0 0 9
linhas
1 2
Assim, dim L(S) = 2 se, e somente se, = 8 e = 9 ; alem disso {pp1 , p 2 } e uma base de L(S) .
Para encontrar outra base de L(S) basta considerar diferentes combinacoes lineares de p 1 , p 2 (diferentes da combinacao linear nula) das quais resultem polinomios nao proporcionais, como por exemplo
{pp1 , pp1 + p 2 } {pp1 , p 4 = 1 + x + 2 x3 3 x4 } . Nesta base os polinomios p 1 , p 2 tem coordendas (1, 0)
e (1, 1) , i.e. p 1 = p 1 + 0 p 4 e p 2 = p 1 + p 4 .
Como exerccio determine explicitamente L(S) quando = 8 e = 9 , e tambem quando = 9 e
= 7 , indicando em cada um dos casos um conjunto gerador natural diferente de S para L(S) .
h
i
Resoluc
ao do problema 135. A matriz A1 = 1 0 1 nao cumpre o pretendido, pois ainda que
"
#
h
iT
h
iT h
iT
1 0 1
A1 1 0 1 = 0 , o N(A) = L({ 1 0 1 , 0 1 0 }). Ja A2 =
e uma matriz nas
1 1 1
#
"
1 0 1
tem como sub-espaco nulo associado
condicoes do problema. Por exemplo a matriz A3 =
1 0 1
h
iT h
iT
h
iT
x R3 : A3 x = 0 } = L({ 1 0 1 , 0 1 0 }) 6= L({ 1 0 1 }) ; logo nao esta nas
N(A3 ) = {x
condicoes do problema.
F
ormula de Grassman. Sejam U1 e U2 sub-espacos de um mesmo espaco vectorial V de dimensao
finita; entao, dim U1 + dim U2 = dim(U1 + U2 ) + dim(U1 U2 ) .
Demonstrac
ao. Seja B0 = {ee1 , e 2 , . . . , e m } uma base de U1 U2 . Pelo teorema da completacao da
base, podemos completar B0 por forma a obter uma base de U1 , B1 = B0 {ff 1 , . . . , f r } bem como
de U2 , B2 = B0 {gg 1 , . . . , g s } . Vejamos agora que B1 B2 = B0 {ff 1 , . . . , f r } {gg 1 , . . . , g s } e uma
base de U1 + U2 . Vemos facilmente que e um conjunto gerador, pois todo o vector u de U1 + U2 se
pode representar na forma u 1 + u 2 com u 1 U1 e u 2 U2 . Como B1 e B2 sao bases de U1 e U1 ,
respectivamente temos o pretendido. Analisemos agora que e um conjunto linearmente independente.
Para tal considere-se uma combinacao linear do vector nulo por vectores do conjunto B1 B2 , i.e.
m
r
m
r
s
X
X
X
X
X
j e j +
k f k que pertence ao espaco
j e j +
k f k +
i g i = 0 . Designando w =
j=1
k=1
i=1
j=1
k=1
48
Algebra
Linear e Geometria Analtica
gerado por B1 , i.e. U1 , vemos que w =
i=1
Logo w U1 U2 , e portanto e combinacao linear de vectores de B0 , i.e. existem escalares j tais que
m
m
s
X
X
X
w=
l e l ; assim,
l e l +
i g i = 0 ,
l=1
l=1
i=1
i=1
1 = = m = 0 , bem como 1 = = r = 0 .
Desta forma fica provado que
(m + r) + (m + s) = dim U1 + dim U2 = dim(U1 + U2 ) + dim(U1 U2 ) = (m + r + s) + m .
c.q.d.
Resoluc
ao do problema 139. Pode ver-se que F = L({(1, 0, 1, 0), (0, 1, 0, 2)}) (justifique que este conjunto gerador e linearmente independente) e sabe-se que G = L({(1, 0, 1, 0), (0, 2, 0, 1), (1, 2, 1, 1)}) .
Por outro lado (1, 2, 1, 1) = (1, 0, 1, 0) + (0, 2, 0, 1) , pelo que G = L({(1, 0, 1, 0), (0, 2, 0, 1)}) (justifique que este conjunto gerador e linearmente independente). Assim, dim F = 2 e dim G = 2 . Para
determinar F G basta ver que o conjunto de vectores {(1, 0, 1, 0), (0, 2, 0, 1), (0, 1, 0, 2)} , que e dado
pela caractarstica da matriz
1 0 0
1 0 0
operacoes elementares
0 2 1
0 2 1
= 3.
car
car =
=
0 0 3/2
1 0 0
por linhas
0 0 0
0 1 2
Logo F G = L({(1, 0, 1, 0)}) e tambem F + G = L({(1, 0, 1, 0), (0, 2, 0, 1), (0, 1, 0, 2)}) .
Como exerccio identifique estes sub-espacos vectoriais de R4 .
Resoluc
ao do problema 142. A alnea b) e uma consequencia directa do problema 104 e do teorema
da dimensao de um sub-espaco (cf. aula T | 5-11-2013).
Para a alnea
h a) e c) basta ter em atencao que
i
B A = combinacao linear dos vectores coluna de B
e tambem
..
.
,
BA=
combina
c
a
o
linear
dos
vectores
linha
de
A
..
.
o resultado do problema 138 resolvido na aula TP | 31-10-2013, a definicao de caractrstica de uma
matriz e a sua relacao com a dimensao do espaco vectorial gerado pelas colunas dessa matriz.
Exerccios.
1. Seja P2 [x] o espaco vectorial dos polinomios de grau menor do que ou igual a 2 . O conjunto
S = {pp0 , p 1p 2 } , com p 0 = 1 , p 1 = x 1 e p 2 = (x 1)2 e uma base de P2 [x] . Determine as
[email protected]
49
Algebra
Linear e Geometria Analtica
12-11-2013 | T.
Transformacoes lineares. Consideracoes sobre a nocao e exemplos.
Definic
ao. Sejam V , W dois espacos vectoriais sobre K e T : V W . Dizemos que T e uma
w) .
transformacao linear se para todo o v , w V , e K se tem T( v + w ) = T(vv ) + T(w
w ) = T(vv )+T(w
w ) , v , w V , e K e equivalente
Observac
ao. Obviamente que a condicao T( v +w
w ) , T( v ) = T(vv ) , v , w V .
a T(vv + w ) = T(vv ) + T(w
Exemplos.
1. A transformacao f : R3 R2 defnida por f(x, y, z) = (2x y + 4z, 3x + 5y + 6z) e linear do
espaco vectorial R3 no espaco vectorial R2 (verifique). Mais geralmente, a transformacao g : Rn
n
n
X
X
m
1
R definida por g(x1 , . . . , xn ) = (
aj x j , . . . ,
am
e uma transformacao linear do espaco
j xj )
j=1
j=1
n
X
j=1
a1j xj , . . . ,
n
X
j=1
am
j xj ) + (
j=1
n
X
j=1
a1j yj , . . . ,
j=1
n
X
v ) + g(w
w) .
am
j yj ) = g(v
j=1
2. Seja C (R) e o espaco vectorial das funcoes reais de variavel real, infinitamente diferenciaveis. Entao,
D : C (R) C(R) definida por D(f ) = f 0 e uma transformacao linear entre os espacos vectoriais
C (R) e R ; de facto, basta notar que ( f + g)0 = f 0 + g 0 , f, g C (R) e R .
3. Seja C([0, 1]) o espaco vectorial das funcoes reais
Z 1de variavel real, contnuas em [0, 1] . A transformacao I : C([0, 1]) R definida por I(f ) =
f (t) dt e linear do espaco do espaco vectorial
0
50
Algebra
Linear e Geometria Analtica
Z
f (t) dt +
4. Temos ainda as transformacoes lineares que podemos denominar de triviais, i.e. O : V W com
O(vv ) = 0 e a id : V V com id(vv ) = v , que designaremos por transformacao nula e identidade,
respectivamente.
Propriedades. Seja T : V W uma transformacao linear estre os espaco vectoriais sobre K , V e W .
Entao tem-se:
p
p
X
X
j T(vv j ) , v j V , j K , j = 1, . . . , p . Em particular, T(00) = 0 e tambem
j v j ) =
1. T(
j=1
j=1
T(vv ) = T (vv ) , v V .
2. Se {vv 1 , . . . , v p } e um conjunto linearmente dependente de vectores de V entao {T(vv 1 ), . . . , T(vv p )}
e um conjunto linearmente dependente de vectores de W .
3. Se R : W U e uma transformacao linear e U um espaco vectorial sobre K , entao R T : V U
e uma transformacao linear entre os espacos vectoriais V e U .
Demonstrac
ao. A aplicacao reiterada da definicao demonstra a afirmacao 1. Por outro lado, tomando
os j s todos igual a 0 prova que T(00) = 0 . Mais ainda, tomando 1 = 1 e os demais j s iguais a 0
da-nos T(vv ) = T(vv ) .
Para provar 2 basta notar que se {vv 1 , . . . , v p } V e um conjunto linearmente dependente de vectores,
entao existem escalares, nao todos nulos, j s em K tais que 1 v 1 + +p v p = 0 ; e portanto, de 1 temos
1 T(vv 1 ) + + p T(vv p ) = 0 , que e uma combinacao linear nula dos vectores T(vv 1 ), . . . , T(vv p ) com
escalares nao todos nulos, i.e. {T(vv 1 ), . . . , T(vv p )} e um conjunto linearmente dependente de vectores
em W .
Ja 3 e uma consequencia directa de
R T( v + w ) = R(T( v + w ))
e linear
R
e linear
w ))
w ))
=
R( T(vv ) + T(w
=
R(T(vv )) + R(T(w
w) .
= R T(vv ) + R T(w
Exemplo. Considere a transformacao linear T : R3 R2 definida por T(x, y, z) = (x, y) . Vemos que
u, v } , dados por u = (1, 0, 0) e v = (0, 1, 0) , e linearmente independente e tambem
conjunto de vectores {u
u), T(vv )} e um conjun to de vectores linearmente independente, pois T(u
u) = (1, 0) e
se tem que {T(u
T(vv ) = (0, 1) . No entanto o conjunto de vectores linearmente independente {aa, b } , dados por a =
(1, 0, 1) , b = (2, 0, 0) , mas {T(aa), T(bb)} e linearmente dependente, pois T(aa) = (1, 0) e T(bb) = (2, 0) .
Vemos assim que a independencia linear nao se conserva por aplicacao de transformacoes lineares.
14-11-2013 | T.
Sub-espacos Imagem e N
ucleo de uma transformacao linear. Determinacao de uma transformacao
linear. Exemplos.
[email protected]
51
Algebra
Linear e Geometria Analtica
Teorema. Seja T : V W uma transformacao linear entre espacos vectoriais sobre K . Entao:
1. O conjunto imagem T(V) e um sub-espaco vectorial de W que se designa por espaco imagem
de T e denota-se por Im(T) .
u1 , . . . , u p } e um conjunto gerador de V , entao {T(u
u1 ), . . . , T(u
up )} e um conjunto gerador
2. Se {u
de Im(T) .
u V : T(u
u) = 0 } e um sub-espaco vectorial de V que designamos por
3. O conjunto T1 ({00}) = {u
n
ucleo da transformacao linear T ou sub-espaco nulo de T , e denotamos por N(T) .
4. Se o espaco vectorial V tem dimensao finita tem-se dim N(T) + dim Im(T) = dim V .
Demonstrac
ao. Verifiquemos que Im(T) e um sub-espaco vectorial de W . De facto, considerando
arbitrario em K e w 1 , w 2 dois quaiquer vectores de Im(T) , i.e. existem v 1 , v 2 W tais que w 1 = T(vv 1 )
e w 2 = T(vv 2 ) . Entao, aplicando a linearidade da transformacao T, temos w 1 + w 2 = T( v 1 + v 2 ) , e
como V e um espaco vectorial sobre K , v 1 + v 2 V , pelo que w 1 + w 2 W .
u1 , . . . , u p } , i.e.
Para provar 2 considere-se v V escrito como combinacao linear dos vectores de {u
u1 ) + + p T(u
up ) .
v = 1 u 1 + + p u p . Da linearidade de T temos que T(vv ) = 1 T(u
Sejam agora u 1 , u 2 dois quaisquer vectores de N(T) e um qualquer escalar, entao da linearidade
u1 ) + T(u
u2 ) = 0 + 0 = 0 ; e, portanto, u 1 + u 2 N(T) , i.e. 3 fica
de T temos T( u 1 + u 2 ) = T(u
provado.
Para demonstrar 4 e como V tem dimensao finita, conclumos que N(T) tambem e de dimensao finita. Seja B = {ff 1 , . . . , f p } uma base de N(T) . Sabemos (do teorema da completacao da base)
que podemos completar a base B com um conjunto S = {gg 1 , . . . , g q } de vectores de forma que
B S seja uma base de V . Agora, como B S e um conjunto gerador de V , temos por 2 que
{T(ff 1 ), . . . , T(ff p ), T(gg 1 ), . . . , T(gg q )} e um conjunto gerador de Im(T) . Mas como T(ff j ) = 0 , j =
1, . . . , p , {T(gg 1 ), . . . , T(gg q )} e um conjunto gerador de Im(T) . Analisemos a independencia linear deste
conjunto de vectores, i.e. considere-se a combinacao linear nula 1 T(gg 1 )+ +q T(gg q ) = 0 para alguns
escalares 1 , . . . , q . Da linearidade de T temos T(1 g 1 + +q g q ) = 0 , logo 1 g 1 + +q g q N(T)
pelo que 1 g 1 + + q g q e combinacao linear dos vectores de B , i.e. existem escalares 1 , . . . p tais
que 1 g 1 + + q g q = 1 f 1 + + p f p ; e, portanto, 1 f 1 p f p + 1 g 1 + + q g q = 0 ,
e como B S e uma base de V temos que j = 0 , j = 1, . . . , q (e tambem k = 0 , k = 1, . . . , p ). Conclumos assim que {T(gg 1 ), . . . , T(gg q )} e um conjunto de vectores linearmente independente, e portanto
uma base de Im(T) , i.e. dim N(T) + dim Im(T) = p + q = dim V .
c.q.d.
Exemplos.
1. Sejam P3 [x] e F(R, R) os espacos vectoriais dos polinomios de grau menor do que ou igual a 3,
e das funcoes reais de variavel real sobre R , respectivamente. Considere-se a transformacao linear
T : P3 [x] F(R, R) definida por T(p) = p0 (x) , i.e. T(a + b x + c x2 + d x3 ) = b + 2c x + 3d x2 . Vemos
assim que o sub-espaco imagem de T e P2 [x] , i.e., e espaco vectorial dos polinomios de graus menor do
[email protected]
52
Algebra
Linear e Geometria Analtica
que ou igual a 2 ; o n
ucleo de T e constitudo pelos polinomios de grau 0 , i.e. N(T) = L({1}) . Como
exerccio verifique que se tem a alnea 4 do u
ltimo teorema (i.e. faca a analise das dimensoes destes
sub-espacos).
2. Seja T : R3 R4 a transformacao linear definida por T(x, y, z) = (x + z, y z, x + y, x y + 2z) .
Como {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e um conjunto gerador de R3 , {T(1, 0, 0), T(0, 1, 0), T(0, 0, 1)} e um
conjunto gerador de Im(T) , i.e. {(1, 0, 1, 1), (0, 1, 1, 1), (1, 1, 0, 2)} e um conjunto gerador de Im(T) ;
e como (1, 1, 0, 2) = (1, 0, 1, 1) (0, 1, 1, 1) , conclumos que
Im(T) = L({(1, 0, 1, 1), (0, 1, 1, 1)}) (= {(x, y, z, w) R4 : z = x + y , w = x y} confirmar)
e que dim Im(T) = 2 .
O n
ucleo de T e dado por
N(T) = {(x, y, z) R3 : x + z = y z = x + y = x y + 2z = 0} = {(x, y, z) R3 : y = x = z} ,
i.e. N(T) = L({(1, 1, 1)}) , pelo que dim N(T) + dim Im(T) = dim R3 .
Determinac
ao de uma transformac
ao linear. Sejam V e W dois espacos vectoriais sobre K . Se
w 1 , . . . , w n } e um qualquer conjunto de vectores de W ,
B = {ff 1 , . . . , f n } e uma base de V e S = {w
entao existe uma u
nica transformacao linear T : V W tal que T(ff 1 ) = w 1 , . . . , T(ff n ) = w n .
Demonstrac
ao. Seja x um qualquer vector de V , de coordenadas (x1 , . . . , xn ) na base B de V , i.e.
x = x1 f 1 + + xn f n . Entao da linearidade de T tem-se
x) = T(x1 f 1 + + xn f n ) = x1 T(ff 1 ) + + xn T(ff n ) = x1 w 1 + + xn w n .
T(x
Desta forma se ve que a existir uma transformacao linear nas condicoes do enunciado tera de ser a que
acabamos de indicar. Vejamos entao que a transformacao linear assim definida e linear. Para tal basta
considerar dois quaisquer vectores x , x 0 V de coordenadas (x1 , . . . , xn ) e (x01 , . . . , x0n ) , respectivamente,
e K , entao
w 1 + + ( xn + x0n )w
w n = (x1 w 1 + + xn w n ) + (x01 w 1 + + x0n w n )
T( x + x 0 ) = ( x1 + x01 )w
x) + T(x
x0 ) .
= T(x
c.q.d.
53
Algebra
Linear e Geometria Analtica
toma
" a forma
3 + + 2
0 0
, i.e. = + 2 , = 2 , = 0 , logo = = = 0 .
=
0 0
2 5 3 4 + 5 + 4
Assim dim Im(T) = 3 e do ponto 4 teorema anterior tiramos que dim N(T) = 0 , i.e. N(T) = {00} , pois
dim R3 = 3 .
"
a1,1 a1,2
a2,1 a2,2
#
M2,2 (R) : 28 a2,2 = 45 a1,1 + 25 a1,2 24 a2,1 } .
14-11-2013 | TP.
Matriz de uma transformacao linear. Interpretacao dos sub-espacos imagem e n
ucleo de uma
transformacao linear a partir da matriz da transformacao linear. Exemplos.
Definic
ao. Uma transformacao linear, T : V W , entre espacos vectoriais sobre K diz-se sobrejectiva
se Im(T) = W .
Injectividade de uma transformac
ao linear. Seja T : V W uma transformacao linear entre
espacos vectoriais sobre K ; entao, T e injectiva se, e somente se, N(T) = {00} .
u) = 0 , como sabemos que T(00) = 0 ,
Demonstrac
ao. Se T e injectiva se existir u V tal que T(u
temos que u = 0 . Conclumos assim que caso T seja linear e injectiva se tem que N(T) = {00} . Vejamos
agora que, se T e linear e N(T) = {00} , entao T e injectiva. De facto, se u , w sao dois vectores de V
u) = T(w
w ) , entao da linearidade de T , temos T(u
u w ) = 0 , e da hipotese sobre o n
tais que T(u
ucleo
conclumos que u = w , i.e. T e injectiva.
c.q.d.
Observac
ao. Uma transformacao linear T : V W entre espacos vectoriais sobre K e injectiva se,
e somente se, dado um qualquer conjunto de vectores em V linearmente independente o conjunto de
vectores imagem por T desses vectores, e linearmente independente em W, i.e. para todo o conjunto de
vectores {vv 1 , . . . , v n } V linearmente independente se tem que {T(vv 1 ), . . . , T(vv n )} W e linearmente
independente.
Exemplo. A transformacao linear T : R3 R4 definida por T(x, y, z) = (x, x + y, y + z, x + y + z) e
injectiva, pois
N(T) = {(x, y, z) R3 : x = x + y = y + z = x + y + z = 0} = {(x, y, z) R3 : x = y = z = 0} .
Pode ainda verificar-se (cf. exerccio) que se tem a u
ltima caracterizacao; por exemplo, partindo da
base canonica de R3 , {(1, 0, 0), (0, 1, 0), (0, 0, 1)} , entao {T(1, 0, 0), T(0, 1, 0), T(0, 0, 1)} e um conjunto
linearmente independente de R4 .
Matriz de uma transformac
ao linear. Sejam V e W espacos vectoriais de dimensao finita sobre K .
Sejam ainda as bases B = {ff 1 , . . . , f n } e S = {gg 1 , . . . , g m } de V e W , respectivamente. Se T : V W e
m
X
x)
ajk g k , j = 1, . . . , n , entao as coordenadas do vector y = T(x
a transformacao linear tal que T(ff j ) =
k=1
54
Algebra
Linear e Geometria Analtica
Licenciaturas em Fsica e Engenharia Fsica
a11 an1
x1
a11 an1
.
..
..
... , x V ; e a matriz A = ...
..
na base S e dado por
.
.
, e designada por
a1m anm
xn
a1m anm
matriz da transformacao linear T relativamente `as bases B e S de V e W , respectivamente.
Demonstrac
ao. Como T e linear e tendo em atencao que as coordenadas do vector x na base B e
(x1 , . . . , xn ) , temos
n
n
n
m
n X
m
m X
n
X
X
X
X
X
X
j
j
x) = T(
y = T(x
xj f j ) =
xj T(ff j ) =
xj
ak g k =
x j ak g k =
(
xj ajk )gg k ;
j=1
assim, y =
m
X
yk g k com yk =
k=1
j=1
n
X
j=1
k=1
j=1 k=1
k=1 j=1
ajk xj , k = 1, . . . , m .
c.q.d.
j=1
3
5
2
3
2 3
2 4 1
2 6 5
0
e A =
,
A=
1
1
6
1
2
7
1 2 3
1 3 5
pois o vector (1, 0, 0) pertence a` base canonica de R3 e a` base B , T(0, 1, 0) = T(1, 1, 0) T(1, 0, 0) =
(2, 6, 2, 3) e T(0, 0, 1) = T(1, 1, 1) T(1, 1, 0) = (3, 5, 7, 5) . Podemos ainda determinar a expressao analtica da transformacao linear T , i.e. T(x, y, z) = (3x + 2y 3z, 2x 6y + 5z, x + 2y
7z, x 3y + 5z) , (x, y, z) R3 . O espaco Im(T) = L{T(1, 0, 0), T(0, 1, 0), T(0, 0, 1)} = {A0x , x R3 } .
Pode ver-se que car A0 = 3 e, portanto, dim Im(T) = 3 , logo dim N(T) = 0 , i.e. N = {00} .
Problema. Determinar os sub-espacos n
ucleo e imagem da transformacao linear T : R4 R3 tal que
T(1, 0, 0, 0) = (1, 1, 2) , T(0, 1, 0, 0) = (2, 1, 1) , T(0, 0, 1, 0) = (4, 1, 5) , T(0, 0, 0, 1) = (1, 5, 4) .
Indicar ainda uma base para cada um dos sub-espacos determinados.
Resoluc
ao. A expressao analtica da transformacao linear e
T(x, y, z, w) = x T(1, 0, 0, 0) + y T(0, 1, 0, 0) + z T(0, 0, 1, 0) + w T(0, 0, 0, 1)
= (x + 2y + 4z w,
5z
+ 4w)
x + y z 5w,
2x + y +
1 2 4 1
x
= A x com A =
1 1 1 5 e x = y .
2 1 5
4
z
[email protected]
55
Algebra
Linear e Geometria Analtica
19-11-2013 | T.
Matrizes associadas a uma mesma transformacao linear. Matrizes equivalentes. Resolucao do
problema 153 do caderno de exerccios.
Teorema. Seja T : V W uma transformacao linear entre espacos vectoriais de dimensao finita, n e
m , respectivamente, sobre K . Seja A a matriz da transformacao linear T relativamente `as bases B
de V e S de W . Se P e Q sao as matrizes de mudanca de base, respectivamente da base B para
a base B 0 de V e da base S para a base S 0 de W , entao a matriz A0 = Q1 A P e a matriz que
representa T relativamente a`s bases B 0 de V e S 0 de W .
As matrizes m n, A e A0 dizem-se equivalentes se existem matrizes invertveis P Mn,n e Q Mm,m
tais que A0 = Q1 A P .
Demonstrac
ao. Sejam (x1 , . . . , xn ) as coordenadas de x V na base B , e (y1 , . . . , ym ) as coordenadas
h
iT
h
iT
x) na base S , i.e. y1 ym = A x1 xn . Sejam ainda (x01 , . . . , x0n ) as
do vector y = T(x
0
x) na base S 0 , i.e.
coordenadas de x V na base B 0 , e (y10 , . . . , ym
) as coordenadas do vector y = T(x
iT
iT
h
h
0
= A0 x01 x0n . Da hipotese sabemos que
y10 ym
h
iT
h
iT
h
iT
h
iT
0
e y1 ym = Q y10 ym
; e, portanto,
x1 xn = P x01 x0n
h
iT
h
iT
h
iT
h
iT
0
0
Q y10 ym
= A P x01 x0n , i.e. y10 ym
= Q1 A P x01 x0n .
c.q.d.
Exemplo. Retomando o problema* da aula anterior, vemos que as matrizes A e A0 sao equivamentes;
de facto,
P = 0
0
3
1 1
e a matriz de mudanca da base {ee1 , e 2 , e 3 } para {(1, 0, 0), (1, 1, 0), (1, 1, 1)} em R .
0 1
56
Algebra
Linear e Geometria Analtica
{(1, 3, 0), (1, 0, 2), (0, 4, 2)} e {(2, 1), (4, 3)} de R3 e R2 , respectivamente. Como (1, 3, 0) = e 1 + 3ee2 ,
(1, 0, 2) = e 1 + 2ee3 , (0, 4,
2) = 4ee2 2ee3 , (2, 1) = 2ff 1 + f 2 e (4, 3) = 4ff 1 + 3ff 2 , as matrizes de
#
#
"
"
1 1 0
4
6
3
2
4
1
1
0
0 0 0
P =
1 1 0 e a matriz de mudanca da base {aa, b , c } para a base {aa , b , c } ; e Q = 2 1 e a matriz
0 1 1
de mudanca da base {(1, 0), (0, 1)} para a base" {(1, 2), (0, 1)} .#Pelo que a matriz que representa T nas
12
11
7
.
bases {aa0 , b 0 , c 0 } e {(1, 2), (0, 1)} e Q1 A P =
12 13 5
Como exerccio determine a matriz que representa a transformacao linear T relativamente a`s bases
canonicas de R3 e R2 . Note que deve comecar por representar os vectores da base canonica de R3
como combinacao linear dos vectores da base {aa, b , c } . Para tal pode provar que
(x, y, z) = (3x/2 y z/2) a + (x/2 y/2) b + (z + 3y 3x) c .
Agora pode calcular T(1, 0, 0) , T(0, 1, 0) e T(0, 0, 1) tendo em atencao que T(aa), T(bb), T(cc) sao dados.
Como processo alternativo, pode determinar a matriz de mudanca da base {aa, b , c } para a base canonica
de R3 , que denotamos por P 0 . Assim a matriz que representa a transformacao linear T relativamente
a`s bases canonicas de R3 e R2 vem dada por A(P 0 )1 .
21-11-2013 | T.
Produto interno em Rn . Distancia entre dois vectores, norma de um vector, angulo entre dois
vectores e projeccao de um vector sobre outro. Desigualdades fundamentais.
Definic
ao. Seja V um espaco vectorial sobre R . A aplicacao h.., .i : V V R diz-se um produto
interno ou um produto escalar se para todo o x , x 0 , y V e R se tem:
x, y i = hyy , x i ; (simetria)
1. hx
x, y i + hx
x0 , y i ; (linearidade na primeira componente)
2. h x + x 0 , y i = hx
x, x i > 0 , x 6= 0 ; (positividade).
3. hx
O espaco vectorial V sobre R com o produto interno h.., . i diz-se um espaco vectorial Euclidiano.
x, y i = xT y = x1 y1 + + xn yn , onde
Exemplos. A aplicacao h.., .i : Rn Rn R , definida por hx
x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) e um produto interno.
De facto, foi este exemplo que usamos como definicao de produto interno em Rn . Mostramos ainda que
esta aplicacao satisfaz as condicoes 1, 2, 3 da definicao de produto interno.
[email protected]
57
Algebra
Linear e Geometria Analtica
Observac
ao. Da simetria do produto interno temos a linearidade relativamente `a segunda componente,
x, y + y 0 i = hx
x, y i + hx
x, y 0 i . Mais ainda, hx
x, 0 i = 0 , e tambem, da simetria do produto interno,
i.e. hx
temos h00, x i = 0 , x V . Esta propriedade sai directamente da propriedade 2 de produto interno
x0 , y i = hx
x0 , y i + hx
x0 , y i =
aplicada aos vectores x , x 0 tais que x 0 = x ; de facto, h00, y i = h x , y i + hx
0 . A terceira condicao na definicao de produto interno pode ser enunciada de modo equivalente por
x, x i 0 , x V e hx
x, x i = 0 se, e somente se, x = 0 .
hx
Exemplo. No espaco vectorial real das funcZoes reais de variavel real contnuas em [0, 1] podemos definir
1
x21 + + x2n = 1 =
q
y12 + + yn2
58
Algebra
Linear e Geometria Analtica
c.q.d.
Definico
es. Sejam x , y dois vectores nao nulos do espaco vectorial Euclidiano V . O angulo entre os
x, y ) = + 2k , k Z , [0, ] , fica caracterizado pelo cos = hx
x, y i/(kx
xk kyy k) .
vectores x , y , (x
Sendo x 6= 0 , definimos projeccao ortogonal de y sobre x e denotamo-la por projx y como
x, y i/(kx
x k2 ) x .
projx y = hx
Observac
ao. Note-se que supondo x , y 6= 0 da desigualdade de Cauchy-Schwarz temos que
x, y i/(kx
xk kyy k) [1, 1] ,
hx
x, y i/(kx
xk kyy k) , i.e., hx
x, y i = kx
xk kyy k cos .
pelo que existe um e um so [0, ] tal que cos = hx
Dois vectores nao nulos, x , y , sao ortogonais se, e somente se, formam um angulo recto, pois nesse caso
x, y i = kx
xk kyy k cos = 0 .
cos = 0 , logo hx
[email protected]
59
Algebra
Linear e Geometria Analtica
21-11-2013 | TP.
Resolucao dos problemas 154, 155, 156, 158, 159, 165 e 172 do caderno de exerccios.
Resoluc
ao do problema 154. Comecemos por notar que a alnea a) foi ja analisada no seguimento
u, v i = 0 , v R , entao hu
u, e j i = 0 ,
da definicao de produto interno. A alnea b) sai do facto de que se hu
j = 1, . . . , n , onde {ee1 , . . . , e n } e a base canonica de Rn . Assim, obtemos que sao nulas as coordenadas
u, v i = hu
u0 , v i , v Rn e
de x na base canonca de Rn . Para analisar a alnea c) basta notar que hu
u u0 , v i = 0 , v Rn e da alnea b) temos que u = u0 .
equivalente a hu
c.q.d.
Resoluc
ao do problema 155. Sabemos por hipotese que hvv j , v l i = 0 , j 6= l {1, . . . , k} ; entao
hj v j , l v l i = j hvv j , l v l i = j l hvv j , v l i = 0 , j 6= l {1, . . . , k} .
c.q.d.
Resoluc
ao do problema 158. Os vectores u = (1, 2, 3) e v = (3, 0, 1) tem norma 14 e 10 , resu, v i = 3 + 3 = 0 . Assim, os vectores u /ku
uk = (1/14, 1/7, 3/14)
pectivamente, sao ortogonais, pois hu
e v /kvv k = (3/10, 0, 1/10) tem norma igual a 1 .
Resoluc
ao do problema 159. Os vectores y = (0, 2, 4, 1) e z = (3, 7, 3, 2) sao ortogonais pois
p
xk =
hyy , z i = 14 + 12 + 2 = 0 . Mais ainda kx
h(1, 2, 3, 5), (1, 2, 3, 5)i = 12 + 22 + 32 + 52 =
p
x, y ) = kx
x yk =
39 , kyy k =
(2)2 + 42 + 12 = 21 , kzz k = 32 + 72 + 32 + 22 = 71 ; d(x
p
12 + 42 + (1)2 + 42 = 34 .
u1 , . . . , u p } V , diz-se ortogonal se hu
ui , u j i = 0 , para i 6= j
Definic
ao. Um conjunto de vectores {u
T
u
u
u
hu
,
u
i
hu
,
u
i
1
1
1
n
1
h
iT
i
. h
..
..
T
j
j
.
.
onde u j = 1 n , j = 1, . . . , n = Q Q = . u 1 u n =
.
.
T
un , u 1 i hu
un , u n i
un
hu
[email protected]
60
Algebra
Linear e Geometria Analtica
p
p
x = xT x = kx
xk .
pois kQ xk = (Q x)T (Q x) = xT (QT Q)x
Teorema de Pit
agoras. Num espaco vectorial Euclidiano, dois vectores, x , y , sao ortogonais se, e
x + y k2 = kx
xk2 + kyy k2 .
somente se, kx
Demonstrac
ao. Comecemos por analisar
x + y k2 = hx
x + y , x + y i = hx
x, x i + 2 hx
x, y i + hyy , y i = kx
xk2 + 2 hx
x, y i + kyy k2 .
kx
x + y k2 = kx
xk2 + kyy k2 se, e somente se, x y .
Assim, temos a identidade kx
x y k2 , i.e.
Lei do paralelogramo. No seguimento do teorema de Pitagoras, calcule-se kx
x y k2 = hx
x y , x y i = hx
x, x i 2 hx
x, y i + hyy , y i = kx
xk2 2 hx
x, y i + kyy k2 .
kx
x + y k2 + kx
x y k2 = 2 kx
xk2 + 2 kyy k2 . (identidade do paralelogramo)
Assim, kx
26-11-2013 | T.
Processo de ortogonalizacao de Gram-Schmidt. Decomposicao Q R de uma matriz. Projeccao
ortogonal de um vector sobre um subespaco. Resolucao de problemas do caderno de exerccios.
u1 , . . . , up } e um conjunto de vectores nao nulos de um espaco vectorial Euclidiano, V
Teorema. Se {u
(ou um conjunto orto-normal de de vectores), entao e linearmente independente.
u1 , . . . , u p } , i.e.
Demonstrac
ao. Analisemos a combinacao linear nula dos vectores {u
1 u 1 + + p u p = 0 .
Multiplicando escalarmente por u j , para j = 1, . . . , p temos
u1 , u j i + + j hu
uj , u j i + + p hu
up , u j i = 0 ,
1 hu
uj , uj i = 0 , i.e. j = 0 , j = 1, . . . , p .
e da ortogonalidade conclumos que j hu
c.q.d.
61
Algebra
Linear e Geometria Analtica
Demonstrac
ao. A demonstracao vai ser feita por inducao. Para n = 1 a propriedade e trivialu1 }) = L({ee1 }) . Suponhamos que a propriedade e verdadeira para p , i.e.
mente verdadeira, pois L({u
u1 , . . . , u p }) = L({ee1 , . . . , e p }) e {ee1 , . . . , e p } e um conjunto ortogonal de vectores, e mostremos que
L({u
o vector e p definido pelo algoritmo e ortogonal a L({ee1 , . . . , e p }) , i.e. L({ee1 , . . . , e p }) e um conjunto
u1 , . . . , u p , u p+1 }) = L({ee1 , . . . , e p , e p+1 }) . Analise da ortogonalidade:
ortogonal de vectores, e L({u
up+1 , e j i jp+1 heej , e j i
up+1 , e j i h1p+1 e 1 + + pp+1 e p , e j i = hu
heep+1 , e j i = hu
up+1 , e j i hu
up+1 , e j i heej , e j i/(keej k2 ) = 0 , j = 1, . . . , p .
= hu
u1 , . . . , u p , u p+1 }) e L({ee1 , . . . , e p , e p+1 })
Por definicao de e p+1 vemos que os sub-espacos vectoriais L({u
coincidem.
c.q.d.
Resoluc
ao do problema 175. Ve-se facilmente que (0, 3, 3, 7) = 2 (1, 1, 1, 2) + (2, 1, 5, 11) e
como nao existe R tal que (1, 1, 1, 2) = (2, 1, 5, 11) , pelo que {(1, 1, 1, 2), (2, 1, 5, 11)}
e uma base de L({(1, 1, 1, 2), (2, 1, 5, 11), (0, 3, 3, 7)}) (que e, por isto, um sub-espaco vectorial
de R4 de dimensao 2). Aplicando o processo de ortogonalizacao de Gram-Schmidt obtemos como
base ortogonal {ff 1 , f 2 } com f 1 = (1, 1, 1, 2) e f 2 = (2, 1, 5, 11) h(2, 1, 5, 11), f 1 i f 1 /(kff 1 k2 ) =
(2, 1, 5, 11)+4 f 1 = (2, 5, 1, 3) . Assim, {(1, 1, 1, 2), (2, 5, 1, 3)} e uma base ortogonal do sub-espaco
dado.
Teorema de completac
ao de bases ortogonais. Se V e um espaco vectorial Euclidiano de dimensao
u1 , . . . , u p } e um conjunto ortogonal de vectores nao nulos em V , com p < n , entao
finita, n e B = {u
up+1 , . . . , u n } de n p vectores em V , tal que B B 0 e uma base ortogonal
existe um conjunto, B 0 = {u
de V .
Ideia da demonstrac
ao. Pelo teorema da completacao da base dado na aula T | 5-11-2013 existe
um vector e V tal que B {ee} e um conjunto linearmente independente de vectores em V . Entao o
u1 , . . . , u p , u p+1 } e ortogona, onde
conjunto de vectores {u
uj k2 ) , j = 1, . . . , p
u p+1 = e (1 u 1 + + p u p ) , com j = hee, u j i/(ku
(note-se que e foi definido a partir do algoritmo de Gram-Schmidt). Repetindo este processo n p
vezes obtemos uma base ortogonal de V .
c.q.d.
Factorizac
ao Q R de uma matriz. Se A Mn,k (R) tem caracterstica k , entao A pode representar-se na forma Q R onde R Mk,k (R) e uma matriz triangular superior e Q Mn.k (R) e tal que
QT Q = Ik .
Demonstrac
ao. Este resultado e a reescrita matricial do processo de orto-normalizacao de Gram-Schmidt, considerando os vectores intervenientes representados pelo vector coluna da coordenadas na
base canonica de Rn , i.e. u j = (uj1 , . . . , ujn ) e e j = (ej1 , . . . , ejn ) , = 1, . . . , k . De facto, reescrevendo
matricialmente o algoritmo de Gram-Schmidt, i.e.
j
u j = 1j e 1 + + j1
e j1 + e j , k = 1, . . . , j 1 , j = 1, . . . , n , temos
62
Algebra
Linear e Geometria Analtica
1 12 1k
h
i h
i 0 1 k
h
i
2
=
;
pelo
que
tomando
A
=
u1 u2 uk
e1 e2 ek . . .
u1 uk ,
. . ...
.. ..
0 0 1
i
h
i
h
Q = e 1 e 2 e k diag{1/kee1 k, 1/kee2 k, . . . , 1/keek k} = e 1 /kee1 k e 2 /kee2 k e k /keek k e
1 12 1k
kee1 k 12 kee1 k 1k kee1 k
0 1 k 0
kee2 k 2k kee2 k
2
0
0
keek k
0 0 1
h
il=1,...,k h il=1,...,k
se tem a decomposicao procurada, A = Q R , pois QT Q = heej /keej k, e l /keel ki
= j,l
= Ik
j=1,...,k
j=1,...,k
c.q.d.
Coordenadas numa base ortogonal. Seja V um espaco vectorial Euclidiano de dimensao finita,
com base orto-nornal {ee1 , . . . , e n } . Entao, as coordenadas de um qualquer vector x V , i.e. x =
x, e j i , j = 1, . . . , n ; e, portanto, x = hx
x, e 1 i e 1 + + hx
x, e n i e n , ou ainda
(x1 , . . . , xn ) e dado por xj = hx
xk((cos 1 ) e 1 + + (cos n ) e n ) , onde (x
x, e j ) = j , j = 1, . . . , n .
x = kx
Demonstrac
ao. Como {ee1 , . . . , e n } e uma base orto-normal de V , existem escalares j R tais que
x = 1 e1 + + n en . Multiplicando escalarmente por ej a alterior identidade obtemos,
x, e j i = 1 hee1 , e j i + + n heen , e j i = j heej , e j i = j , j = 1, . . . , n .
hx
x, e j i = kx
xk keej k cos (x
x, e j ) = kx
xk cos (x
x, e j ) , j = 1, . . . , n .
Mais ainda, hx
c.q.d.
Resoluc
ao do problema 166. No anterior teorema, se a base considerada for somente ortogonal,
entao
x, e 1 i e 1 /(kee1 k2 ) + + hx
x, e n i e n /(keen k2 ) , i.e. x = proje 1 x + + proje n x ,
x = hx
ou ainda,
xk = (cos 1 ) e 1 /kee1 k + + (cos n ) e n /keen k ,
x /kx
x, e j ) = j , j = 1, . . . , n . Assim, o vector coordanadas de x /kx
xk na base orto-normal,
onde (x
{ee1 /kee1 k, . . . , e n /keen k} , e dado por (cos 1 , . . . , cos n ) , onde cos j , j = 1, . . . , n sao designados por
co-senos directores de x . Alem disso, como, x , tem norma 1 ,
cos2 1 + + cos2 n = 1 .
Exemplo. As coordenadas de um qualquer vector, x de
L({(1, 1, 1, 2), (2, 1, 5, 11), (0, 3, 3, 7)}) = L({(1, 1, 1, 2), (2, 1, 5, 11)}) ,
i.e. (, ) onde x = (1, 1, 1, 2) + (2, 1, 5, 11) , descrito na base ortogonal, {ff 1 , f 2 } , f 1 =
(1, 1, 1, 2) e f 2 = (2, 5, 1, 3) , determinada no exerccio 175 e dado por ( 4, ) , i.e.
( 2, + , + 5, 2 + 11) = ( 4) f 1 + f 2 .
[email protected]
63
Algebra
Linear e Geometria Analtica
De facto, basta ter em atencao que aplicando o proceso de ortogonalizacao de Gram-Schmidt ao conjunto de vectores {(1, 1, 1, 2), (2, 1, 5, 11)} , obtemos {ff 1 , f 2 } com (2, 1, 5, 11) = f 2 4 f 1 ; logo
(1, 1, 1, 2) + (2, 1, 5, 11) = ( 4) f 1 + f 2 . (Confira, como exerccio, que
h (1, 1, 1, 2) + (2, 1, 5, 11), f 1 i/(kff 1 k2 ) = 4
e tambem h (1, 1, 1, 2) + (2, 1, 5, 11), f 2 i/(kff 2 k2 ) = .)
Definic
ao. Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco e x V . Dizemos que
x U := projU x e o vector projeccao ortogonal de x sobre U se x U U e x x U e ortogonal a todo o
vector de U .
Teorema de caracterizac
ao. Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco e x V .
Um vector x U e a projeccao ortogonal de x sobre U se, e somente se, x U e o vector de U mais proximo
de x no sentido da distancia definida em termos do produto interno em V , i.e.
x xU k := min{dist(x
x, u) , u U} = min{kx
x uk , u U} .
kx
Ideia da demonstrac
ao. Sejam x um vector dado em V e u um qualquer vector de U . Tome-se,
u = (x
x x
xU ) + (x
xU u
u) , pelo que kx
x u
uk2 = kx
x x
xU k2 + kx
xU u
uk2 (pois, por definicao de projeccao
x u
x x U e ortogonal a todo o vector de U e x U u U , e portanto, estamos nas condicoes do teorema
x x U k kx
x u k , u U; com identidade se, e somente se, u = x U .
de Pitagoras). Assim, kx
c.q.d.
28-11-2013 | T.
Metodo dos mnimos quadrados. Resolucao do problema 178 do caderno de exerccios.
Teorema (coeficientes de Fourier). Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco
u1 , . . . , u p } e uma base ortogonal de U ,
e x um vector dado em V . Se U tem dimensao finita e B = {u
entao a projeccao ortogonal de x sobre U expressa-se na base B de U , como
x, u j i/(ku
uj k2 ) , j = 1, . . . , p .
projU x = 1 u 1 + + p u p , com j = hx
Os escalares j designam-se por coeficientes de Fourier de x na base B .
Ideia da demonstrac
ao. Por definicao x projU x e ortogonal a todos os vectores de U , logo e
ortogonal a todos os vectores da base B de U , i.e.
x projU x , u j i = hx
x, u j i 1 hu
u1 , u j i j hu
uj , u j i p hu
up , u j i = hx
x, u j i j ku
uj k2
0 = hx
x, uj i/(ku
uj k2 ) j = 1, . . . , p .
pelo que, j = hx
c.q.d.
Resoluc
ao do problema 176. O conjunto de vectores {vv 1 , v 2 } com v 1 = (1, 0, 0) e v 2 = (1, 1, 0) e linearmente independente. Vamos ortogonaliza-lo pelo processo de ortogonalizacao de Gram-Schmidt, i.e.
u1 , u 2 } , com u 1 = v 1 e u 2 = v 2 hvv 2 , u 1 i u 1 /(ku
u1 k2 ) =
construmos um conjunto ortogonal de vectores {u
(1, 1, 0)(1, 0, 0) = (0, 1, 0) . Assim, a projeccao ortogonal de b = (1, 3, 2) sobre o sub-espaco gerado por
u1 , u 2 } e o vector (1, 3, 0) . De facto,
{vv 1 , v 2 } ou, o que e equivalente, sobre o sub-espaco gerado por {u
u1 k2 = 1 e 2 = h(1, 3, 2), u2 i/ku
u 2 k2 = 3 .
projL({vv 1 ,vv 2 }) (1, 3, 2) = 1 u1 + 2 u2 , com 1 = h(1, 3, 2), u1 i/ku
[email protected]
64
Algebra
Linear e Geometria Analtica
Interpretac
ao matricial do teorema anterior. Seja V um espaco vectorial Euclidiano de dimensao
finita, n . Assim podemos identificar os vectores de V com as correspondentes coordenadas numa determinada base de V . Fixada a base as identidades matriciais que escrevermos serao nela interpretadas.
Agora, da representacao do vector projeccao de x sobre um sub-espaco, U , de V e dada por
x, u 1 /ku
u1 ki u 1 /ku
u1 k + + hx
x
u
u
projU x = hx
i pk .
h , u p /ku p ki u p /ku
c.q.d.
Resoluc
ao do problema 178. Sabemos que o sub-espaco das colunas de A e o sub-espaco gerado
x, y } , com x = (1, 0, 1) e y = (0, 1, 2) , que tem dimensao dois pois nao existe R
pelos vectores {x
tal que x = y . Vamos determinar, usando o processo de ortogonalizacao de Gram-Schmidt, um
u, v } , com L({x
x, y }) = L({u
u, v }) , i.e.
conjunto ortogonal de vectores, {u
u = x e v = y hyy , uiu
u/(ku
uk2 ) = y u = (1, 1, 1) .
u/(ku
uk2 )+hbb, v ivv /(kvv k2 ) = 0 u +(4/3)vv = (4/3, 4/3, 4/3).
Agora, projC(A) b = proju b +projv b = hbb, u iu
Determinar, no sentido dos mnimos quadrados, a solucao de z R2 : A z = b e equivalente a determinar z R2 : A z = projC(A) b . Vemos assim que a solucao vem dada por z = (4/3, 4/3) .
28-11-2013 | TP.
Resolucao do problema 181 do caderno de exerccios. Complemento ortogonal de um sub-espaco
vectorial de dimensao finita. Aplicacoes.
Consideraco
es sobre os mnimos quadrados. Vemos do teorema de caracterizacao que x e solucao
no sentido dos mnimos quadrados de A x = b se, e somente se, A x for a projeccao ortogonal de b
sobre C(A) , i.e. b A x for ortogonal aos vectores de C(A) = {A y : y Rn } , ou ainda
[email protected]
65
Algebra
Linear e Geometria Analtica
Resoluc
ao do problema 181. O determinante da matriz A e zero, pois
(2, 4, 2) = 2 (0, 1, 1) + 2(1, 1, 0) ,
logo o conjunto de vectores que compoem as colunas de A , i.e. o conjunto de vectores
{(0, 1, 1), 2(1, 1, 0), (2, 4, 2)} e linearmente dependente.
Mais ainda, como nao existe R tal que (0, 1, 1) = (1, 1, 0) , temos que
C(A) = L({(0, 1, 1), (1, 1, 0)}) .
Determinemos uma base ortogonal para C(A) utilizando o processo de ortogonalizacao de Gram-Schmidt, i.e.
x = (0, 1, 1) e y = (1, 1, 0) projx (1, 1, 0) = (1, 1, 0) + (0, 1, 1)/2 = (1, 1/2, 1/2) ;
x, y } sao ortogonais e C(A) = L({x
x, y }) .
pelo que {x
x 4/3 y = (4/3, 1/3, 5/3) .
Assim, projC(A) (0, 1, 3) = projx (0, 1, 3) + projy (0, 1, 3) = x
A solucao, no sentido dos mnimos quadrados do sistema z R3 : A z = b , e a solucao do sistema
A z = projC(A) b , i.e. z = (5/3, 4/3, 0) + (2, 2, 1) , R .
Complemento ortogonal. Seja V um espaco vectorial Euclidiano. Dizemos que dois sub-espacos
de V sao ortogonais se, qualquer vector de um deles for ortogonal a todos os vectores do outro.
x V : hx
x, u i = 0, u U} e o maior sub-espaco
Dado um sub-espaco, U , de V ; o conjunto U = {x
de V que e ortogonal a U ; alem disso, U U = {00} .
Alem disso, se V tem dimensao finita entao U U = V .
Demonstrac
ao. Ve-se facilmente que U 6= pois 0 U . Considere-se agora x , y U e K ;
entao, por definicao de U e das propriedades de produto interno,
x, u i + hyy , u i = 0 + 0 = 0 , i.e. x + y U .
h x + y u i = hx
Conclumos assim, que U e um sub-espaco vectorial de U .
x, x i = 0 , pelo que x = 0 .
A intersecao dos sub-espacos U e U e {00} , pois se x U e x U entao hx
Como U e um sub-espaco vectorial de V que e um espaco vectorial Euclidiano de dimensao finita, n ,
entao existe uma base ortogonal de U , {ff 1 , . . . , f p } , com p < n . Pelo teorema da completude da base
[email protected]
66
Algebra
Linear e Geometria Analtica
ortogonal sabemos existir vectores f p+1 , . . . , f n U (pois estes vectores vao ser escolhidos dois a dois
ortogonais e ortogonais a todos os vectores do conjunto de partida) tais que {ff 1 , . . . , f p , f p+1 , . . . , f n }
e uma base ortogonal de V . Agora todo o vector v V se expressa na forma
v = u + u 0 , com u = 1 f 1 + + p f p U e u 0 = p+1 f p+1 + + n f n U ; logo, V = U + U ,
e como U U = {00} temos que V = U U .
Vejamos, independentemente, que {ff p+1 , . . . , f n } U e uma base ortogonal de U . De facto, se
tal nao se tivesse, existiria um verctor 0 6= f U ortogonal a todos os vectores de {ff p+1 , . . . , f n } ,
pelo que f teria de estar em U , pelo que f = 0 ! Assim, {ff p+1 , . . . , f n } e uma base ortogonal de U .
Exemplo. Em R4 (que e um espaco vectorial Euclidiano com o produto interno de dois vectores x , y
x, y i = x T y ) considere-se o sub-espaco de dimensao 2 ,
dado por hx
U = {(a, a, b, b) , a, b R} = L({(1, 1, 0, 0), (0, 0, 1, 1)}) (verificar); logo o sub-espaco
x : hx
x, (1, 1, 0, 0)i = 0 = hx
x, (0, 0, 1, 1)i} = {(x, y, z, w) R4 : x + y = 0 , z + w = 0}
U = {x
= L({(1, 1, 0, 0), (0, 0, 1, 1)}) .
Neste caso, temos dim U + dim U = 4 = dim R4 ; alem disso,
{(1, 1, 0, 0), (0, 0, 1, 1), (1, 1, 0, 0), (0, 0, 1, 1)} e uma base ortogonal de R4 .
Problema. Se U e um sub-espaco vectorial de um espaco vectorial Euclidiano, V de dimensao finita, n ,
entao (U ) = U .
Resoluc
ao. Sendo {ff 1 , . . . , f p } uma base ortogonal de U , podemos completa-la ate obtermos uma
base ortogonal para V , i.e. {ff 1 , . . . , f p , f p+1 , . . . , f n } , com U = L({ff p+1 , . . . , f n }) . Logo, (U ) =
L({ff 1 , . . . , f p }) = U .
03-12-2013 | T.
Valores e vectores proprios de transformacoes lineares entre um mesmo espaco vectorial.Valores e
vectores proprios de matrizes. Aplicacao a` diagonalizacao de matrizes.
Definic
ao. Sejam V 6= {00} um espaco vectorial sobre K e T : V V uma transformacao linear.
Dizemos que o escalar K e um valor proprio de T se existe um vector nao nulo, v V tal que
T(vv ) = v , i.e. se a transformacao linear T I nao e injectiva. Se e um valor proprio de T , os
vectores v tais que T(vv ) = v dizem-se proprios de T associados ao valor proprio . Estes vectores
(proprios) formam um sub-espaco, N() , que e o sub-espaco nulo ou n
ucleo da transformacao T I ,
i.e. N() = N(T I) = {vv V : T(vv ) = v } . Designamos N() como sub-espaco proprio de T
associado ao valor proprio .
Observaco
es.
1. Se na definicao de valor proprio, , nao se tivesse exigido a existencia de um vector nao nulo, v , tal
que T(vv ) = v , entao teramos que todo o escalar em K seria valor proprio, pois T(00) = 0 = 0 , K .
[email protected]
67
Algebra
Linear e Geometria Analtica
2. O escalar = 0 e valor proprio de T se, e somente se, T 0 I nao e injectiva, i.e. T nao e injectiva.
3. Uma transformacao linear, T , de um espaco vectorial, V , nele mesmo, nao tem de ter forcosamente
valores proprios; por exemplo a transformacao linear T : P P , definida por T(p) = x p(x) , nao
tem valores proprios; outro exemplo e dado pela transformacao linear T : R2 R2 , definida por
T(x, y) = (y, x) ; de facto, se R e valor proprio de T , existe (0, 0) 6= (x, y) tal que T(x, y) =
(y, x) = (x, y) , i.e. y = x e x = y , pelo que y = 2 y e y 6= 0 , logo 2 = 1 e nao existe
R que verifique esta condicao!
Definic
ao. Seja A uma matriz quadrada n n , com escalares em K . Dizemos que K e uma valor
pr
oprio de A se existe um vector nao nulo v Kn tal que A v = v . Se e um valor proprio de A ,
os vectores v Kn tais que A v = vv dizem-se proprios de A associados a . Os vectores proprios de
A , associados a cada valor proprio, , formam um sub-espaco de Kn que designaremos por sub-espaco
pr
oprio de A associado ao valor proprio , i.e. N() = N(A I) = {vv Kn : A v = v }.
Teorema. Sejam V um espaco vectorial de dimensao finita, n , sobre K , T : V V uma transformacao
linear e A a matriz que representa T nalguma base de V . Entao,
1. K e um valor proprio de T se, e somente se, K e um valor proprio de A , ou equivalentemente, K e tal que A I e uma matriz nao invertvel;
2. K e um valor proprio de T e v Kn um vector na base dada; entao, v e vector proprio
de T associado a se, e somente se, v e vector proprio de A associado a , ou equivalentemente,
(A I)vv = 0 ;
3. a dimensao do sub-espaco proprio de T associado a , dim N(T I) = n car(A I) .
Ideia da demonstrac
ao. Para provar 1 e 2 basta notar que a identidade T(vv ) = v se le em notacao
matrcial na base considerada como A v = v . Para analisar 3 basta ver que o sub-espaco proprio de
T associado a ,
N(T I) = {vv V : (A I)vv = 0 }
e o sub-espaco nulo de A , logo tem dimensao n car A .
c.q.d.
Exemplo. Considere a transformacao linear T : R3 R3 definida por T(x, y, z) = (3x, x+2y, 4x+2z) .
, i.e.
Resoluc
ao. A matriz que representa T relativamente a` base canonica de R3 e A =
1
2
0
4 0 2
x) = A x com x = (x, y, z) . Assim, os valores proprios de T sao os R tais que A I =
T(x
3
0
0
1
e nao invertvel, i.e = 2 (com multiplicidade 2) ou = 3 . Agora determine2
4
0
2
mos os espacos proprios associados aos valores proprios = 2 e = 3 ; para tal determinemos a solucao
[email protected]
68
Algebra
Linear e Geometria Analtica
1 0 0
0 0
0
A 2I =
1 0 0 e A 3 I = 1 1 0 , respectivamente.
4 0 0
4 0 1
Logo, N(2) = L({(0, 1, 0), (0, 0, 1)}) e N(3) = L({(1, 1, 4)}) .
Interpretac
ao matricial do exemplo. Acabamos de mostrar que
1
1 0 0
1 0 0 3 0 0
1 0 0 3 0 0 1 0 0
= 1 1 0 0 2 0 , ou ainda A = 1 1 0 0 2 0 1 1 0 .
A
1
1
0
4 0 1
4 0 1 0 0 2
4 0 1 0 0 2 4 0 1
Dizemos entao que a matriz A dada e diagonalizavel, i.e. existe uma matriz, P , invertvel (matriz dos
vectores proprios) e uma matriz diagonal, D (matriz dos valores proprios), tal que A = P D P 1 .
Teorema. Seja A uma matriz quadrada n n com escalares em K . Os valores proprios de A sao os
escalares K tais que det(A I) = 0 (equacao caracterstica), onde det(A I) e designado por
polinomio caracterstico (na variavel ).
Demonstrac
ao. A hprimeira
afirmacao do teorema decorre directamente da definicao de valor proprio
ij=1,...,n
de uma matriz A = ai,j
. Mais ainda,
i=1,...,n
n n
c.q.d.
Observac
ao. Para o caso das matrizes A M2,2 (K) , os valores proprios, 1 , 2 estao determinados
pelas identidades 1 + 2 = a1,1 + a2,2 = Tr A e por 1 2 = a1,1 a2,2 a1,2 a2,1 = det A .
Problema. Mostre que se e valor proprio de A entao 2 e valor proprio de A2
Resoluc
ao. Sabemos que det(A I) = 0 , e queremos provar que entao det(A2 2 I) = 0 . De facto,
(A2 2 I) = (A I)(A + I) , pelo que det(A2 2 I) = det(A I) det(A + I) = 0 det(A + I) = 0 .
Problema. De um exemplo de uma matriz A para a qual 2 e valor proprio de A2 sem que seja
valor proprio de A .
"
"
e A2 =
. Vemos entao que os valores proprios
1 3
6 9
de A2 sao 3 e o 3 , no entanto 3 nao e valor proprio de A .
Resoluc
ao. Por exemplo, A =
Problema. De um exemplo de uma matriz A com escalares reais que nao tenha valores proprios em
R , e em que A2 tenha valores proprios reais.
[email protected]
69
Algebra
Linear e Geometria Analtica
05-12-2013 | T.
Independencia linear do conjunto de vectores proprios associados a valores proprios distintos.
Consequencias. Propriedades dos valores e vectores proprios de matrizes simetricas. Resolucao do
problema 188. f) do caderno de exerccios.
Teorema. Sejam V um espaco vectorial sobre R e T : V V uma transformacao linear com p valores
proprios distintos 1 , . . . , p K ; entao, se 0 6= x j e um vector proprio de T associado ao valor
x1 , . . . , x p } e um conjunto linearmente independente de vectores.
proprio j para j = 1, . . . , p , entao {x
Alem disso, o sub-espaco proprio soma dos sub-espacos, N(j ) , j = 1, . . . , p , e soma directa, i.e.
N(1 ) + + N(p ) = N(1 ) N(p ) .
x1 , . . . , x p } e linearmente depenDemonstrac
ao. Suponhamos que nao, i.e. o conjunto de vectores {x
x1 , . . . , x r } e
dente. Seja x r+1 o primeiro vector que depende linearmente dos que o precedem, i.e. {x
x1 , . . . , x r , x r+1 } e um conjunto linearmente dependente;
um conjunto linearmente independente, mas {x
logo, existem escalares, 1 , . . . , r , r+1 K nao todos nulos tais que
r+1x r+1 = 1 x 1 + + r x r .
xj ) = j x j , j = 1, . . . , r + 1 ,
Aplicando T a esta identidade obtemos, tendo em atencao que T(x
r+1 r+1 x r+1 = 1 1 x 1 + + r r x r .
Multiplicando a primeira das identidades por r+1 e subtraindo a` segunda encontramos
1 (r+1 1 ) x 1 + + r (r+1 r ) x r = 0 ;
x1 , . . . , x r } e linearmente independente, os coeficientes j (r+1 j ) = 0 ,
e como o conjunto de vectores {x
j = 1, . . . , r , i.e. como os valores proprios sao todos distintos, temos que 1 = = r = 0 ! (pois, por
x1 , . . . , x r } e um conjunto linearmente independente de vectores).
hipotese {x
Para mostrar que a soma dos sub-espacos proprios e directa, supomos que tal nao e verdade, i.e.
podemos obter o vector nulo como como soma de p vectores nao todos nulos cada um num N(j ) ,
j = 1, . . . , p . Mas tal nao se pode verificar pela primeira parte do teorema.
c.q.d.
Observaco
es.
1. Se 1 , 2 sao valores proprios distintos de uma transformacao linear T entre um mesmo espaco
vectorial V sobre K , entao os sub-espacos proprios associados a 1 , 2 , i.e. N(1 ) e N(2 ) tem como
interseccao {00} .
2. Se T : V V e uma transformacao linear e V tem dimensao finita, entao T nao pode ter mais de n
valores proprios distintos. Pois, caso contrario, em V existiria um conjunto com mais de n vectores
linearmente independente (o que e obviamente impossvel).
[email protected]
70
Algebra
Linear e Geometria Analtica
c.q.d.
Definic
ao. Seja T : V V uma transformacao linear entre um mesmo espaco vectorial V 6= {00}
de dimensao finita, n , sobre K . Seja A a matriz que representa T relativamente a uma base de V .
Se K e um valor proprio de T (ou equivalentemente, valor proprio de A), designamos por:
a) multiplicidade algebrica de , a multiplicidade de como solucao da equacao caracterstica.
b) multiplicidade geometrica de , a dimensao do sub-espaco proprio associado a , N(A I) = N() .
Se A e a matriz de T relativamente a uma base de V , entao os valores proprios de T e de A coincidem
e cada um deles tem em A ou em T a mesma multiplicidade algebrica e a mesma multiplicidade
geometrica.
Teorema. No seguimento da definicao anterior, temos que
1 multiplicidade geometrica de = dim N() multiplicidade algebrica de .
1 2 c
0 4 3
rstica, i.e. det(A I) = 0 e dada por (1 )2 (3 ) = 0 ; logo a multiplicidade algebrica de 1 = 1
e dois e de 2 = 3 e um. Determinemosos espacos proprios associados aos valores proprios 1, 3 , i.e.
0 2 c
L({(1, 0, 0), (0, 1, 2)}) , se c = 1
v = 0} =
e
N(1) = {vv R3 : A v = v } = {vv R3 :
0
0
0
L({(1, 0, 0)}) , se c 6= 1
0 4 2
2 2 c
v = 0 } = L({(c, 0, 2)}) .
N(3) = {vv R3 : A v = 3 v } = {vv R3 :
0
2
0
0
4 0
Assim, a multiplicidade geometrica de 1 como valor proprio de A e 2 se c = 1 e 1 se c 6= 1 e a
multiplicidade geometrica de 3 como valor proprio de A e 1 ; pelo que, se c = 1 temos R3 = N(1)N(3)
e, portanto, a matriz A e diagonalizavel, i.e. semelhante a uma matriz diagonal, pois
[email protected]
71
Algebra
Linear e Geometria Analtica
1 0
A 0 1
0 2
Caso c 6= 1
1
1 0 1
1 0 0
1 0 1
1 0 0 1 0
0 = 0 1 0 0 1 0 , ou ainda A = 0 1 0 0 1 0
0 1
2
0 2 2
0 0 3
0 2 2
0 0 3 0 2
a matriz A nao e semelhante a uma matriz diagonal; no entanto, podemos
2
ver que e
semelhante a uma matriz triangular. De facto, completando a base dos vectores proprios, i.e. por
exemplo
A
0
0
A=
0
0
R3 =L({(1,
0, 2), (0, 1, 0)}) ,temos
0, 0), (c,
0
1 c 0 1 0 2(1 c)
1
c 0
c
0
2
0 1
, pois A 1 = 2(1 c) 0 + 2 0 + 1 ; logo,
= 0 0 1 0 3
1
0
0 2 0 0 0
0
2 0
2
0
c 0 1 0 2(1 c) 1 c 0
1 0 2(1 c)
0 3
0 0 1 , i.e. A e semelhante a` matriz T = 0 3
.
0 1
2
2
2 0 0 0
1
0 2 0
0 0
1
N
umero de vectores pr
oprios. Sejam V 6= {00} um espaco vectorial sobre K de dimensao finita, n ,
e T : V V uma transformacao linear. Seja A Mn,n (K) a matriz da transformacao linear relativamente a uma base de V . Se T (respectivamente, A) tem p valores proprios distintos, 1 , . . . , p K ,
entao o n
umero de vectores proprios de T (respectivamente, de A) e igual a` soma das multiplicidades
geometricas dos valores proprios j , j = 1, . . . , p , i.e. e igual a dim N(1 ) + + dim N(p ) .
Demonstrac
ao. Como os sub-espacos proprios associados a cada um dos valores proprios distintos, j ,
j = 1, . . . , p , sao independentes, uma base de N(1 ) N(p ) e constituda pelos vectores proprios
que geram cada um dos espacos N(j ) , j = 1, . . . , p , pelo que sao em n
umero de
dim N(1 ) + + dim N(p ) .
c.q.d.
Corol
ario. A matriz A Mn,n (K) e diagonalizavel se, e somente se, a soma das multiplicidades
geometricas dos seus valores proprios distintos, 1 , . . . , p , for igual a n , i.e.
dim N(1 ) + + dim N(p ) = n .
Em particular, se A tiver n valores proprios distintos e diagonalizavel.
Teorema. Seja A Mn,n (R) simetrica; entao:
1. a matriz A tem n valores proprios reais contando estes tantas vezes quanto as suas multiplicidades
algebricas.
2. se 6= sao dois valores proprios de A , entao os sub-espacos proprios que lhes estao associados
sao ortogonais, i.e. N() N() .
Demonstrac
ao. Verifiquemos que os valores proprios sao reais. De facto, ve-se facilmente que x T A x =
xT A x )/(x
xT x ) , com x T x = |x1 |2 + + |xn |2 R e x T A x = x T AT x =
x T x e, portanto, = (x
x T A x )T = x T A x R .
(x
Como A e uma matriz real simetrica, e sendo 6= dois quaiquer valores proprios de A , sabemos
[email protected]
72
Algebra
Linear e Geometria Analtica
c.q.d.
05-12-2013 | TP.
Resolucao dos problemas 188. c), 190, 192, 194 e 195 do caderno de exerccios.
Teorema Espectral. Se A Mn,n (R) e simetrica, entao existe uma base orto-normal de Rn formada
por vectores proprios de A . Alem disso, A e diagonalizavel por uma matriz ortogonal, i.e. existe Q
Mn,n (R) ortogonal tal que A = Q D QT , com D a matriz dos valores proprios de A contados tantas
vezes quanto a sua multiplicidade algebrica.
"
0 1
Resoluc
ao do problema 188. c). Para determinar os valores proprios de A0 =
, resolvemos
1
0
"
#
1
, logo R :
em R a equacao caracterstica, det(A0 I) = 0 , com A0 I =
1
2 1 = 0 , i.e. = 1 ou = 1 . Agora para determinar os sub-espacos proprios de A0 , i.e.
N(1) = {vv R2 : A0 v = v } e
2
0
N(1)
= #{vv R
"
" : A# v = vv } , temos de resolver dois sistemas
1 1
1 1
homogeneos com matriz do sistema
e
, respectivamente.
1 1
1 1
Assim, N(1) = L({(1, 1)}) e N(1) = L({(1, 1)}) . Do teorema espectral tiramos que
2
e uma base orto-normal
por vectores
proprios de A0 , pelo
"
# de R constitu
" da
#
" que#
1 0
2/2
2/2
1 0
A0 Q = Q
, com Q =
; e, portanto, A0 = Q
QT .
0 1
2/2 2/2
0 1
Resoluc
ao do problema 190. Os valores proprios de A sao os elementos diagonais de A . Este facto
foi ja observado para matrizes triangulares no primeiro exemplo dado na aula de 03-12-2013 | T. Neste
caso os vectores proprios associados sao valores proprios 3, 1, 1 de A sao os vectores da base canonica
de R3 , pois A e 1 = 3 e 1 , A e 2 = ee2 , A e 3 = e 3 , com e 1 = (1, 0, 0) , e 2 = (0, 1, 0) , e 3 = (0, 0, 1) .
4 1 0
1 0
e de B = 0 1 sao,
Resoluc
ao do problema 192. Os valores proprios de A =
0
3
1
0 0 2
0 0
no caso da matriz A , 4, 3, 2 e no caso da matriz B , (com multiplicidade algebrica 2) e . Para
determinarmos os espacos proprios associados a cada uma destas matrizes e aos seus valores proprios
temos de resolver
neos com matrizes do sistema
dadas, respectivamente,
sistemas homoge
por:
4
1
0
1
0
, {4, 3, 2} e B I = 0
, {, } .
AI =
0
3
0
0
2
0
0
Assim, N(A 4 I) = L({(1, 0, 0)}) , N(A 3 I) = L({(1, 1, 0)}) , N(A 2 I) = L({(1, 2, 2)}) ; e,
portanto, {(1, 0, 0), (1, 1, 0), (1, 2, 2)} e uma base de R3 constituda por vectores proprios de A ;
[email protected]
73
Algebra
Linear e Geometria Analtica
1 1 1
. Para B temos
logo A e diagonalizavel, tendo-se A = P diag{4, 3, 2} P 1 , com P =
0
1
2
0 0
2
2
se 6= , N(B I) = L({(1, 0, 0)}) e N(B I) = L({(1, , ( ) )}) ;
se = , N(B I) = L({(1, 0, 0)}) .
Assim, a matriz B nao e diagonalizavel. No entanto, caso 6= , podemos completar o conjunto dos
vectores proprios de B por forma a determinar uma base de R3 , por exemplo
3
{(1, 0, 0), (1, , ( )2 ), (0, 0, 1)} ,
e uma base
de R , tendo-se
1
1
0
a 0 1/( )
e T = 0 b 1/( ) , pois
B = S T S 1 com S =
0
2
0 ( ) 1
0 0
h
iT
h
iT
h
iT
h
iT
2
B 0 0 1 = 1/( ) 1 0 0 + 1/( ) 1 ( )
+ 0 0 1 .
Como exerccio mostre que a matriz B e semelhante a uma matriz triangular no caso em que = .
"
#
"
#
"
#
1 1
1 0
1 1
Resoluc
ao do problema 194. Seja A =
e B =
A =
. Entao os valores
3 2
1 1
2 1
valores
pr
o
prios
de
B
s
a
o
=
1
2.
proprios de A sao = (3 13)/2 e os "
2 1
que tem como valores proprios = (3 5)/2 .
Considere-se agora a matriz C = P1,2 B =
1 1
Resoluc
ao do problema 195. Basta ver que (A I)T = AT I e como o determinante de uma
matriz coincide, a menos do sinal, com o da sua transposta, temos que a equacao caracterstica de A e
de AT coincidem, pelo que A e AT tem os mesmos valores proprios considerados tantas vezes quantas
a as respectivas multiplicidades algebricas.
10-12-2013 | T.
Aplicacoes do teorema espectral: Curvas (em R2 ) e superfcies (em R3 ) de segundo grau.
Definic
ao. Em R2 designamos por conica o lugar geometrico dos pontos cujas coordenadas (x, y)
relativamente a um referencial ortogonal satisfazem uma equacao do tipo
a1,1 x2 + 2a1,2 xy + a2,2 y 2 + 2b1 x + 2b2 y + c = 0 ,
"
#" #
" #
"
#
h
i a
h
i x
x
a1,1 a1,2
1,1 a1,2
ou equivalentemente, x y
+ 2 b1 b2
+ c = 0 . Designamos A =
a1,2 a2,2 y
y
a1,2 a2,2
por matriz da forma quadratica.
Exemplos. Como exemplos canonicos temos as equacoes
(x/a)2 + (y/b)2 = 1 , (x/a)2 (y/b)2 = 1 e y = 2p x2 , a, b, p R \ {0} ,
que representam elipses, hiperboles e parabolas, respectivamente (cf. figura seguinte). Temos ainda
casos degenerados, como x2 y 2 = 0 (duas rectas y = x ou y = x), ou x2 + y 2 = 0 (um ponto, (0, 0)),
ou ainda uma condicao impossvel, por exemplo x2 + 1 = 0 .
[email protected]
74
Algebra
Linear e Geometria Analtica
y
Elipse
Hiperbole
Par
abola
Reduc
ao da equac
ao do segundo grau `
a forma can
onica. Como A e simetrica existe uma matriz
ortogonal Q (matriz dos vectores proprios normalizados ou dos vectores resultantes de aplicar o processo
de orto-normalizacao de Gram-Schmidt a cada uma das bases dos espacos proprios associadas a um
mesmo valor proprio) tal que A = Q D QT , onde D e a matriz dos valores proprios de A . Assim, a
forma canonica
" #
" #
#
" #
# "a forma
" toma
h
i
h
i 0
0
0
0
x
x
x
x
1
= QT
,
+ c = 0 com
+ 2 b1 b2 Q
x0 y 0
y
y0
y0
0 2 y 0
h
i h
i
i.e. 1 (x0 )2 + 2 (y 0 )2 + 2 x0 + 2 y 0 + c = 0 , onde = b1 b2 Q ;
(esta transformacao de coordenadas designa-se por reducao `as direccoes principais da conica).
Agora, se 1 2 6= 0 , entao 1 (x0 + /1 )2 + 2 (y 0 + /2 )2 + c 2 /1 2 /2 = 0 ; logo reduzimos a
equacao de segundo grau `a forma
1 X 2 + 2 Y 2 + C = 0 , com X = x0 + /1 , Y = y 0 + /2 e C = c 2 /1 2 /2 ;
(esta transformacao de coordenadas designa-se por reducao ao centro da conica).
Estamos pois em presenca de uma elipse se 1 , 2 tiverem o mesmo sinal e sinal contrario ao de C .
Ser
a uma hiperbole se, 1 2 < 0 e C 6= 0 . Nos demais casos temos situacoes degeneradas.
Se 1 2 = 0 e supondo s.p.g. 2 = 0 , temos 1 (x0 + /1 )2 + 2 y 0 + c 2 /1 = 0 ; e se 6= 0 podemos
escrever
1 X 2 + 2 Y = 0 , com X = x0 + /1 e Y = y 0 + (c 2 /1 )/(2) ;
(esta transformacao de coordenadas designa-se por reducao ao centro da conica). .
Estamos em presenca de uma parabola e nos demais casos temos situacoes degeneradas.
Resoluc
a"
o do #problema
204. a) Comecemos
escrever
a equa
cao da conica, i.e.
" #
" por
# " matricialmente
#"
#
h
i 1 1 x
1/ 2 1/ 2 2 0
1/ 2 1/ 2
= 1 ; e como A =
, podemos reescrever
x y
1 1 y
0 0 1/ 2 1/ 2
1/ 2 1/ 2
[email protected]
75
Algebra
Linear e Geometria Analtica
a equacao da
#
# " como
" conica
" # "
#" #
h
i 2 0 X
1/ 2 1/ 2 x
X
2
= 1 , i.e. 2 X = 1 , ou ainda X = 2/2 , onde
.
=
X Y
0 0 Y
1/ 2 1/ 2 y
Y
Assim, estamos num caso degenerado x + y = 1 , pois da reducao `as direccoes principais temos que
X = (x + y)/ 2 .
b) Comecemos
por #
escrever
ao da conica,# "
i.e.
" c
" # matricialmente a equa
#"
"
#
h
i 1 2 x
1/ 5 2/ 5 3 0
1/ 5 2/ 5
= 1 ; e como A =
, podemos
x y
2 2 y
0 2 2/ 5 1/ 5
2/ 5 1/ 5
reescrever
da conica como
" a equa
#c"ao #
h
i 3 0 X
Y
2/ 5 1/ 5 y
((x + 2y)/( 5/ 3))2 + ((2x + y)/( 5/ 2))2 = 1 .
e) Comecemos
por escrever
equa
"
# " # matricialmente a "
# cao da conica, i.e.
h
i 1 1/2 x
h
i x
+ 2 3/2 3/2
= 0 ; e como
x y
1/2 1
y
y
"
#"
#"
#
1/ 2 1/ 2
1/ 2 1/ 2 3/2 0
A=
,
1/ 2 1/ 2
0 1/2 1/ 2 1/ 2
podemos"reescrever# a" equa
# cao da conica como
" #
h
i X
h
i 3/2 0
X
+ 2 3/ 2 0
= 0 , i.e. (3/2) X 2 + (1/2) Y 2 6/ 2 X = 0 , ou ainda
X Y
Y
0 1/2 Y
" # "
#" #
2
2
X
1/ 2 1/ 2 x
((X 2)/( 2)) + (Y / 6) = 1 , onde
=
. Assim, estamos em presenca
Y
1/ 2 1/ 2 y
#"
#
h
i x
h
i 6 2 x
2/ 5 1/ 5 7 0
2/ 5 1/ 5
+ 2 1 1/2
= 1 ; e como A =
,
x y
2 3 y
y
1/ 5 2/ 5
0 2 1/ 5 2/ 5
podemos"reescrever
# " #a equacao da conica como" #
h
i 7 0 X
h
i X
+ 2 3/(2 5) 2/ 5
= 1 , i.e. 7 X 2 + 2 Y 2 + (3/ 5) X 4/ 5 Y = 1 , ou
X Y
0 2 Y
Y
2
2
ainda
3/(14 5))/a)
+ ((Y 1/ 5)/b) = 1 , onde
" # ((X
"
#" #
X
2/ 5 1/ 5 x
=
, e a, b R a determinar.
Y
1/ 5 2/ 5 y
Estamos pois em presenca de uma elipse (determine a sua equacao como exerccio).
76
Algebra
Linear e Geometria Analtica
12-12-2013 | T.
Revisao sobre a materia dada.
12-12-2013 | TP.
Revisao sobre a materia dada.
17-12-2013 | T.
0 1 2 1
4 5 2 0
7 3 0 0
a) Calcule det(A B) .
4 0 0 0
0 5 1 3
1 8 0 2
.
B=
0 0 0 1
0 0 1 3
i.e. A2 e simetrica.
0 1 1
.
Problema 2. Considere a matriz A =
1
2
2 5
11 5 3
11/2 2 3/2
1
= 5/2 1 1/2 .
b) Aplicando o teorema de Laplace, vemos que A1 =
4
2
2
2
3 1 1
3/2 1 1/2
c) Como o elemento na possicao 1, 1 da matriz
A
e
0
,
multiplicamos
a
matriz
matriz de per
A pela
2 1 2
2 1 2
2 1 2
0 1 1
0 1 1 ;
mutacao P1,2 e pivotando, temos, P1,2 A =
0
1
1
2 5
2 `1 + `3 0 4
4 4`2 + `3 0 0
0
[email protected]
77
Algebra
Linear e Geometria Analtica
Licenciaturas em Fsica e Engenharia Fsica
1 0 0
2 1 2
1 0 0
e U = 0 1 1 (cf. L1 = 0 1 0).
logo P1,2 A = L U com L =
0
1
0
1 4 1
0 0
0
1 4 1
d) Tendo em atencao a decomposicao L U de A encontrada na alnea anterior, temos que
x R3 : U x = 0 } = {(x1 , x2 , x3 ) R3 : 3 x2 = 3 x3 = 2 x1 } = L({(3, 2, 2)}) .
N(A) = {x
x R3 : v R3 com A v = x } . Pelo que, efectuando sobre o vector (x, y, z) , as
e) Como C(A) = {x
mesmas operacoes por linha que efectuamos na resolucao da alnea c), obtemos que
C(A) = {(x, y, z) R3 : z y + 4 x = 0} .
f) Comecemos por ver que b C(A) ; de facto (4) 0 + 4(1) = 0 , logo o sistema e possvel. Assim,
a solucao vem dada por x = x p + x 0 , R , onde x p e uma solucao de A x = b e x 0 = (3, 2, 2)
(solucao do sistema homogeneo). Para determinar x p resolvemos o sistema
h
iT
h
iT
U x y 0 = L1b = 0 1 0 , i.e. x p = (1/2, 1, 0) .
Note que pod
h amos terideterminado b como combinacao linear dos dois primeiros vectores coluna da
matriz A = c 1 c 2 c 3 , i.e. b = c 1 /2 c 2 ; obtendo-se, como solucao particular do sistema A x = b ,
xp = (1/2, 1, 0) .
Problema 3. Seja S = {vv 1 , v 2 , v 3 , v 4 } com v 1 = (1, 1, 2, 3) , v 2 = (0, 1, 2, 2) , v 3 = (2, 1, 1, 0) e
v 4 = (3, 1, 2, 5) .
a) Indique um sub-conjunto U de S com tres vectores, tal que U e linearmente dependente.
b) Indique uma base do sub-espaco vectorial L(S) e determine as coordenadas do vector v 1 +vv 2 vv 4
nessa base.
c) Determine o sub-espaco L(S) e mostre que L(S) L(S) = R4 .
Resoluc
ao. a) Como sabemos para analisar a dependencia ou indepenencia linear de um conjunto
de vectores em R4 podemos faze-lo dispondo as componentes desses vectores (na base canonica) nas
colunas (ou nas linhas) de uma matriz e analisar a dependencia ou independencia linear dos conjuntos
dessas colunas (ou linhas). O metodo de eliminacao de Gauss fornece um criterio para essa analise. No
presente caso, optando pela representacao por colunas temos:
1 0 2 3
1 0 2
3
1 0 2
3
1 1 1 1 `1 + `2 0 1 3 2
0 1 3 2
2
2
1
2
2`
+
`
0
2
5
4
2`
+
`
0
0
1
0
1
3
2
3
3 2 0 5 3`1 + `4 0 2 6 4 2`2 + `4 0 0 0
0
o conjunto formado pelas 3 primeiros vectores coluna e linearmente independente e o conjunto formado
pelos 4 vectores coluna e linearmente dependente, pois temos somente 3 pivots. Efectivamente, a quarta
coluna e uma combinacao linear das duas primeiras, i.e. v 4 = 3 v 1 2 v 2 . Assim U = {vv 1 , v 2 , v 4 } e um
conjunto de 3 vectores linearmente dependente e tambem L(S) = L({vv 1 , v 2 , v 3 }) .
b) Na alnea a) vimos que L(S) = L({vv 1 , v 2 , v 3 }) e tambem v 4 = 3 v 1 2 v 2 , logo v = v 1 + v 2 v 4 =
2 v 1 + 3 v 2 e as coordenadas v na base {vv 1 , v 2 , v 3 } de L(S) sao dadas pelo vector (2, 3, 0) .
[email protected]
78
Algebra
Linear e Geometria Analtica
T (x, y, z) = A x y z
onde A = 1 3 0. b) Assim, T(1, 1, 1) = A 1 1 1
=
1 3 0
h
iT
h
iT
h
iT
2 1 1 1
= 2 T(1, 1, 1) , T(0, 1, 1) = A 0 1 1
= 3 0 1 1
= 3 T(0, 1, 1) ,
h
iT
h
iT
T(3, 1, 4) = A 3 1 4
= 0 3 1 4
= 0 T(3, 1, 4) ; e, como, vectores proprios de uma
mesma matriz associados a valores proprios distintos sao linearmente independentes, temos que o conjunto dos vectores dados e uma base de R3 . Mais ainda, como 0 e um valor proprio de A , temos que
A e nao invertvel. c) Reescrevendo
as identidades
anteriores
emnotacao matricial temos,
1
0
3
2 0 0
e = 0 3 0.
A S = S , onde S =
1
1
1
1 1 4
0 0 0
Como S e nao-singular temos que A e diagonalizavel i.e. A = S S 1 .
Para a alnea d) comece por identificar o espaco imagem de T , com o espaco das colunas de A , i.e.
Im T = C(A) = L({(2, 0, 0), (2, 1, 1)}) . Como esta base nao e ortogonal, vamos ortogonaliza-la
h
iT
h
iT
h
iT
usando o processo de Gram-Schmidt, i.e. u1 = 2 0 0
e u2 = 2 1 1 4/4 2 0 0 =
[email protected]
79
Algebra
Linear e Geometria Analtica
h
iT
u1 , u 2 }) e u 1 u 2 . Assim,
0 1 1 , com L({(2, 0, 0), (2, 1, 1)}) = L({u
h
iT
projIm T b = proju 1 b + proju 2 b = (8/4) u 1 + ( 3)/(2) u 2 = 4 (3 )/2 ( 3)/2 .
h
iT
Note que, caso = 3 , projIm T b = b , pelo que se = 3 , b Im T ; de facto, b = 5 2 0 0
h
iT
x) = A x ) = b , caso = 3 vem dada por
3 2 1 1 . Vemos assim que a solucao de x R3 : (T(x
h
iT
h
iT
3
x = 5 3 0 + x 0 , R , para algum x 0 R \ {00} : A x 0 = 0 , por exemplo x 0 = 3 1 4 .
x) = b , pelo que a solucao no sentido dos mnimos quadrados vem
Para 6= 3 , nao existe x R3 : T(x
x) = A x ) = projIm T b , cuja solucao e
dada como x R3 : (T(x
h
iT
h
iT
x = ( 3)/2 0 (7 )/2 + 3 1 4 , R .
19-12-2013 | T.
Superfcies (em R3 ) de segundo grau.
19-12-2013 | TP.
Resolucao de problemas sobre quadricas.
80