Matrizes (2) 133

Fazer download em docx, pdf ou txt
Fazer download em docx, pdf ou txt
Você está na página 1de 43

Cap´ıtulo 2

C´alculo Matricial

K designa C ou R.

2.1 Nota¸c˜ao matricial


Uma matriz do tipo m × n sobre K ´e uma tabela com mn elementos de K, elementos

esses dispostos em m linhas e n colunas:
a11 a12 a1n
···
A =  a21 a22 a2n 
···
 .. 
 .. ..
am1 am2 · · · amn
.
Os elementos aij dizem-se os elementos ou componentes da matriz. A matriz diz-se do tipo
m × n se tiver m linhas e n colunas.
O conjunto de todas as matrizes (do tipo) m × n sobre K representa-se por Mm×n (K) ou
por Km×n, e o conjunto de todas as matrizes (finitas) sobre K por M (K).
Km denota Km×1.

Alguns exemplos de matrizes:


" # " # " #
1 2 1 2 h i 1
A= ,B= ,C= −2 1 0 6 ,D= .
2 −1 0
0

2
Quando conveniente, escrevemos a matriz A da definic¸˜ao anterior como

[aij ] ,

e referimos aij como o elemento (i, j) de A, isto ´e, o elemento na linha i e na coluna j de A.
Iremos tamb´em usar a notac¸˜ao (A)ij para indicar o elemento na linha i e coluna j de A.

Duas matrizes [aij ] , [bij ] ∈ Mm×n (K) s˜ao iguais se aij = bij , para i = 1, . . . , m, j
= 1, . . . , n. Ou seja, duas matrizes s˜ao iguais se tˆem o mesmo nu´mero de linhas e o
mesmo nu´mero de colunas, e que os elementos na mesma linha e coluna s˜ao iguais.

11
1 CAP CA´ LCULO

Uma matriz do tipo m por n diz-se quadrada de ordem n se m = n, ou seja, se o nu


´mero de linhas iguala o de colunas; diz-se rectangular caso contr´ario. Por exemplo, s˜ao
quadradas as matrizes
" # 1 2 3 
1 0
2 3 4 
0 , 
 3 4 5
e rectangulares as matrizes −2


# 
" −1
1 2 3 1 −1  
0 5 −3
,  −4  .
i
h  0
,
Os elementos diagonais de [aij ]i,j=1,... n s˜ao a11 ,#
a22 , . . . , ann .
"1 0 " #
1 2 3
Por exemplo, os elementos diagonais de s˜ao 1 e 2, e os da matriz

0 −2 0 5 −3
s˜ao 1 e 5.
Nos exemplos atr´as apresentados, apenas a matriz A ´e quadrada, sendo as restantes
rec- tangulares. Os elementos diagonais de A s˜ao 1, 3.

Octave
" 1 2
Suponha que se pretende definir a matriz A = . Para tal, faz-se
#2 3
> A=[1 2;2 3]
A =

1 2
2 3

A entrada (1, 2) ´e mostrada atrav´es do comando

> A(1,2)
ans = 2

A primeira linha e a segunda coluna da matriz s˜ao mostradas com, respectivamente,

> A(1,:)
ans =

1 2

> A(:,2)
2.1. NOTAC¸ A˜ O 1

ans =

2
3
" #
1 2− i 3i
Considere agora a matriz B = √ :
0 2
−1
> B=[1 2-i 3i; 0 sqrt(2) -1]
B =

1.00000 + 0.00000i 2.00000 - 1.00000i 0.00000 + 3.00000i


0.00000 + 0.00000i 1.41421 + 0.00000i -1.00000 + 0.00000i

No Octave, todas as constantes num´ericas s˜ao representadas no formato de v


´ırgula flutuante com dupla precis˜ao (as constantes complexas s˜ao memorizadas
como pares de valores de v´ırgula flutuante de dupla precis˜ao). O Octave, por
defeito, apenas mostra uma parte do valor que armazenou.

> format long


> B=[1, 2-i, 3i; 0, sqrt(2), -1]
B =

Column 1:

1.000000000000000 + 0.000000000000000i
0.000000000000000 + 0.000000000000000i

Column 2:

2.000000000000000 - 1.000000000000000i
1.414213562373095 + 0.000000000000000i

Column 3:

0.000000000000000 + 3.000000000000000i
-1.000000000000000 + 0.000000000000000i

> format
> B
B=

1.00000 + 0.00000i 2.00000 - 1.00000i 0.00000 + 3.00000i


0.00000 + 0.00000i 1.41421 + 0.00000i -1.00000 + 0.00000i
1 CAP CA´ LCULO

Suponhamos agora que se pretende definir C como a matriz constitu´ıda pelos


elementos que est˜ao nas linhas de B e que est˜ao nas colunas 1 e 2 de B. Para tal,
usa-se o comando B(:,1:2). Aqui, o primeiro : indica que se pretender usar todas
as linhas de B. O argumento 1:2 indica que consideram da primeira `a segunda
colunas de B.

> C=B(:,1:2)
ans =

1.00000 + 0.00000i 2.00000 - 1.00000i


0.00000 + 0.00000i 1.41421 + 0.00000i

Se se pretender a coluna 1 e 3, ent˜ao usa-se a instruc¸˜ao B(:,[1,3]). Uma forma


mais rebuscada seria usar o argumento 1:2:3. A sintaxe ´e simples: in
´ıcio:incremento:final. Assim sendo,

> B(:,1:2:3)
ans =

1 + 0i 0 + 3i
0 + 0i -1 + 0i

Finalmente, podemos concatenar a matriz A definida atr´as, por colunas e por linhas,
respectiva- mente,

> [B(:,1:2:3) A]
ans =

1 + 0i 0 + 3i 1 + 0i 2 + 0i
0 + 0i -1 + 0i 2 + 0i 3 + 0i

> [B(:,1:2:3); A]
ans =

1 + 0i 0 + 3i
0 + 0i -1 + 0i
1 + 0i 2 + 0i
2 + 0i 3 + 0i

Preste atenc¸˜ao que nem sempre estas operac¸˜oes s˜ao poss´ıveis. Uma das causas
de falha ´e o nu´mero de linhas ou colunas n˜ao compat´ıvel.
Finalmente, obt´em-se a conjugada de uma matriz conjugando as componentes da
matriz dada. Ou seja, a matriz conjugada de A ∈ Mm×n (C), denotada como A¯, ´e a
matriz m × n definida por (A¯)ij = aij . Por exemplo,

> conj (B)


ans =
2.1. NOTAC¸ A˜ O 1

1.00000 - 0.00000i 2.00000 + 1.00000i 0.00000 - 3.00000i


0.00000 - 0.00000i 1.41421 - 0.00000i -1.00000 - 0.00000i

Apresentamos, de seguida, alguns tipos especiais de matrizes.



1. Uma matriz diz-se diagonal se for da forma

d1 0 ··· 0
 = diag (d , d , . . . , d ) ,
 0 d2 · · · n
 . 0. . 
1 2
 . . . 
0 0 ··· dn
ou seja, o elemento (i, j) ´e nulo, se i /= j. Portanto, uma matriz quadrada ´e
diagonal se os u´nicos elementos possivelmente n˜ao nulos s˜ao os diagonais.

2. A matriz identidade de ordem n, In , ´e a matriz diagonal de ordem n, com os


elementos diagonais iguais a 1; ou seja,

 1 0 ··· 0 
I =  0 1 0 .
···
n  . . . 
 . . . 
0 0 ··· 1

3. Uma matriz A = [aij ] diz-se triangular superior se aij = 0 quando i > j, e


triangular inferior se aij = 0 quando i < j. Ou seja, s˜ao respectivamente
triangulares superiores e inferiores as matrizes
 
a11 a12 · · · a1n   a11 0 ··· 0
 
. .   . . .
 . .
 0 a22 · · · a  ,   a21 a22 · · · 0 
 . . .  
2n
. . . 
0 0 ··· amn am1 am2 · · · amn
4. Matrizes circulantes  
a0 a1 · · · an−1
 
. .
 . .
 an−1 a0 · · · an−2 
 . . 
. ..
a1 a.2 · · · a0
5. Matrizes companheiras, com v ∈ Kn−1,
" #
0 a0
In−1 v .
1 CAP CA´ LCULO

6. Matrizes de Hankel 
a0  a1 a2 ∗ an−1
a1 a2 ∗ ∗ an
H = a2 ∗ ∗ ∗ ∗ 
 ∗ an−1 an ∗ ∗ 
n
 a an ∗ ∗ 2(n−1) 
a
 n−1
.
7. Matrizes de Toeplitz 

 a0 a1 a2 ∗ an−1
a−1 a0 ∗ ∗ ∗
T = ∗ a−1 ∗ ∗ ∗ 
 
n  
 a−n+2 ∗ ∗ ∗ a1 
a−n+1 a−n+2 ∗ a−1 a0 .

2.2 Opera¸c˜oes matriciais


Vejamos agora algumas operac¸˜oes definidas entre matrizes, e algumas propriedades que estas
satisfazem.

2.2.1 Soma e produto escalar


Sejam A = [aij ] , B = [bij ] ∈ Mm×n (K) e α ∈ K.
1. A soma entre matrizes A + B ´e a matriz m × n cujo elemento (i, j) ´e aij + bij . Ou
seja, (A + B)ij = (A)ij + (B)ij.

2. O produto de uma matriz com um escalar αA ´e a matriz m × n cujo elemento (i,


j) ´e α aij. Ou seja, (αA)ij = α(A)ij .

Repare que a soma de duas matrizes, da mesma ordem, ´e feita elemento a elemento,
e o produto escalar de uma matriz por α ∈ K ´e de novo uma matriz da mesma ordem
da dada, onde cada entrada surge multiplicada por α. Ou seja,
     
a11 a12 . . . a1m b11 b12 . . . b1m a11 + b11 a12 + b12 . . . a1m + b1m
 a   . . . b   
21 a 22 . . . a 2m b1 b2
2 2m a21 + 2 a22 + 2 . . . a2m + 2m
 . . + 2 .  =   b 1 2 b

 . .   .. .   .. .. 
an1 an2 . . . anm bn1 bn2 . . . bnm an1 + bn1 an2 + bn2 . . . anm + bnm
e
   
a11 a12 . . . a1m αa11 αa12 . . . αa1m
 a   
21 a22 . . . a2m αa21 αa22 . . . αa2m
α   
.. =  ..  ..  .
 .. 
an1 an2 . . . anm αan1 αan2 . . . αanm
2.2. OPERAC¸ O˜ ES 1
Por exemplo, " # " # " #
1 2 5 6 1+5 2+6
+ =
3 4 7 8 3+7 4+8
e
" # " #
1 2 5·1 5·2
5 = .
3 4 5·3 5·4
Como ´e f´acil de compreender, a soma e o produto escalar s˜ao comutativos.
De ora em diante, 0 representa uma qualquer matriz cujos elementos s˜ao nulos, e se
A = [aij ] ent˜ao −A = [−aij ].
Estas operac¸˜oes satisfazem as propriedades que de seguida se descrevem, onde A, B,
C ∈ Mm×n (K) e α, β ∈ K:

1. A soma de matrizes ´e associativa: (A + B) + C = A + (B + C).

2. A soma de matrizes ´e comutativa: A + B = B + A

3. A matriz nula ´e o elemento neutro da adic¸˜ao: A + 0 = 0 + A.

4. Existe o sim´etrico de cada matriz A + (−A) = (−A) + A = 0.


5. α(A + B) = αA + αB.

6. (α + β)A = αA + βA.

7. (αβ)A = α(βA).

8. 1 · A = A.

2.2.2 Produto
Resta-nos definir o produto matricial.
Seja A = [aij ] uma matriz m × p e B = [bij ] uma matriz p × n. O produto de A por B,
denotado por AB, ´e a matriz m × n cujo elemento (i, j) ´e ai1 b1j + ai2 b2j + · · · + ain bnj . Assim,
" p # Σ p
AB = Σ aik bkj e portanto (AB)ij = (A)ik(B)kj.
k=1 m×p
k=1

Atente-se nas dimens˜oes de A e B na definic¸˜ao anterior.


Antes de fazermos referˆencia a algumas propriedades, vejamos uma outra forma exprimir
 
h
o produto de duas matrizes. Para tal, assuma que X = x1 x2 y1
y2
i, Y = ,
. . . xn  
 .
 
sendo a primeira do tipo 1 × n e a segunda do tipo n × 1. Pelo que acab´amosynde
referir, o produto de X por Y est´a bem definido, sendo a matriz produto do tipo 1 ×
1, e portanto, um elemento de K. Esse elemento ´e x1 y1 + x2 y2 + . . . xn yn . Voltemos
agora ao produto
1 CAP CA´ LCULO
de Am×p por Bp×n, e fixemos a linha i de A e a coluna j de B. Ou seja, a matriz linha

h 
b1j 
a a i  b2j 
i1 i2 . . . aip e a matriz coluna . O produto da primeira pela segunda ´e o
  . 
bpj
p
Σ
elemento de K dado por ai1 b1j + ai2 b2j + · · · + aip bpj = aik bkj . Ora, este elemento n˜ao ´e
k=1
mais nem menos que a entrada (i, j) da matriz produto AB. Ou seja, a entrada (i, j) de AB
´e o produto da linha i de A pela coluna j de B.
Vejamos algumas propriedades deste produto de matrizes, onde as dimens˜oes das matrizes
A, B, C, I, 0 s˜ao tais que as operac¸˜oes indicadas est˜ao definidas, e α ∈ K:

1. O produto de matrizes ´e associativo (AB)C = A(BC);

2. O produto de matrizes ´e distributivo em relac¸˜ao `a soma A(B + C) = AB + AC, (A


+
B)C = AC + BC;

3. A matriz identidade ´e o elemento neutro para o produto: AI = A, IA = A;

4. A matriz nula ´e o elemento absorvente para o produto: 0A = 0, A0 = 0;

5. α(AB) = (αA)B = A(αB).

Fac¸amos a verificac¸˜ao da primeira igualdade de (1). A verificac¸˜ao de que as


matrizes s˜ao do mesmo tipo fica ao cargo do leitor. Iremos apenas verificar que a entrada (i,
j) de A(B +C) iguala a entrada (i, j) de AB + AC. Ora, supondo que A tem p colunas, e
portanto que B e C tˆem p linhas,
p
Σ
(A(B + C))ij = (A)ik((B)kj + (C)kj)
k=1
p
Σ
= ((A)ik(B)kj + (A)ik(C)kj)
k=1
p p
Σ Σ
= (A)ik(B)kj + (A)ik(C)kj
k=1 k=1
= (AB)ij + (AC)ij = (AB + AC)ij.

Verifiquemos tamb´em a propriedade (3). Note-se que (I)i = 1 e (I)ij = 0 se i =/ j.


Ora
Σp
(AI)ij = k=1 (A)ik(I)kj = (A)ij .
E´ importante notar que o produto matricial n˜ao ´e, em geral, comutativo. Por exem-
" #" # " #" #
1 0 0 1 0 1 1 0
plo, /= . A lei do anulamento do
0 0 0 0 0 0
produto tamb´em " #" #
1 0 0 0
n˜ao ´e v´alida, em geral, no produto matricial. Por exemplo, = 0, sem
0 0 0 1
2.2. OPERAC¸ O˜ ES 1
que um dos factores seja nulo. Ou seja, AB = 0 a (A = 0 ou B = "
0). De #
uma
" forma
#
1 0 2 2
mais geral, (AB = AC e A 0) a (B = C), j´a que, por exemplo, =
" #"
0 0 1 1
#1 0 2 2

.
0 0 −1 3
Como ´e f´acil de observar, a soma de duas matrizes triangulares inferiores [resp.
triangu- lares superiores] ´e de novo triangular inferior [resp. triangular superior]. O que se
pode dizer em relac¸˜ao ao produto?
Teorema 2.2.1. O produto de matrizes triangulares inferiores [resp. triangulares superiores]
´e de novo uma matriz triangular inferior [resp. triangular superior].
Demonstrac¸a˜o. Sejam A, B duas matrizes triangulares inferiores de tipo apropriado. Ou
seja, (A)ij, (B)ij = 0, para i < j. Pretende-se mostrar que, para i < j se tem (AB)ij = 0. Ora,
para
Σp Σi
i < j, e supondo que A tem p colunas, (AB)ij = k=1 (A)ik(B)kj = k=1 (A)ik(B)kj = 0.

Por vezes ´e conveniente considerar-se o produto matricial por blocos. Para tal,
considere as matrizes A e B divididas em submatrizes
" # #
A11 A12 "
A= A B11 B12
21 A22 ,B = B B 21 22

de forma conforme as operac¸˜oes descritas de seguida estejam definidas, ent˜ao


" #
A11B11 + A12B21 A11B12 + A12B22
AB = A21B11 + A22B21 A21B12 + A22B22 .

De uma forma mais  geral, se   


A11 A12 ··· A1p B11 B12 ··· B1n
  , B =   
A=
. . . .
. . 
 A21A22 · · · A2p   B21 B22 · · · B2n 
 . .   . . 
. .. . ..
Am1Am2 · · · Amp Bpn Bpn · · · Bpn
. .
em que as submatrizes s˜ao tais que as operac¸˜oes seguintes est˜ao bem definidas, ent˜ao
 Σp Σ
A B1k p Σ p 
Σk=1 Σ k=1 A B · · k=1 A1kBkn 
 p A B2k pk=1 Σ p
k=1
k1 ·1k Ak2 B .
. · · k=1 A2kBkn 
AB = . . . .  .
 k1 Σp ·2k k2 Σ
 AmkBk1 p AmkBkn
Σ A B mk ···
k2
p
k=1 k=1 k=1
2.2.3 Transposi¸c˜ao
A transposta de uma matriz A = [aij ] ∈ Mm×n (K), ´e a matriz AT = [bij ] ∈ Mn×m (K)
cuja entrada (i, j) ´e aji , para i = 1, . . . , n, j = 1, . . . , m. Ou seja, (AT )ij = (A)ji . A
matriz ´e sim´etrica se AT = A.
2 CAP CA´ LCULO
" # " # " #
1 2 13 1 2
Como exemplo, a transposta da matriz ´e a matriz , e a matriz
3 4 2 4 2 3
´e uma matriz sim´etrica.
Repare que a coluna i de AT ´e a linha i de A, e que uma matriz ´e sim´etrica se
e s´o se for quadrada e forem iguais os elementos situados em posi¸c˜oes sim´etricas
relativamente `a diagonal principal.
A transposic¸˜ao de matrizes goza das seguintes propriedades:
T
1. AT = A;

2. (A + B)T = AT + BT ;

3. (αA)T = αAT , para α ∈ K;

4. (AB)T = BT AT ;
T k
5. Ak = AT , k ∈ N.

A afirmac¸˜ao (1) ´e v´alida j´a que ((AT )T )ij = (AT )ji = (A)ij .
Para (2), ((A + B)T )ij = (A + B)ji = (A)ji + (B)ji = (AT )ij + (BT )ij.
Σ Σ
Para (4), ((AB)T )ij = (AB)ji = k(A)jk(B)ki = Σk(B)ki(A)jk =
T T
k(B )ik(A )kj =
T T
(B A )ij.
Para (5), a prova ´e feita por induc¸˜ao no expoente. Para k = 1 a afirmac¸˜ao ´e
trivialmente v´alida. Assumamos ent˜ao que ´e v´alida para um certo k, e provemos que ´e
v´alida para k + 1. Ora (Ak+1)T = (AkA)T =(4) AT (Ak)T = AT (AT )k = (AT )k+1.

Octave " 1 2 # " 0 1


Considere as matrizes A = #, B = . Note que s˜ao do mesmo tipo, pelo que
2 3 −1 1
a soma est´a bem definida. Verifica-se a comutatividade destas matrizes para a soma.
> A=[1 2; 2 3]; B=[0 1; -1 1];
> A+B
ans =

1 3
1 4

> B+A
ans =

1 3
1 4
2.2. OPERAC¸ O˜ ES 2

Fac¸amos o produto de A pelo escalar 2:


> 2*A
ans =

2 4
4 6
Note ainda que o nu´mero de colunas de A iguala o nu´mero de linhas de B, pelo que o
produto
AB est´a bem definido.
> A*B
ans =

-2 3
-3 5

Verifique que tamb´em o produto BA est´a bem definido. Mas


> B*A
ans =

2 3
1 1

BA /= AB, pelo que o produto de matrizes n˜ao ´e, em geral, comutativo.


Considere agora a matriz C cujas colunas s˜ao as colunas de A e a terceira coluna
´e a segunda de B:
> C=[A B(:,2)]
C =

1 2 1
2 3 1
Como C ´e uma matriz 2 × 3, a sua transposta, C T , ´e do tipo 3 × 2:
> C’
ans =

1 2
2 3
1 1

> size(C’)
ans =
2 CAP CA´ LCULO

3 2

2.2.4 Invertibilidade
Uma matriz A quadradada de ordem n diz-se invert´ıvel se existir uma matriz B,
quadrada de ordem n, para a qual
AB = BA = In.

Teorema 2.2.2. Seja A ∈ Mn (K). Se existe uma matriz B ∈ Mn (K) tal que AB = BA =
In enta˜o ela ´e u´nica.

Demonstrac¸a˜o. Se B e B ′ s˜ao matrizes quadradas, n × n, para as quais

AB = BA = In = AB′ = B′A

ent˜a
o B′ = B′In = B′(AB) = (B′A)B = InB = B.

A matriz B do teorema, caso"exista, diz-se a inversa de A e representa-se por A−1.


1 0
Por exemplo, a matriz S = n˜ao ´e invert´ıvel. Por absurdo, suponha que existe
#1 0 #
"x y
T , de ordem 2, tal que ST = = T S. A matriz T ´e ent˜ao da forma . Ora
z w
I2
#
" x y
ST = , que por sua vez iguala I2, implicando por sua vez x = 1 e y = 0, juntamente
x y
com x = 0 e y = 1.

Octave " 1 2
Considere a matriz real de ordem 2 definida por A = . Esta matriz ´e invert´ıvel.
Mais #
2 3
adiante, forneceremos formas de averiguac¸˜ao da invertibilidade de uma matriz,
bem como algorit- mos para calcular a inversa. Por enquanto, deixemos o Octave
fazer esses c´alculos, sem quaisquer justificac¸˜oes:
> A=[1,2;2,3];
> X=inv(A)
X =

-3 2
2.2. OPERAC¸ O˜ ES 2

2 -1
" #
−3
Ou seja, A−1 = . Fac¸amos a verificac¸˜ao de que AX = XA = I2 :
2 −1
> A*X
2
ans =

1 0
0 1

> X*A
ans =

1 0
0 1

Uma forma um pouco mais rebuscada ´e a utilizac¸˜ao de um operador boleano


para se aferir da veracidade das igualdades. Antes de nos aventurarmos nesse campo,
e sem pretender deviarmo-nos do contexto, atribua a a e a b os valores 2 e 3,
respectivamente:

> a=2;b=3;

Suponha agora que se pretende saber se os quadrados de a e de b s˜ao iguais. Em


linguagem matem´atica, tal seria descrito por a2 = b2 . Como ´e ´obvio, no Octave
tal seria sujeito de dupla significac¸˜ao: o s´ımbolo = refere-se a uma atribuic¸˜ao
`a vari´avel ou parte de uma proposic¸˜ao? Como vimos anteriormente, = tem sido
repetidamente usado como s´ımbolo de atribuic¸˜ao (como
por exemplo em a=2); se se pretende considerar = enquanto s´ımbolo de uma
proposic¸˜ao, ent˜ao usa-se ==. O resultado ser´a 1 se a proposic¸˜ao ´e verdadeira e
0 caso contr´ario. Por exemplo,

> a^2==b^2
ans = 0
> a^2!=b^2
ans = 1

Usou-se1 != para indicar /=.


Voltemos ent˜ao ao nosso exemplo com as matrizes. Recorde que se pretende
averiguar sobre a igualdade AX = I2 . O Octave tem uma func¸˜ao pr´e-definida que
constr´oi a matriz identidade de ordem n: eye(n). Por exemplo, a matriz I3 ´e
obtida com
> eye(3)
ans =

1
De facto poder-se-ia ter usado tamb´em ∼=, estando esta palavra tamb´em em consonˆancia com a sintaxe
do MatLab.
2 CAP CA´ LCULO

1 0 0
0 1 0
0 0 1

Portanto, a verificac¸˜ao de AX = I2 ´e feita com:

> A*X==eye(2)
ans =

1 1
1 1
A resposta veio em forma de tabela 2 × 2: cada entrada indica o valor boleano da
igualdade componente a componente. Suponha que as matrizes tˆem ordem
suficientemente grande por forma a tornar a detecc¸˜ao de um 0 morosa e sujeita a
erros. Uma alternativa ser´a fazer

> all(all(A*X==eye(2)))
ans = 1

Teorema 2.2.3. Dadas duas matrizes U e V de ordem n, enta˜o U V ´e invert´ıvel e

(UV )−1 = V −1U −1.

Demonstrac¸a˜o. Como

(UV ) V −1U −1 = U V V −1 U −1 = UInU −1 = UU −1


= In

V −1U −1 (UV ) = V −1 U −1U V = V −1InV = V −1V = In,


segue que U V ´e invert´ıvel e a sua inversa ´e V −1 U −1 .

Ou seja, o produto de matrizes invert´ıveis ´e de novo uma matriz invert´ıvel, e


iguala o produto das respectivas inversas por ordem inversa.
Duas matrizes A e B, do mesmo tipo, dizem-se equivalentes, e denota-se por A ∼ B, se
existirem matrizes U, V invert´ıveis para as quais A = U BV . Repare que se A ∼ B
ent˜ao B ∼ A, j´a que se A = U BV , com U, V invert´ıveis, ent˜ao tamb´em B = U
−1
AV −1 . Pelo teorema anterior, se A ∼ B ent˜ao A ´e invert´ıvel se e s´o se B ´e invert
´ıvel.
As matrizes A e B s˜ao equivalentes por linhas se existir U invert´ıvel tal que A = U B. E
´
´obvio que se duas matrizes A e B s˜ao equivalentes por linhas, ent˜ao s˜ao equivalentes, ou seja,
A ∼ B.

Se uma matriz U for invert´ıvel, ent˜ao a sua transposta U T tamb´em ´e invert´ıvel e U T


−1 T T
= U −1 . A prova ´e imediata, bastando para tal verificar que U −1
satisfaz as
condic¸˜oes de inversa, seguindo o resultado pela unicidade.
2.2. OPERAC¸ O˜ ES 2

Segue tamb´em pela unicidade da inversa que


−1
A−1 = A,

isto ´e, que a inversa da inversa de uma matriz ´e a pr´opria matriz.

Octave " 1 2
Fac¸amos a verificac¸˜ao desta propriedade com a matriz A = :
#4 3
> B=A’;
> inv(A’)==(inv(A))’
ans =

1 1
1 1

Vimos, atr´as, que o produto de matrizes triangulares inferiores [resp. superiores] ´e de


novo uma matriz triangular inferior [resp. superior]. O que podemos dizer em relac¸˜ao
`a inversa, caso exista?
Teorema 2.2.4. Uma matriz quadrada triangular inferior [resp. superior] ´e invert´ıvel
se e so´ se tem elementos diagonais na˜o nulos. Neste caso, a sua inversa ´e de novo
triangular inferior [resp. superior].
Antes de efectuarmos a demonstrac¸˜ao, vejamos a que se reduz o resultado para matrizes
"a 0 #
11
(quadradas) de ordem de 2, triangulares inferiores. Seja, ent˜ao, L =
a21 a22 , que
"
#
assumimos invert´ıvel. Portanto, existem x, y, z, w ∈ K para os quais
I2 x y , donde
=L z

w
segue, em particular, que a11x = 1, e portanto a11 0 e x = a11 . Assim, como a11y = 0 e
a11 /= 0 tem-se que y = 0. Ou seja, a inversa ´e triangular 1inferior. Como y = 0, o
produto da segunda linha de L com a segunda coluna da sua inversa ´e a22 w, que iguala
(I)22 = 1.
a
Portanto, a22 0 e w = 111. O produto da segunda linha de L com a primeira coluna da sua
inversa ´e a21a1 1 + a22 z, que iguala (I)21 = 0. Ou seja, z = −a11 a21 .
1 a22
Demonstrac¸a˜o. A prova ´e feita por induc¸˜ao no nu´mero de linhas das matrizes quadradas.
Para n = 1 o resultado ´e trivial. Assuma, agora, que as matrizes de ordem n
triangulares inferiores invert´ıveis s˜ao exactamente aquelas que tˆem elementos diagonais
n˜ao nulos. Seja A = [aij ] uma matriz triangular inferior, quadrada de ordem n + 1.
Particione-se a matriz
por blocos da forma seguinte:
" #
a11 O
b A˜ ,
2 CAP CA´ LCULO

onde b ´e n × 1, O ´e 1 × n e A˜ ´e n × n triangu"lar inferio#r.


x Y
Por um lado, se A ´e invert´ıvel ent˜ao inversa de A, com x1×1, Y1×n, Zn×1,
Z W
Wn×n. Logo a11x = 1 e portanto a11
0 e x = a11 . Assim, como a11Y = 0 e a11 0
1

x = 0.= O10 ˜ , que iguala


"tem-se qu#ea"
11Y O # blo"co, tem-se
(2, 2)#que
do tamb´em
produto ´e
W ent˜ao
A˜ = InA
, eW
portanto A˜ ´e Iinvert
n.
Sabendo
Z W que b A˜ 0 In
´ıvel, A˜)−1 =
n × n, com ( W . Usando a hip´otese de induc¸ao˜ aplicada a A˜, os elementos
˜
diagonais
de A, que s˜ao os elementos diagonais de A `a excepc¸˜ao de a11 (que j´a mostr´amos ser
n˜ao nulo) s˜ao n˜ao nulos.
Reciprocamente, suponha que os elementos diagonais de A s˜ao n˜ao nulos, e portanto que os
elementos diagonais de A˜ "s˜ao n˜ao nulos. A hi#p´otese de induc¸˜ao garante-nos a
1
a11 0
de A˜. Basta verificar ´e a inversa de
invertibilidade — 1
A ˜
que ˜ −1
A a1 b −1
1
" 0 1
Para finalizar esta secc¸˜ao, e como motivac¸˜ao, considere a matriz V = . Esta
# −1 0
matriz ´e invert´ıvel, e V −1 = V T (verifique!). Este tipo de matrizes denominam-se por
or- togonais. Mais claramente, uma matriz ortogonal ´e uma matriz (quadrada) invert
´ıvel, e cuja inversa iguala a sua transposta. De forma equivalente, uma matriz A invert
´ıvel diz-se ortogonal se AAT = AT A = I.

Teorema 2.2.5. 1. A inversa de uma matriz ortogonal ´e tamb´em ela ortogonal.

2. O produto de matrizes ortogonais ´e de novo uma matriz ortogonal.

Demonstrac¸a˜o. (1) Seja A uma matriz ortogononal, ou seja, para a qual a igualdade AT = A−1
−1 T
´e v´alida. Pretende-se mostrar que A−1 ´e ortogonal; ou seja, que A−1 = A−1 . Ora
−1T
−1−1
−1
(2) SejamT A, B matrizes
A ortogonais. Em particular s˜ao matrizes invert´ıveis, e logo
AB ´e invert´ıvel. Mais,
=A = A .
(AB)−1 = B−1A−1 = BT AT = (AB)T .

Imp˜oe-se aqui uma breve referˆencia aos erros de arredondamento quando se recorre a um
" √ √ #
2 2
sistema computacional num´erico no c´alculo matricial. Considere a matriz A 2√
2
√2
2 .
— 2 2
= A matriz ´e ortogonal j´a que AAT = AT A = I2 .

Octave
Definamos a matriz A no Octave:
2.2. OPERAC¸ O˜ ES 2

> A=[sqrt(2)/2 sqrt(2)/2; -sqrt(2)/2 sqrt(2)]


A =

0.70711 0.70711
-0.70711 1.41421
Verifique-se se AAT = AT A:
> all(all(A*A’==A’*A))
ans = 0
A proposic¸˜ao ´e falsa! Calcule-se, ent˜ao, AAT − AT A:
> A*A’-A’*A
ans =

0.0000e+00 -8.5327e-17
-8.5327e-17 0.0000e+00

E´ premente alertar para o facto de erros de arredondamento provocarem


afirmac¸˜oes falsas. Teste algo t˜ao simples como
> (sqrt(2))^2==2

A transconjugada de A ´e a matriz A∗ = A¯T . Ou seja, (A∗ )ij = (A)ji . Esta diz-se herm´ıtica
(ou hermitiana) se A∗ = A.
Sejam A, B matrizes complexas de tipo apropriado e α ∈ C. Ent˜ao

1. (A∗)∗ = A;

2. (A + B)∗ = A∗ + B∗;

3. (αA)∗ = α¯A∗ ;

4. (AB)∗ = B∗A∗;

5. (An)∗ = (A∗)n, para n ∈ N;

A prova destas afirmac¸˜oes ´e an´aloga `a que apresent´amos para a transposta, e


fica ao cuidado do leitor.
Uma matriz unita´ria ´e uma matriz (quadrada) invert´ıvel, e cuja inversa iguala a
sua transconjugada. De forma equivalente, uma matriz A invert´ıvel diz-se unit´aria se
AA∗ = A∗A = I.
Teorema 2.2.6. 1. A inversa de uma matriz unita´ria ´e tamb´em ela unita´ria.

2. O produto de matrizes unita´rias ´e de novo uma matriz unita´ria.


2 CAP CA´ LCULO

Remetemos o leitor ao que foi referido no que respeitou as matrizes ortogonais para poder
elaborar uma prova destas afirmac¸˜oes.

2.3 Um resultado de factoriza¸c˜ao de matrizes

2.3.1 Matrizes elementares

Nesta secc¸˜ao, iremos apresentar um tipo de matrizes que ter˜ao um papel relevante em
resul- tados vindouros: as matrizes elementares. Estas dividem-se em trˆes tipos:

 
1
 .. 
. 0
 1 
1
 a  ←k
a 0; Dk(a) =  
..
 0 
. 1


k


 1 0
.. 
 .

 1 ··· a
i j; Eij (a) = .. ←i
 . .

 1
.. 
0 
. 1


j
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 2

 
1
 .. 

 . 1 
←i
 0 1 
 1 ··· 
Pij =
 .. 
 
.
 1  ←j
 1 0 
 
1 ..
1
.

↑ ↑
i j
Ou seja, as matrizes elementares de ordem n s˜ao obtidas da matriz identidade In fazendo:

• para Dk(a), substituindo a entrada (k, k) por a;

• para Eij(a), substituindo a entrada (i, j) por a;

• para Pij, trocando as linhas i e j (ou de outra forma, as colunas i e

j). E´ ´obvio que Dℓ (1) = Eij (0) = Pkk = In .


A primeira propriedade que interessa referir sobre estas matrizes ´e que s˜ao invert´ıveis.
Mais, para a, b ∈ K, a /=
0, 1
(Dk (a)) = Dk
−1

a
(Eij (b))−1 = Eij (−b), para i /= j
−1
(Pij ) = Pij

A segunda, relevante para o que se segue, indica outro o modo de se obter as matrizes
Dk (a) e Eij (a) da matriz identidade, cujas linhas s˜ao denotadas por l1 , l2 , . . . , ln :

• para Dk(a), substituindo a linha k por a lk;

• para Eij(a), substituindo a linha i por li + a lj.

Aplicando o mesmo racioc´ınio, mas considerando as colunas c1 , c2 , . . . , cn da matriz iden-


tidade:

• para Dk(a), substituindo a coluna k por a ck;

• para Eij(a), substituindo a coluna j por cj + a ci.


3 CAP CA´ LCULO

Octave
Considere as matrizes 3 × 3 elementares D = D2(5); E = E23(3); P = P13. Recorde que a
matriz
I3 ´e dada por eye(3).

> D=eye(3);
> D(2,2)=5;
> D
D=

1 0 0
0 5 0
0 0 1

> E=eye(3);
> E(2,3)=3;
> E
E=

1 0 0
0 1 3
0 0 1

> I3=eye(3);
> P=I3;
> P(1,:)=I3(3,:); P(3,:)=I3(1,:);
> P
P=

0 0 1
0 1 0
1 0 0

Nesta u´ltima matriz, as instruc¸˜oes P(1,:)=I3(3,:); P(3,:)=I3(1,:); indicam que


a primeira linha de P ´e a terceira de I3 e a terceira de P ´e a primeira de I3 .

O que sucede se, dada uma matriz A, a multiplicarmos `a esquerda ou `a direita2 por uma
Recorde que o produto matricial n˜ao ´e, em geral, comutativo, pelo que ´e relevante a distin¸c˜ao
2

dos dois casos.


2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 3

matriz elementar? Vejamos com alguns exemplos, tomando



4 2 0
A =  1 1 0  , P = P12, E = E31(−2), D = D2

21
2 −1 4 .

Vamos usar o Octave para determinar o produto DEPA. Para tal, faremos primeiro PA, a
este produto fazemos a multiplicac¸˜ao, `a esquerda, por E, e finalmente ao produto
obtido a multiplicac¸˜ao por D, de novo `a esquerda.

Octave
Vamos ent˜ao definir as matrizes A,P,E,D no Octave:
> A=[4 2 0; 1 1 0; 2 -1 4];
> I3=eye(3);
> E=I3; E(3,1)=-2;
> P=I3; P(1,:)=I3(2,:); P(2,:)=I3(1,:);
> D=I3; D(2,2)=1/2;
Fac¸amos o produto P A:
> P*A
ans =

1 1 0
4 2 0
2 -1 4

Qual a relac¸˜ao entre A e P A? Repare que ocorreu uma troca da primeira e da


segunda linha de A. Que por sinal foram as mesmas trocas que se efectuaram a I3
de forma a obtermos P12.
A` matriz P A, multiplicamo-la, `a esquerda, por E:
> E*P*A
ans =

1 1 0
4 2 0
0 -3 4

> D*E*P*A
ans =

1 1 0
3 CAP CA´ LCULO

2 1 0
0 -3 4

Uma matriz permuta¸ca˜o de ordem n ´e uma matriz obtida de In `a custa de trocas de


suas linhas (ou colunas). Aqui entra o conceito de permutac¸˜ao. Uma permutac¸˜ao no
conjunto Nn = {1, 2, . . . , n} ´e uma bijecc¸˜ao (ou seja, uma aplicac¸˜ao
simultaneamente injectiva e so-
brejectiva) de Nn em Nn. Uma permutac¸˜ao ϕ : Nn → Nn pode ser representada pela tabela
!
1 2 ··· n
ϕ(1) ϕ(2) · · · ϕ(n) . Para simplificar a escrita, ´e habitual omitir-se a primeira linha,
j´a que a posic¸˜ao da imagem na segunda linha indica o (u´nico) objecto que lhe deu origem.
Definic¸˜ao 2.3.1. O conjunto de todas as permuta¸co˜es em Nn ´e denotado por Sn e
denomi- nado por grupo sim´etrico.
Como exemplo, considere a permutac¸˜ao γ = (2, 1, 5, 3, 4) ∈ S5 . Tal significa que

γ(1) = 2, γ(2) = 1, γ(3) = 5, γ(4) = 3, γ(5) = 4.

Note que Sn tem n! = n(n−1)(n−2) . . . 2·1 elementos. De facto, para γ = (i1 , i2 , . . . , in ) ∈


Sn, i1 pode tomar n valores distintos. Mas i2 apenas pode tomar um dos n − 1 restantes,
j´a que n˜ao se podem repetir elementos. E assim por diante. Obtemos ent˜ao n!
permutac¸˜oes distintas.
Dada a permutac¸˜ao ϕ = (i1 , i2 , . . . , in ) ∈ Sn , se 1 ≤ j < k ≤ n e ij > ik ent˜ao ij >
ik
diz-se uma inversa˜o de ϕ. Na permutac¸˜ao γ = (2, 1, 5, 3, 4) acima exemplificada
existem trˆes invers˜oes, j´a que γ(1) > γ(2), γ(3) > γ(4), γ(3) > γ(5). O sinal de uma
permutac¸˜ao
ϕ, denotado por sgn(ϕ), toma o valor +1 caso o nu´mero de invers˜oes seja par, e −1
caso contr´ario. Portanto, sgn(γ) = −1. As permutac¸˜oes com sinal +1 chamam-se
permuta¸co˜es pares (e o conjunto por elas formado chama-se grupo alterno, An ), e as
cujo sinal ´e −1
denominam-se por permuta¸co˜es ´ımpares.
Uma transposic¸a˜o ´e uma permutac¸˜ao que fixa todos os pontos `a excepc¸˜ao de
dois. Ou seja, τ ∈ Sn ´e uma transposic¸˜ao se existirem i, j distintos para os quais τ
(i) = j, τ (j) = i e τ (k) = k para todo o k diferente de i e j. Verifica-se que toda a
permutac¸˜ao ϕ se pode escrever como composic¸˜ao de transposic¸˜oes τ1 , τ2 , . . . , τr .
Ou seja, ϕ = τ1 ◦ τ2 ◦ · · · ◦ τr . Esta decomposic¸˜ao n˜ao ´e u´nica, mas quaisquer duas
decomposic¸˜oes tˆem a mesma paridade
de transposic¸˜oes. Ou seja, se existe uma decomposic¸˜ao com um nu´mero par [resp.
´ımpar] de intervenientes, ent˜ao qualquer outra decomposic¸˜ao tem um nu´mero par
[resp. ´ımpar] de transposic¸˜oes. Mais, esse nu´mero tem a mesma paridade da do nu
´mero de invers˜oes. Por consequˆencia, o sinal de qualquer transposic¸˜ao ´e −1. A
permutac¸˜ao γ definida atr´as pode-se decompor como (2, 1, 5, 3, 4) = (2, 1, 5, 3, 4) ◦ (1, 2,
5, 4, 3) ◦ (1, 2, 4, 3, 5).
O conjunto das permutac¸˜oes Sn pode ser identificado com o conjunto das matrizes
per- mutac¸˜ao de ordem n, em que a composic¸˜ao de permutac¸˜ao ´e de uma forma natural
identificado
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 3

com o produto de matrizes. A matriz permutac¸˜ao P associada `a permutac¸˜ao γ ´e


a matriz obtida de I5 realizando as trocas de linhas segundo γ. Para f´acil compreens˜ao,
vamos recorrer ao Octave.

Octave

> I5=eye(5);
> P=I5([2 1 5 3 4], :)
P =

0 1 0 0 0
1 0 0 0 0
0 0 0 0 1
0 0 1 0 0
0 0 0 1 0
Na primeira linha de P surge a segunda de I3, na segunda a primeira, na terceira a
quinta de
I3, e assim por diante.

De facto, toda a matriz permutac¸˜ao pode-se escrever como produto de matrizes da


forma Pij , tal como definidas atr´as. Tal ´e consequˆencia da existˆencia de uma
decomposic¸˜ao da permutac¸˜ao em transposic¸˜oes. Note que as transposic¸˜oes se
identificam com as matrizes Pij . Voltemos ao Octave e ao exemplo acima:

Octave
Em primeiro lugar, definamos as matrizes associadas `as transposic¸˜oes, e fac¸amos o seu
produto:

> P1=I5([2 1 3 4 5], :);


> P2=I5([1 2 5 4 3], :);
> P3=I5([1 2 4 3 5], :);
> P1*P2*P3
ans =

0 1 0 0 0
1 0 0 0 0
0 0 0 0 1
0 0 1 0 0
0 0 0 1 0

O produto iguala a matriz P associada `a permutac¸˜ao escolhida:


3 CAP CA´ LCULO

> all(all(P==P1*P2*P3))
ans = 1

Operac¸o˜es elementares sobre as linhas de A s˜ao as que resultam pela sua


multiplicac¸˜ao
`a esquerda por matrizes elementares. Ou seja, s˜ao operac¸˜oes elementares por linhas
de uma matriz
• a troca de duas linhas,
• a multiplicac¸˜ao de uma linha por um escalar n˜ao nulo,
• a substituic¸˜ao de uma linha pela sua sua com um mu´ltiplo de outra linha.
De forma an´aloga se definem as operac¸˜oes elementares sobre as colunas de uma matriz,
sendo a multiplicac¸˜ao por matrizes elementares feita `a direita da matriz. Na pr
´atica, tal resulta em substituir a palavra “linha” pela palavra “coluna” na descric¸˜ao
acima.
 
2 4 6
 
Considere a matriz A =  −1 1 04 1  . Em primeiro lugar, e efectuando
2 operac¸˜oes
elementares nas linhas de A, tentaremos obter zeros por debaixo da entrada (A)11. Ou seja,

2 4 6
 
pretendemos obter algo como  0 ? ?  . Substitua-se a segunda linha, l2, pela sua soma
0 ? ?
com o sim´etrico de metade da primeira. Ou seja,
  
2 4 6 −−−−− → 2 4 6
 1  
 1 4 2  l2 ← l2 − l1  0 2 −1 
−1 0 1 2
−1 0 1  
1 0 0
 
Tal corresponde a multiplicar `a esquerda a matriz A por E21 (− 1 ) =  − 1 1 0 . Fa¸amc
2 2 os 
0 0 1
o mesmo racioc´ınio para a terceira —−−−− → 
linha:  1 2 4 6
2 4 6 −−−−− → 2 4  
 1 4 2  l2 ← l2 − l11  0 6
2 −1  l3 ← l3 + l1  0 2 −1 


−1 0 1 2 −1 0 1 2 0 2 4

Tal correspondeu a multiplicar o produto obtido no passo anterior, `a esquerda, por E231 ( 1 ).
Ou seja, e at´e ao momento, obteve-se
 
2 4 6
1 1  
E31( )E21(− )A =  0 2 −1  = B.
2 2 0 2 4
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 3
Todos os elementos na primeira coluna de B, `a excepc¸˜ao de (B)11 , s˜ao nulos.
Concentremo- nos agora na segunda coluna, e na segunda linha. Pretendem-se efectuar
operac¸˜oes elemen-
 
2 4 6
 
 uma matriz
tares nas linhas de B por forma a obter  da forma  0 2 −1  . Para tal,
0 0 ?
 −− − −→  
2 4 6 2 4 6

0 2 0 0
0 2 −1  l3 ← l3 − l2  0 2 −1  = U.
Ou seja, multiplicou-se B, `a esquerda, pela matriz E32 (−1). Como B = E31 ( 1 )E21 (− 1 )A e
2 2
E32(−1)B = U podemos concluir que
 
1 1 2 4 6
 
E32(−1)E31( )E21(− )A = U =  0 2 −1 
2 2 0 0 3
Repare que U ´e uma matriz triangular superior, e que neste exemplo tem elementos
diagonais n˜ao nulos, e portanto ´e uma matriz invert´ıvel. Como as matrizes
elementares s˜ao 2 invert´ıveis
2 e (E32 (−1)E31 ( 1 )E21 (− 1 ))−1 U = A, segue que a matriz A
´e tamb´em ela invert´ıvel. Note
ainda que (E32 (−1)E31 ( 21 )E21 (− 21 ))−1 = E21 ( 21 )E31 (− 21 )E32 (1). A estrat´egia descrita acima
aplicada `a matriz A ´e denominada por algoritmo de eliminac¸a˜o de Gauss. O resultado
final foi a factorizac¸˜ao A = LU , onde U ´e uma matriz triangular superior (veremos mais
adiante que de facto pertence a uma subclasse desse tipo de matrizes) e L ´e uma matriz
invert´ıvel triangular inferior (por ser a inversa de produto de matrizes invert´ıveis
triangulares inferiores). Nem sempre ´e poss´ıvel percorrer estes passos do algoritmo, para
uma matriz dada arbitrariamente. Veremos, na pr´oxima secc¸˜ao, que modificac¸˜oes se
realizam na estrat´egia apresentada acima por forma a que se garanta algum tipo de
factorizac¸˜ao.

Octave
Consideremos a matriz A dada por
> A=[2 4 6;2 2 2;-1 0 1];
A` segunda linha de A soma-se o sim´etrico da primeira linha:
> I3=eye(3); E21=I3; E21(2,1)=-1;
> A2=E21*A
A2 =

2 4 6
0 -2 -4
-1 0 1
3 CAP CA´ LCULO

A` terceira, somamos a primeira multiplicada


2
por 1
:

> E31=I3; E31(3,1)=0.5;


> A3=E31*A2
ans =

2 4 6
0 -2 -4
0 2 4

Finalmente, `a terceira somamos a segunda linha:

> E32=I3; E32(3,2)=1;


> A4=E32*A3
A4 =

2 4 6
0 -2 -4
0 0 0

A matriz A4 obtida ´e triangular superior, com um elemento diagonal nulo. Logo, a


matriz inicial
A n˜ao ´e invert´ıvel.
O Octave cont´em o algoritmo numa sua rotina:

> [l,u,p]=lu(A)
l =

1.00000 0.00000 0.00000


1.00000 1.00000 0.00000
-0.50000 -1.00000 1.00000

u=

2 4 6
0 -2 -4
0 0 0

p=

1 0 0
0 1 0
0 0 1
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 3

Aqui, u indica a matriz final do algoritmo e l a inversa do produto das matrizes


elementares da forma Eij(α) envolvidas:
> (E32*E31*E21)^-1
A matriz p ´e neste caso a identidade, e n˜ao tem nenhum papel. Mais `a frente
veremos a im- portˆancia desta matriz (quando n˜ao ´e a identidade).
Obtivemos, ent˜ao, a factorizac¸˜ao lu=A.

O exemplo escolhido foi, de facto, simples na aplicac¸˜ao. Alguns passos podem


n˜ao ser poss´ıveis, nomeadamente o primeiro. Repare que o primeiro passo envolve uma
divis˜ao (no nosso caso, dividimos a linha 1 por (A)11 ). A prop´osito, os elementos-chave na
divis˜ao, ou de forma mais clara, o primeiro elemento n˜ao nulo da linha a que vamos tomar
um seu mu´ltiplo denomina-se por pivot. Ora esse pivot tem que ser n˜ao nulo. E se for
nulo? Nesse caso, trocamos essa linha por outra mais abaixo que tenha, nessa coluna,
um elemento n˜ao nulo. E se todos forem nulos? Ent˜ao o processo terminou para essa
coluna e consideramos a coluna seguinte. Apresentamos dois exemplos, um para cada um
dos casos descritos:
0 1 2
1 1 2 0 1 
 1
  ; 0 7 6 
    .
 
−3 2 9 0 1 −2
No primeiro caso, a troca da primeira linha pela linha dois ou trˆes resolve o problema. No
segundo caso, aplicamos a estrat´egia a partir da segunda coluna. Recorde que a troca
da linha i pela linha j ´e uma operac¸˜ao elementar de linhas que corresponde `a
multiplicac¸˜ao, `a esquerda, por Pij.
Apresentamos, de seguida, o algoritmo de eliminac¸a˜o de Gauss de uma forma mais formal.

2.3.2 O Algoritmo de Elimina¸c˜ao de Gauss


O Algoritmo de Eliminac¸a˜o de Gauss, (abrev. AEG), segue os passos que em baixo se
des- crevem:
Seja A uma matriz m × n n˜ao nula.
1. Assuma que (A)11 /= 0. Se tal n˜ao acontecer, ent˜ao troque-se a linha 1 com uma
linha i para a qual (A)i1 =/ 0. Ou seja, multiplique A, `a esquerda, por P1i . Para
simplificar a notac¸˜ao, A denotar´a tanto a matriz original como a obtida por
troca de duas das suas linhas. A (A)11 chamamos pivot do algoritmo. Se todos os
elementos da primeira coluna s˜ao nulos, use 2.

2. Se a estrat´egia indicada no passo 1 n˜ao for poss´ıvel (ou seja, os elementos da


primeira coluna s˜ao todos nulos), ent˜ao aplique de novo o passo 1 `a submatriz
obtida de A retirando a primeira coluna.

3. Para i = 2, . . . , m, e em A, substitua a linha i pela sua soma com um mu´ltiplo


da linha 1 por forma a que o elemento obtido na entrada (i, 1) seja 0. Tal corresponde a
(A)
multiplicar a matriz A, `a esquerda, por Ei1 −(A)11 i1 .
3 CAP CA´ LCULO

4. Repita os passos anteriores `a submatriz da matriz obtida pelos passos descritos, a


que se retirou a primeira linha e a primeira coluna.

Ap´os se aplicar o passo 3 em todas as linhas e na primeira coluna, e supondo que (A)11 /=
0, a matriz que se obtem tem a forma seguinte:

(A)11 (A)12 (A)13 (A)1n 
 0 ? ? ?

0 ? ? ? .
. ? ? ? 
 
0 ? ? ?
Ou seja, " e por ope# ra¸oes˜c elementares de linhas, podemos obter de A uma matriz com a

forma (A)11∗ . O algoritmo continua agora aplicado `a matriz A˜ segundo os pas-


0A ˜
sos 1, 2 e 3.Not e que as operac¸˜oes elementares nas linhas de A˜ s˜ao tamb´em
" #
operadas (A)11∗
0 A˜
elas operac¸˜oes elementares realizadas nas linhas " . As operac¸˜oes elementa-
de (A˜ #
orma
˜
res efectuadas em A d˜ao origem a uma matriz da )
0 11 ∗ , onde assumimos
f ˜
A
de " A˜
(A)11∗
(A˜)11 /= 0. Essas opera¸oes˜c elementares aplicadas 0 #
`as linhas d˜ao lugar `a
 
 (A)11 . . . (A) 1m

matriz 0 ˜
(A) ∗  . Note que se assumiu que as entradas (i, i) s˜ao n˜ao nulas,
 11

0 0 A
˜
ou que existe uma troca conveniente de linhas por forma a se contornar essa quest˜ao. Como ´e
´obvio, tal pode n˜ao ser poss´ıvel. Nesse caso aplica-se o passo 2. Ou seja, e quando tal
acontece, tal corresponde `a n˜ao existˆencia de pivots em colunas consecutivas. Como

exemplo, considere 
2 2 2 2
 
a matriz M =  2 2 2 0 . Multiplicando esta matriz, `a esquerda, por E31 (− 12 )E21 (−1),
1 1 0 1
ou seja, substiuindo a linha 2 pela sua soma com o sim´etrico da linha 1, e a linha 3 pela
 
2 2 2 2
 
sua soma com metade do sim´etrico da linha 1, obtemos a matriz 2 M = 0 0 −2  .
0 0 −1 0
" 0 0 −2
Aplicamos agora o algoritmo `a submatriz M = # . Note que 0a esta submatriz
˜ 0 −1 0
teremos que aplicar (2) por impossibilidade de se usar (1); de facto, n˜ao h´a elementos
n˜ao

nulos na primeira coluna de M˜" . Seja, en#t˜ao, M˜2 a matriz obtida de M˜ a que
meira a pri- ou seja, M˜2
retiroucoluna; 0 −2 .
necess´ario fazer a troca das linhas por forma
= −1 0 E´
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 3
a obtermos um elemento n˜ao nulo que ter´a as func¸˜oes de pivot. Essa troca de linhas ´e
uma
4 CAP CA´ LCULO
 
2 2 2 2
 
operac¸˜ao elementar tamb´em na matriz original 2 M = 0 0 −2  . Tal corresponde
0 −1 0
a multiplic´a-la, `a esquerda, por P23 . Repare que, sendo
0 0os elementos nas linhas 2 e 3
e nas colunas 1 e 2 nulos, a troca das linhas de facto apenas altera as entradas que
est˜ao simulta- neamente nas linhas envolvidas e nas entradas `a direita do novo pivot.
 assim, a
Obtemos, 
2 2 2 2
 
matriz  0 0 −1 0  . A matriz obtida tem uma particularidade: debaixo de cada pivot
0 0 0 2
todos os elementos s˜ao nulos.

Octave
I3 indica a matriz identidade de ordem 3.
> M=[2 2 2 2;2 2 2 0;1 1 0 1]
> P23=I3([1 3 2],:);
> E31=I3; E31(3,1)=-0.5;
> E21=I3; E21(2,1)=-1;
> P23*E31*E21*M
U=

2 2 2 2
0 0 -1 0
0 0 0 -2

Como foi referido, a matriz obtida por aplicac¸˜ao dos passos descritos no Algoritmo
de Eliminac¸˜ao de Gauss tem uma forma muito particular. De facto, debaixo de cada pivot
todos os elementos s˜ao nulos. A esse tipo de matriz chamamos matriz escada (de
linhas). Uma matriz A = [aij ] ´e matriz escada (de linhas) se

(i) se aij 0 com aik = 0, para k < j, ent˜ao alk = 0 se k ≤ j e l > i;

(ii) as linhas nulas surgem depois de todas as outras.

Sempre que o contexto o permita, diremos matriz escada para significar matriz escada de
linhas. 
2 2 2 2
A matriz U =  0 0 −1 0  ´e uma matriz escada (de linhas) que se obteve de M
por 0 0 0 2
aplicac¸˜ao dos passos (1)– E´ ´obvio que uma matriz escada ´e triangular superior, mas o
(4). "
0 1
rec´ıproco n˜ao ´e v´alido em geral. Como exemplo, considere a matriz
# .
0 1
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 4

Teorema 2.3.2 (Factorizac¸˜ao P A = LU ). Dada uma matriz A, existem matrizes P


per- muta¸ca˜o, L triangular inferior com 1’s na diagonal principal e U matriz escada para
as quais PA = LU.
Ou seja, a matriz A iguala P −1 LU . Portanto, toda a matriz ´e equivalente por
linhas a uma matriz escada de linhas.
Antes de procedermos `a prova deste resultado, abrimos um parˆenteses para apresentarmos
dois exemplos que servem de motivac¸˜ao ao lema que se segue.
 
0 3 −2
 
Considere a matriz A =  −1 3 0  . A troca da primeira com a segunda linhas
 1 3 −5 
−1 3 0
 
d´a origem `a matriz A˜ 0 3 −2  , a qual, e usando o AEG descrito atr´as,
=   satisfaz
−1 3 1 0 3 −5
 
E32 (−3)E31 (2)A˜ =  0 3 −2  . Ou seja, existem matrizes P permutac¸˜ao, L
inferior triangular
 com 1’s na diagonal e U matriz escada para as quais PA = LU . Para tal, basta  tomar
0 1 0 −1 3 0
P =  1 0 0  , L = (E32 (−3)E31 (2))−1 = E31 (−2)E32 (3), e U =  0 3 −2   .
0 0 1   0 0 1 
1 1 1 1 1 1
   
1 0 0 −1
Considere agora a matriz M =  0 0 1 . Ora E31(−1)M =  0 0 1 , o que
forc¸a a troca da segunda pela terceira linha. Obtemos, assim, P23 E31 (−1)M = 1 1 1 
 0 −1 0  ,
0 0 1 


que ´e uma matriz escada. Neste caso, como se obtˆem as matrizes P, L, U do teorema? Ao
contr´ario do exemplo anterior, a realizac¸˜ao matricial das operac¸˜oes elementares por
linhas do AEG n˜ao nos fornece, de forma imediata, essa factorizac¸˜ao. No entanto, poder-
se-ia escrever
   
1 1 1 1 1 1
E31 (−1)M = P23  0 0 −1  −1 
0 01 , j´a que P 2 = P23 , e portanto M = E31 (1)P23  0 0 −1 0 01 ,

3
pois E31 (−1)−1 = E31 (1). Note que E31 (1)P23 P23 E31 (1). N˜ao obstante, repare

 que 1 1  1
E31(1)P23 = P23E21(1), donde M = P23E21(1) 
0 −1 0  , e portanto PA = LU , com
 0 0 1
1 1 1
P = P23, L = E21(1) e U =  0 −1 0  .
 
0 0 1
Lema 2.3.3. Para i, k, l > j, e para todo o a ∈ K, ´e va´lida a igualdade Eij (a)Pkl = Pkl Elj (a).

Demonstrac¸a˜o. Se k i, entao˜ a igualdade ´e ´obvia.


4 CAP CA´ LCULO

Suponha que k = i. Pretende-se mostrar que Eij(a)Pil = PilElj(a), com i, l > j. Sendo
PilElj(a) a matriz obtida de Elj(A) trocando as linhas i e l, e visto a linha l de Elj(a) ser

[0 ··· 0 a 0 ··· 0 1 0 ··· 0]


↑ ↑
j l
ent˜ao a linha i de Pil Elj (a) ´e

[0 · · ·
0 a 0 ··· 0 1 0 ··· 0]
↑ ↑ .
j l

Eij (a)Pil ´e a matriz obtida de Pil a que `a linha i se somou a linha j de Pil
multiplicada por a. Sendo a linha i de Pil

[0 · · · 0 ··· 0 1 0 ··· 0]

l

e a linha j de Pil , e j´a que j < i, l,

[0 · · · 0 ··· 0 1 0 ··· 0]

j
segue que a linha i de Eij (a)Pil ´e a soma

[0 · · · 0 ··· 0 1 0 ··· 0]+


a [0 · · · 0 ··· 0 1 0 ··· 0]


l
j
= [0 · · · 0 a 0 ··· 0 1 0 ··· 0]
↑ ↑
j l

Para k =/ i, a linha k de Eij (a)Pil ´e a linha k de Pil , sendo esta a linha k da


matriz identidade se k /= l, ou a linha i da identidade se k = l. Por sua vez, a linha k de
PilElj(a) ´e
a linha k da ientidade se k l, ou ´e a linha i de In se k = l.

Demonstrac¸a˜o do teorema 2.3.2. A prova segue da aplicac¸˜ao do algoritmo de


eliminac¸˜ao de Gauss, fazendo-se uso do lema para se obter a factorizac¸˜ao da forma
U = P LA, onde os pivots do algoritmo s˜ao o primeiro elemento n˜ao nulo de cada linha
(n˜ao nula) de U .

A caracter´ıstica de uma matriz A, denotada por car(A), por c(A) ou ainda por rank(A),
´e o nu´mero de linhas n˜ao nulas na matriz escada U obtida por aplicac¸˜ao do
Algoritmo de Eliminac¸˜ao de Gauss. Ou seja, e sabendo que toda a linha n˜ao nula de U
tem exactamente 1 pivot que corresponde ao primeiro elemento n˜ao nulo da linha, a caracter
´ıstica de A ´e o nu´mero
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 4

de pivots no algoritmo (ainda que o u´ltimo possa n˜ao ser usado, por exemplo, no caso de estar

2 2 2 2
na u´ltima linha). Note ainda que car(A) = car(U ). Por exemplo,  2 2 2 0  = 3, j´a
 
1 1 0 1
car que a matriz escada obtida desta tem 3 linhas n˜ao nulas.
Uma matriz quadrada A de ordem n diz-se na˜o-singular se car(A) = n. Ou seja, A
´e n˜ao-singular se forem usados n pivots no algoritmo de eliminac¸˜ao de Gauss. Uma
matriz ´e singular se n˜ao for n˜ao-singular.
Teorema 2.3.4. As matrizes na˜o-singulares sa˜o exactamente as matrizes invert´ıveis.

Demonstrac¸a˜o. Seja A uma matriz quadrada, e U a matriz escada obtida de A por


Gauss. Por um lado, se A ´e invert´ıvel, e como A ∼ U , segue que U ´e invert´ıvel,
quadrada. Como
U ´e triangular superior, n˜ao pode ter linhas nulas caso constr´ario teria um elemento
diagonal nulo, o que contraria a invertibilidade de U .
Por outro lado, se A ´e n˜ao-singular ent˜ao U n˜ao tem linhas nulas. Como cada
coluna de U tem no m´aximo 1 pivot, e existem n linhas e n pivots, ent˜ao cada linha
tem exactamente 1 pivot. Ou seja, os elementos diagonais de U s˜ao n˜ao nulos. Como U
´e triangular superior, segue que U ´e invert´ıvel, e portanto A ´e invert´ıvel visto A ∼ U
.

Teorema 2.3.5. Se A ´e uma matriz na˜o-singular, enta˜o existe uma matriz P


permuta¸ca˜o tal que P A ´e factoriza´vel, de forma u´nica, como P A = LU , onde L ´e
triangular inferior com 1’s na diagonal e U ´e uma matriz triangular superior com
elementos diagonais na˜o nulos.

Demonstrac¸a˜o. A existˆencia de tal factorizac¸˜ao ´e consequˆencia do teorema 2.3.2.


Repare que, sendo a matriz n˜ao singular, tal significa que os pivots esta˜o presentes em
todas as colunas de U . Assim, os elementos diagonais de U s˜ao os pivots, sendo estes
n˜ao nulos. Resta-nos provar a unicidade. Para tal, considere as matrizes L1, L2 triangulares
inferiores com 1’s na diagonal, e as matrizes U1, U2 triangulares superiores com elementos
diagonais diferentes de zero, matrizes essas que satisfazem PA = L1U1 = L2U2. Portanto,
L1U1 = L2U2, o que
implica, e porque L1 , U2 s˜ao invert´ıveis (porquˆe?), que U1 U2−1 L2 . Como L1 , U2 s˜ao,
1

= L
respectivamente, triangulares inferior e superior, ent˜ao 1 e U −1 s˜ao tamb´em triangulares
2
L
inferior e superior, respectivamente. Recorde que sendo a diagonal de L1 constituida por 1’s,
ent˜ao a diagonal da sua inversa tem tamb´em apenas 1’s. Daqui segue que L−1 1 L2 ´e
triangular inferior, com 1’s na diagonal, e que U1 U2−1 ´e triangular superior. Sendo estes
dois produtos iguais, ent˜ao L1−1 L2 ´e uma matriz diagonal, com 1’s na diagonal; ou
seja, L1−1 L2 = I, e portanto L1 = L2 . Tal leva a que L1 U1 = L1 U2 , o que implica, por
multiplicac¸˜ao `a esquerda por L1−1 , que U1 = U2 .

Octave
Ao se usar uma ferramenta computacional num´erica ´e necess´ario algum cuidado nos
erros de
4 CAP CA´ LCULO

truncatura. Como exemplo, considere a matriz A=[1E-5 1E5; 1E5


1E-5]. Esta matriz ´e
n˜ao-singular, e a u´nica (porque?ˆ ) matriz escada obtida, sem quaisquer trocas de
" #
linhas, ´e
10−5 105
0 10−5 − 1015 . Usando o Octave,
> format long
> E=eye (2); E(2,1)=-A(2,1)/A(1,1)
E =

1 0
-10000000000 1

> E*A
ans =

1.00000000000000e-05 1.00000000000000e+05
-1.45519152283669e-11 -1.00000000000000e+15

Repare que a matriz n˜ao ´e triangular inferior, e que o elemento (2, 2) dessa matriz
deveria ser
10−5 − 1015 e n˜ao −1015 como indicado.

> (E*A)(2,2)==-1E15
ans = 1
> -1E15==-1E15+1E-5
ans = 1

Para o Octave, n˜ao existe distinc¸˜ao entre os dois nu´meros, por erro de arrondamento.
Embora o AEG seja pouco eficiente neste tipo de quest˜oes, existem algumas
alterac¸˜oes que s˜ao efectuadas por forma a contornar este problema. Um
exemplo ´e a pivotagem parcial. Este algoritmo ser´a descrito com detalhe noutra
unidade curricular de MiEB. A ideia ´e, quando se considera um pivot na entrada
(i, j), percorrer os outros elementos que est˜ao por baixo dele e trocar a linha i com
a linha do elemento que seja maior, em m´odulo. Tal corresponde a multiplicar,
`a esquerda, por uma matriz da forma Pij . Esse algorimto est´a implementado no
Octave, sendo chamado pela instruc¸˜ao lu(A).

> [L,U,P]=lu (A)


L =

1.000000000000000 0.000000000000000
0.000000000100000 1.000000000000000

U =
2.3. UM RESULTADO DE FACTORIZAC¸ A˜ O DE 4

1.00000000000000e+05 1.00000000000000e-05
0.00000000000000e+00 1.00000000000000e+05

P=

0 1
1 0

A matriz L indica a inversa do produto das matrizes elementares, U ´e a matriz


escada, e P ´e a matriz permutac¸˜ao. Obtemos, deste forma, a factorizac¸a˜o P A =
LU .

> all(all(P*A==L*U))
ans = 1

2.4 Determinantes
2.4.1 Defini¸c˜ao
"a b #
Considere a matriz A =
c d e assuma
# a /= 0. Aplicando o AEG, obtemos a factorizac¸˜ao
" #"
1 0 a # " . Ou seja, a matriz A ´e equivalente por linhas `a matriz
a b
b =
−a 1 c c d 0 − bca + d
#
" a b
U 0 − abc + d , que ´e uma matriz triangular superior. Recorde que A ´e invert´ıvel se
=
e s´o se U for invert´ıvel. Ora, a matriz U ´e invert´ıvel se e s´oa se − bc + d /= 0, ou de
forma
equivalente, se ad − bc 0. Portanto, A ´e invert´ıvel se e s´o se ad − bc0.
Este caso simples serve de motivac¸˜ao para introduzir a no¸c˜ao de determinante de uma
matriz.
Na definic¸˜ao que se apresenta de seguida, Sn indica o grupo sim´etrico (ver Definic¸˜ao 2.3.1).

Definic¸˜ao 2.4.1. Seja A uma matriz quadrada de ordem n. O determinante de A,


denotado por det A ou |A|, ´e o escalar definido por
Σ sgn(σ) a
1σ(1) a2σ(2) · · · anσ(n).
σ∈Sn

Vejamos o "que resulta #da f´ormula quando consideramos matrizes 2 × 2 e matrizes 3 × 3.


a11
Seja A = . Neste caso, o grupo sim´etrico 2 tem apenas as
σ1 = (1 2) e σ2 =a12 (2 1), sendo que sgn(σ1) = 1 e que sgn(σ2) = permutac¸˜oes
−1. Recorde que σ1(1) =
1, σ1 (2) = 2, σ2 (1) = 2 e σ2 (2) = 1. Obtemos, ent˜ao, |A| = a11 a22 − a12 a21 .
2.4. 4

Figura 2.1: Esquema do c´alculo do determinante de matrizes de ordem 2


 
a11 a12 a13
Seja agora A =  a21 a22 a23  . Recorde que tem 6 elementos. No quadro seguinte,
 S3
a31 a32 a33
indicamos, respectivamente, a permutac¸˜ao σ ∈ S3 , o seu sinal, e o produto a1σ(1) a2σ(2) · · · anσ(n) .

Permutac¸˜ao σ ∈ sgn(σ) a1σ(1)a2σ(2) · · · anσ(n)


S3
(1 2 3) +1 a11a22a33
(2 3 1) +1 a12a23a31
(3 1 2) +1 a13a21a32
(1 3 2) −1 a11a23a32
(2 1 3) −1 a12a21a33
(3 2 1) −1 a11a22a31

Obtemos, assim,

|A| = a11a22a33 + a12a23a31 + a13a21a32


−a11a23a32 − a12a21a33 − a11a22a31

Para f´acil memorizac¸˜ao, pode-se recorrer ao esquema apresentado de seguida.

Figura 2.2: Esquema do c´alculo do determinante de matrizes de ordem 3, ou a Regra


de Sarrus

2.4.2 Propriedades
S˜ao consequˆencia da definic¸˜ao os resultados que de seguida apresentamos, dos quais
omitimos a demonstrac¸˜ao.
Teorema 2.4.2. Seja A uma matriz quadrada.
4 CAP CA´ LCULO

1. Se A tem uma linha ou uma coluna nula enta˜o |A| = 0.


2. |A| = |AT |.
Y
3. Se A ´e triangular (inferior ou superior) enta˜o |A| =
i=1,...,n(A) ii.

4. |Pij | = −1, |Dk (a)| = a, |Eij (a)| = 1, com i /= j.


Daqui segue que |In | = 1. Segue tamb´em que dada uma matriz tringular (inferior ou
supe- rior) que esta ´e invert´ıvel se e s´o se tiver determinante n˜ao nulo. Mais adiante,
apresentaremos um resultado que generaliza esta equivalˆencia para matrizes quadradas
n˜ao necessariamente triangulares.
Teorema 2.4.3. Dada uma matriz A quadrada, a ∈ K,
1. |Di (a)A| = a|A| = |ADi (a)|;
2. |Pij A| = |APij | = −|A|;
3. |Eij (a)A| = |A| = |AEij (a)|.

Como |Di (A)| = a, |Pij | = −1 e |Eij (a)| = 1, segue que |Di (a)A| = |Di (a)||A|, |Pij A| =
|Pij ||A| e que |Eij (a)A| = |Eij (a)||A|. Repare ainda que, se A ´e n × n, ´e v´alida a
igualdade
Q n
|αA| = αn |A|, j´a que αA = i=1 Di (α)A. De forma an´aloga, dada uma matriz diagonal D
com elementos diagonais d1, d2, . . . , dn, tem-se |DA| = d1d2 · · · dn|A| = |D||A|.
Corol´ario 2.4.4. Uma matriz com duas linhas/colunas iguais tem determinante nulo.

Demonstrac¸a˜o. Se a matriz tem duas linhas iguais, digamos i e j, basta subtrair uma `a
outra, que corresponde a multiplicar `a esquerda pela matriz Eij (−1). A matriz resultante
tem uma linha nula, e portanto tem determinante zero. Para colunas iguais, basta aplicar o
mesmo racioc´ınio a AT .

O corol´ario anterior ´e pass´ıvel de ser generalizado considerando n˜ao linhas iguais,


mas tal que uma linha se escreva como soma de mu´ltiplos de outras linhas. O mesmo
se aplica a colunas.

Corol´ario 2.4.5. Tem determinante nulo uma matriz que tenha uma linha que se
escreve como a soma de mu´ltiplos de outras das suas linhas.

Demonstrac¸a˜o. Suponha que a linha i, ℓi , de uma matriz A se escreve como a soma


de mu´ltiplos de outras das suas linhas, ou seja, queΣ ℓi = j∈J αj ℓj = αj 1 ℓj1 +αj2 ℓj2 +· ·
·+αjs ℓjs . A linha i de Eij1 (−αj1 )A ´e a matriz obtida de A substituindo a sua linha i por ℓi
− αj1 ℓj1 = αj2 ℓj2 + · · · + αjs ℓjs . Procedemos ao mesmo tipo de operac¸˜oes elementares
por forma a obtermos uma matriz cuja linha i ´e nula. Como o determinante de cada
uma das matrizes
obtidas por operac¸˜ao elementar de linhas iguala o determinante de A, e como a u´ltima
matriz tem uma linha nula, e logo o seu determinante ´e zero, segue que |A| = 0.
2.4. 4

Corol´ario 2.4.6. Seja U a matriz obtida da matriz quadrada A por Gauss. Enta˜o |A|
= (−1)r |U |, onde r indica o nu´mero de trocas de linhas no algoritmo.
Sabendo que uma matriz ´e invert´ıvel se e s´o se a matriz escada associada (por
aplicac¸˜ao de Gauss) ´e invert´ıvel, e que esta sendo triangular superior ´e invert´ıvel
se e s´o se os seus elementos diagonais s˜ao todos nulos, segue que, e fazendo uso de
resultados enunciados e provados anteriormente,
Corol´ario 2.4.7. Sendo A uma matriz quadrada de ordem n, as afirma¸co˜es seguintes
sa˜o equivalentes:
1. A ´e invert´ıvel;
2. |A| = 0;
3. car(A) = n;

4. A ´e na˜o-singular.
Portanto, uma matriz com duas linhas/colunas iguais n˜ao ´e invert´ıvel. Mais, uma
matriz que tenha uma linha que se escreva como soma de mu´ltiplos de outras das suas
linhas n˜ao ´e invert´ıvel.
Teorema 2.4.8. Seja A e B matrizes n × n.
|AB| = |A||B|.
Demonstrac¸a˜o. Suponha que A ´e invert´ıvel.
Existem matrizes elementares E1, . . . , Es e uma matriz escada (de linhas) U tal que
A = E1 E2 . . . Es U . Ora existem tamb´em Es+1 , . . . , Er matrizes elementares, e U1
matriz escada de linhas para as quais U T = Es+1 . . . Er U1 . Note que neste u´ltimo caso
se pode assumir que n˜ao houve trocas de linhas, j´a que os pivots do AEG s˜ao os
elementos dia- gonais de U j´a que U T ´e triangular inferior, que s˜ao n˜ao nulos por A
ser invert´ıvel. Ora U1 ´e ent˜ao uma matriz triangular superior que se pode escrever
como produto de matrizes triangulares inferiores, e portanto U1 ´e uma matriz diagonal.
Seja D = U1 . Resumindo,
AT = E1E2 . . . Es(Es+1 . . . ErD)T = E1E2 . . . EsDET . .T . . Recorde que, dada uma
E E
r r−1 s+1
matriz elementar E, ´e v´alida |EB| = |E||B|.
Ent˜ao,
T T T
|AB| = |E1 E2 . . . Es DEr Er−1 . . . Es+1 B|
= |E1 ||E2 . . . Es DE Tr E Tr−1 . . . Es+1
T
B|
T T
= |E1 ||E2 ||E3 . . . Es DE E . . . E T B|
r r−1 s+1
= ···
= |E1 ||E2 ||E3 | . . . |Es ||D||E Tr ||E T | ...| ||B|
r−1
T
E s+1
=T |E1 E2 E3 . . . Es DE T E T ... ||B|
E
r s+1
= |A||B|.
r−1

Se A n˜ao ´e invert´ıvel, e portanto |A| = 0, ent˜ao AB n˜ao pode ser invert´ıvel, e


portanto
|AB| = 0.
4 CAP CA´ LCULO

Como |In | = 1, segue do teorema anterior a relac¸˜ao entre o determinante uma


matriz invert´ıvel com o da sua inversa.

Corol´ario 2.4.9. Se A ´e uma matriz invert´ıvel enta˜o


1
A−1 = .
|
|A|
|
Recorde que para que uma matriz A seja invert´ıvel exige-se a existˆencia de uma
outra X para a qual AX = In = XA. O resultado seguinte mostra que se pode prescindir
da verificac¸˜ao de uma das igualdades.

Corol´ario 2.4.10. Seja A uma matriz n × n. Sa˜o equivalentes:

1. A ´e invert´ıvel

2. existe uma matriz X para a qual AX = In

3. existe uma matriz Y para a qual Y A = In

Nesse caso, A−1 = X = Y .

Demonstrac¸a˜o. As equivalˆencias s˜ao imediatas, j´a que se AX = In ent˜ao 1 = |In | = |


AX| =
|A||X| e portanto |A| = 0.
Para mostrar que A−1 = X, repare que como AX = In ent˜ao A ´e invert´ıvel, e portanto
A−1AX = A−1, donde X = A−1.
" #
a
Fac¸a a identificac¸˜ao dos vectores (a, b) ∈ R2 com as matrizes coluna . O pro-
b
duto intern"o usu#al (u1 , u2 ) · (v1 , v2 ) em R2 pode ser encarado como o produto matricial
h i v1
1 u2 . Ou seja, u · v = uT v. Esta identificac¸˜ao e noc¸˜ao pode ser
u v2
generali-
zada de forma trivial para Rn. Dois vectores u e v de Rn dizem-se ortogonais, u v, se
√ ⊥
u · v = uT v = 0. A norma usual em Rn ´e definida por ǁuǁ = u · u, com u ∈ Rn
Corol´ario 2.4.11. Seja A uma matriz real n × n com colunas c1 , c2 , . . . , cn . Enta˜o A ´e
ortogonal se e so´ se ci ⊥ cj = 0 se i /= j, e ǁci ǁ = 1, para i, j = 1, . . . , n.
h i
Demonstrac¸a˜o. Condic¸˜ao suficiente: Escrevendo A = c1 ··· cn , temos que

 T 
1
T  c 2cT h i
.
In = A A =   c1 c2 · · · cn
.
n
 
T
c
2.4. 4
 T 
1
c i
 2cT h
´e cT cj , obtemos o resultado.
Como o elemento (i, j) de c1 c2 · · · cn
  i
.
n
 
Condic¸˜ao necess´aria: Ora T T T T
ic c cj = 0 se i /= j,i e c ci = 1 ´e o mesmo que A A = In , e
pelo
corol´ario anterior implica que A ´e invert´ıvel com A−1 = AT , pelo que A ´e ortogonal.

Ou seja, as colunas das matrizes ortogonais s˜ao ortogonais duas a duas. O mesmo se
pode dizer acerca das linhas, j´a que a transposta de uma matriz ortogonal ´e de novo
uma matriz ortogonal.

2.4.3 Teorema de Laplace


Dada uma matriz A, quadrada de ordem n, denota-se por A(i|j) a submatriz de A obtida por
remoc¸˜ao da sua linha i e da sua coluna j.

Definic¸˜ao 2.4.12. Seja A = [aij ] uma matriz quadrada.

1. O complemento alg´ebrico de aij , ou cofactor de aij , denotado por Aij , esta´ definido por

Aij = (−1)i+j |A(i|j)|

2. A matriz adjunta ´e a transposta da matriz dos complementos alg´ebricos

Adj(A) = [Aij ]T .

Teorema 2.4.13 (Teorema de Laplace I). Para A = [aij ], n × n, n > 1, enta˜o, e para
k = 1, . . . , n,

|A| = n
Σ
akj Akj
j=1
= n
Σ
ajkAjk
j=1

O teorema anterior ´e o caso especial de um outro que enunciaremos de seguida. Para tal,
´e necess´ario introduzir mais notac¸˜ao e algumas definic¸˜oes (cf. [8]).
Seja A uma matriz m × n. Um menor de ordem p de A, com 1 ≤ p ≤ min{m,
n}, ´e o determinante de uma submatriz p × p de A, obtida de A eliminando m − p linhas e n
− p colunas de A.
Considere duas sequˆencias crescentes de nu´meros

1 ≤ i1 < i2 < · · · < ip ≤ m, 1 ≤ j1 < j2 < · · · < jp ≤ n,


5 CAP CA´ LCULO
e o determinante da submatriz de A constituida pelas linhas i1, i2, . . . i!
p e pelas colunas

i1 i2 . . . ip
j1 , j2 , . . . , jp . Este determinate vai ser denotado por A . Ou seja,
j1 j2 . . . jp

!
i1 i2 . . . ip
A = | [a
ik jk ] |.
j1 j2 . . . jp k=1,...p

Paralelamente, podemos definir os menores complementares de A como os


determinantes das submatrizes a que se retiraram linhas e colunas. Se A for n × n,
!c
i1 i2 . . . ip
A
j1 j2 . . . jp

denota o determinante da submatriz de A ap´os remoc¸˜ao das linhas i1 , i2 , . . . ip e das colunas


j1 , j2 , . . . , jp de A. O cofactor complementar est´a definido como
!
!c
c i1 i 2 . . . i p = (−1)sA i2 . . . ip
A ,
i1
j1 j2 . . . jp j1 j2 . . . jp

onde s = (i1 + i2 + · · · ip) + (j1 + j2 + · · · jp).


O caso em que p = 1 coincide com o exposto no in´ıcio desta secc¸˜ao.
Teorema 2.4.14 (Teorema de Laplace II). Sejam A = [aij ], n × n, 1 ≤ p ≤ n. Para qualquer
escolha de p linhas i1, i2, . . . , ip de A, ou de p colunas j1, j2, . . . , jp de A,
! !
Σ i1 i2 . . . ip i1 i2 . . . ip
|A| = A Ac
j1 j2 . . . jp j1 j2 . . . jp
j

onde a soma percorre todos os menores referentes a` escolha das linhas [resp. colunas].

Para finalizar, apresentamos um m´etodo de c´alculo da inversa de uma matriz n˜ao singular.
Teorema 2.4.15. Se A ´e invert´ıvel enta˜o

−1 Adj(A)
A = |A| .

Octave
Vamos agora apresentar uma pequena func¸˜ao que tem como entrada uma matriz
quadrada e como sa´ıda sua matriz adjunta.

function ADJ=adjunta(A)

% sintaxe: adjunta(A)
2.4. 5

% onde A e’ uma matriz quadrada


% use-a por sua propria conta e risco
% copyleft ;-) Pedro Patricio

n=size(A)(1,1); % n e’ o numero de linhas da matriz


ADJ= zeros (n); % inicializacao da matriz ADJ
for i=1:n % i denota a linha
for j=1:n % j denota a coluna
submatriz=A([1:i-1 i+1:n],[1:j-1 j+1:n]); % submatriz e’ a
submatriz de A a que se lhe retirou a linha i e a coluna j
cofactor=(-1)^(i+j)* det(submatriz); % calculo do cofactor
ADJ(j,i)=cofactor; % ADJ ´e a transposta da matriz dos
cofactores; repare que a entrada (j,i) e’ o cofactor (i,j) de A
end; % fim do ciclo for em j
end % fim do ciclo for em i

Grave a func¸˜ao, usando um editor de texto, na directoria de leitura do Octave. No


Octave, vamos criar uma matriz 4 × 4:
> B=fix(10*rand(4,4)-5)
B =

0 -2 3 -2
-2 3 1 -1
-3 0 4 3
-4 4 0 4
> adjunta(B)
ans =

76.0000 -36.0000 -48.0000 65.0000


48.0000 -32.0000 -28.0000 37.0000
36.0000 -24.0000 -32.0000 36.0000
28.0000 -4.0000 -20.0000 17.0000
Adj(B)
Pelo teorema, como B−1 = segue que B Adj(B)
| =| B I .
|B| 4

> B*adjunta(B)
ans =

-44.00000 -0.00000 0.00000 0.00000


0.00000 -44.00000 -0.00000 0.00000
0.00000 -0.00000 -44.00000 0.00000
0.00000 -0.00000 0.00000 -44.00000
5 CAP CA´ LCULO

Você também pode gostar