Tarrago Probabilités Libres

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 11

Probabilités libres

Pierre Tarrago
November 27, 2012

Introduction
Dans ce court exposé nous allons revoir les principaux constituants de la théorie
des probabilités libres jusqu’à la construction du calcul stochastique libre. Cette
théorie a été initiée dans les années 80 par Dan Voiculescu [7] pour résoudre des
problèmes de théorie des operateurs. Elle s’est beaucoup développée par la suite
avec la découverte d’exemples concrets en lien avec des matrices aléatoires.
L’accent sera mis sur le parallèle qui existe entre la théorie libre et la théorie
classique et aucune démonstration ne sera donnée ici (se référer au citations
données en bibliographie).

Contents
1 Espace de probabilité non-commutatif 1

2 R-transformé et combinatoire 4

3 Calcul stochastique libre 6

4 Appendice : Algèbre de von Neumann 10

1 Espace de probabilité non-commutatif


Rappelons qu’un espace de probabilité classique est un triplet (Ω, F, P) avec
Ω un ensemble donné, F ⊂ P(Ω) un sous-ensemble de P(Ω) et P une fonc-
tion de F dans [0, ∞[ satisfiant certains axiomes. Dans les faits cette définition
est équivalente avec la donnée d’une certaine algèbre de fonctions A ⊂ RΩ ,
l’ensemble des fonctions mesurables, et d’une forme linéaire E : A 7→ R, l’intégrale
par rapport à la mesure P, telles que

si a ∈ A est positive, E(a) ≥ 0
1 ∈ A et E(1) = 1
De manière analogue on peut définir de manière abstraite un espace de proba-
bilité non-commutatif à partir d’une algèbre de von Neumann [7] (voir l’annexe
pour une très rapide introduction aux algèbres de von Neumann et une explica-
tion quant à leur nécessité). On rappelle juste qu’une algèbre de von Neumann
est une algèbre d’opérateurs sur un espace de Hilbert, contenant l’identité et
fermé dans la topologie de la norme forte.

1
Définition 1 Un espace de probabilité non commutatif (e.p.n.c) est la donnée
d’un couple (A, φ), avec A une algèbre de von Neumann et φ une forme linéaire
continue sur A telle que
si a ∈ A, φ(aa∗ ) ≥ 0

1 ∈ A et φ(1) = 1
Une telle forme linéaire est appelée un état.
Une fois un tel espace défini, on peut redéfinir la loi d’un élément normal a ∈ A
par l’application
C[X] −→ C
P 7→ φ(P (a))
On vérifie aisément par le théorème spectral que cette application résulte en
une mesure µa sur C à support borné par kak. De cette manière on peut dire
qu’une suite an d’éléments de A converge en loi vers a ∈ A, ou µan −→ µa si
∀P ∈ C[X], φ(P (an )) −→ φ(P (a))
Exemples :
• Si on suppose que P est une mesure à support bornée, l’espace (L∞ (Ω, C), E)
est un espace de probabilité non commutatif qui est ... commutatif.
• L’espace (Mn (L∞ (Ω, C)), E[Tr()]) est également un espace de probabilité
non-commutatif. Cette classe d’exemple est l’une des plus importantes et
justifie le lien fort entre les matrices aléatoires et les probabilités libres.
• [7] Soit G un groupe discret, e son élément neutre et l2 (G) l’espace de
Hilbert des fonctions complexes de carré intégrable sur G muni de la
mesure de comptage. l2 (G) admet comme base orthonormale les fonc-
tions
δg : g 0 7→ δg,g0
Pour g ∈ G on définit à partir de cette base l’opérateur unitaire
ug (δg0 ) = δgg0
On note que g 7→ ug est un morphisme de groupe. Notons vN (G) l’algèbre
de von Neumann engendrée par les ug et définissons sur vN (G) l’état φG
par
φG (a) = (a(δe ), δe ), a ∈ vN (G)
Alors (vN (G), φG ) est un espace de probabilité non commutatif. C’est
cet exemple qui a motivé la construction du concept de probabilité libre
par Voiculescu. En effet supposons que le groupe initial G est le groupe
libre à n générateurs a1 , . . . , an et nommons A1 , . . . , An les algèbres de von
Neumann générées respectivement par ua1 , . . . , uan . Maintenant prenons
un éléments x ∈ vN (G) qui s’écrit x = b1 b2 . . . bp avec bj ∈ Aij , ij 6=
ij+1 et supposons que φG (bj ) = 0 pour tout 1 ≤ j ≤ p. Nous pouvons
montrer que dans ce cas φG (x) = 0 également. Pour le voir facilement sans
s’encombrer avec le cadre des algèbres de von Neumann, restreignons-nous
au cas où
rj rj
X X
bj = cj,k ukai = cj,k uaki
j j
k=−sj k=−sj

2
Comme φG (bj ) = 0 on a c0,j = 0 et finalement
    
X X
φG (x) =  c1,k ukai1  . . .  cp,k ukaip  δe , δe 
k6=0 k6=0
X  
= c1,k1 . . . cp,kp δak1 ...akp , δe =0
i1 ip
k1 ,...,kp 6=1

car G étant le groupe libre à n générateurs, si ij+1 6= ij et chaque kj 6= 0,


k
aki11 . . . aipp 6= e.
Ce dernier exemple motive la définition suivante :
Définition 2 Soit (A, φ) un e.p.n.c, (Ai )i∈I des sous-algèbres de A contenant
l’identité. Les sous-algèbres sont dites libres si pour tout élément x = ai1 . . . aip
avec aij ∈ Aij , φ(aij ) = 0 et ij+1 6= ij on a

φ(x) = 0

Deux éléments a et b de A sont dits libres entre eux si les algèbres engendrées
par ces deux éléments sont libres entre elles.
Ce concept est à mettre en parallèle avec le concept d’indépendance dans le cas
commutatif que nous rappelons ici.
Définition 3 Indépendance : Soit (A, φ) un espace de variables aléatoires clas-
siques, (Ai )i∈I des sous-algèbres de A contenant l’identité. Les sous-algèbres
sont dites indépendantes si pour tout élément x = ai1 . . . aip avec aij ∈ Aij , φ(aij ) =
0 et ii 6= ij pour tout 0 ≤ i < j ≤ p on a

φ(x) = 0

Deux éléments a et b de A sont dits indépendants si les algèbres engendrées par


ces deux éléments sont indépendantes entre elles.
Cette analogie peut-être approfondie assez loin, comme le montre cette série de
résultats :
Proposition 1 Version libre de la convolution [7]: Soit (A, φ) un e.p.n.c, et
a, b ∈ A auto-adjoints et libres entre eux. Alors la loi µa+b de a + b dépend
uniquement de µa et µb (et non de a et b) et on peut noter

µa+b = µa  µb
1 1
De même si a, b ≥ 0, la loi de a 2 ba 2 est uniquement déterminée par µa et µb .
On la note a  b.

Proposition 2 Version libre de la gaussienne [7]: Soit S(m, σ 2 ) la loi semi-


circulaire de centre m et de largeur σ, définie par la densité
2 p
fSC(m,σ2 ) (x) = 2
1x∈[m−σ,m+σ] σ 2 − (x − m)2
πσ
Alors
SC(m, σ 2 )  SC(m0 , σ 02 ) = SC(m + m0 , σ 2 + σ 02 )

3
Proposition 3 Version libre du théorème central limite [7]: Soit (an )n≥0 une
suite de variables libres entre elles et de même loi µ telle que µ(X) = 0. Alors
Pn
i=0 ak
√ −→ SC(0, µ(X 2 ))
n
La démonstration de ces trois propositions repose sur la construction d’une fonc-
tion analytique jouant le même rôle que la fonction génératrice des cumulants
dans le cas classique. Nous verrons plus en détail ceci dans la prochaine section.
Terminons juste ce paragraphe sur deux résultats importants qui établissent le
lien entre matrices aléatoires et probabilités libres en rendant concrète la notion
de liberté.
Théorème 1 [2] Soit An , Bn une suite de matrices hermitiennes bornées de
taille n × n telles que µAn 7→ µ1 et µBn 7→ µ2 dans la topologie faible-?, avec µ1
et µ2 à support compact. Soit Un , Vn deux matrices unitaires aléatoires suivant
la mesure de Haar. Alors si on pose A0n = Un An Un∗ et Bn0 = Vn Bn Vn∗ , on a
µA0n +Bn0 7−→ µ1  µ2

2 R-transformée et combinatoire
Revenons un instant au cas classique. La loi de la somme de deux variables
aléatoires a et b indépendantes de loi respectives ν1 et ν2 est uniquement
déterminée par ces deux lois : c’est la convolution de ν1 et ν2 , notée ν1 ∗ ν2 . Il
est donc possible de calculer les moments de ν1 ∗ ν2 à partir de ceux de ν1 et
ν2 . Cependant la formulation est compliquée et il est plus simple de passer par
des quantités alternatives. Notons ΦX la fonction caractéristique d’une variable
aléatoire X. Alors l’indépendance de a et b garantit que
log Φa+b (ξ) = log (Φa (ξ)Φb (ξ)) = log Φa (ξ) + log Φb (ξ)
1
cn (X)ξ n pour a, b et a + b,
P
Donc si il est possible d’écrire log ΦX (ξ) = n≥1 n!
alors on a cn (a + b) = cn (a) + cn (b). cn (a) est appelé le n−ième cumulant de a.
De la même manière si (ai )0≤i≤p est une famille de variables aléatoires, on peut
définir la fonction
X 
Ga1 ,...,ap (X1 , . . . , Xp ) = log E exp ai Xi

Si elle admet un développement en série entière en 0, celle-ci devient localement


X 1 X
Ga1 ,...,ap (X1 , . . . , Xp ) = c(ai1 , . . . , aip )Xi1 . . . Xip
n!
n≥1 1≤i1 ,...in ≤p

Les coefficients c(ai1 , . . . , aip ) sont appelés cumulants généralisés. La linéarité


de Ga1 ,...,ap dans le cas où les ai sont indépendants implique que
c(ai1 , . . . , aip ) = 0 si ∃j, k ij 6= ik
Enfin nous pouvons retrouver les moments d’un n−uplet de variables aléatoires
à partir de ces cumulants généralisés. En effet notons Part(n) l’ensemble des
partitions de l’ensemble {1, . . . , n}. Alors on a la formule
X Y
E(Xi1 . . . xip ) = c(Xj1 , . . . , Xjr )
π∈Part(n) {j1 <···<jr } bloc de π

4
On peut inverser cette formule grace à la fonction de Moebius associée à l’ordre
naturel sur Part(n) (induit par l’inclusion des blocs) pour obtenir les cumu-
lants généralisés à partir des moments du n−uplet. Ceci donne une définition
alternative de ces cumulants généralisés ne faisant pas intervenir la fonction
caractéristique.
Il se trouve que l’on peut recommencer exactement la même construction dans
le cas d’un e.p.n.c en utilisant les partitions non-croisées à la place des partitions
[6].

Définition 4 Une partition P ∈ Part(n) est dite non croisée si pour tous blocs
B, B 0 ∈ P , {i1 < i2 } ⊂ B et {j1 < j2 } ⊂ B 0 avec i1 < j1 < i2 on a la relation

i1 < j1 < j2 < i2

On note N C(n) l’ensemble des partitions non-croisées. C’est un ensemble par-


tiellement ordonné par la même relation que pour l’ensemble des partitions.
Soient a1 , . . . , an ∈ A des éléments d’un e.p.n.c. On peut définir les cumulants
libres généralisés k(ai1 , . . . , air ) par récurrence avec la formule
X X
φ(a1 . . . an ) = k(ai1 , . . . , aip )
π∈N C(n) {i1 <···<ip } bloc de π

Et on définit le n−ième cumulant libre d’un élément a par la formule

kn (a) = k(a, |{z}


. . . , a)
n fois

De manière analogue avec le cas commutatif, on a le résultat suivant


Proposition 4 Dire que les ai sont libres entre eux équivaut à la condition

k(ai1 , . . . , air ) = 0 si ∃is , it tels que is 6= it

D’autre part si a et b sont libres entre eux

kn (a + b) = kn (a) + kn (b)
n
Pour a ∈ A posons Ga (z) = n≥0 φ(a ) n
P P
z n+1 et Ra (z) = n≥0 kn+1 (a)z . Nous
avons notamment que si a et b sont libres entre eux, Ra+b = Ra + Rb . De plus
la construction des kn (a) donnée auparavant implique la formule d’inversion [6]
1
Ga (Ra (z) + ) = z
z
Or il se trouve que
R G1a est juste la transformée de Cauchy de la mesure µa , c’est
à dire Ga (z) = R z−x dµa (x) (z 6∈ Supp(µ)). Ceci donne une machinerie [7]
pour calculer la somme libre de deux lois µ et ν (à condition que ce soit une loi
à densité):
• Calculer la transformée de Cauchy de µ et ν

• En déduire par un calcul d’inversion Rµ et Rν .

5
• Calculer Gµν en appliquant Rµ + Rν dans la formule d’inversion.
• Retrouver la densité de µ  ν grace à la formule générale pour λ mesure
réelle à densité
dλ(x) = lim Im[Gλ (x + it)]
t→0

Dans les faits l’algorithme n’est souvent pas facile à réaliser car la formule
d’inversion est difficile à utiliser. Il permet cependant par exemple de calculer la
somme libre de deux mesures de Dirac, ou bien de deux mesures semi-circulaires
[2].

3 Calcul stochastique libre


Dans cette dernière section nous allons introduire le calcul stochastique libre,
dont la construction est encore une fois très semblable à la construction clas-
sique, mise à part la non commutativité. Il s’appuie essentiellement sur le
mouvement brownien libre. Avant toute chose nous pouvons définir l’espérance
conditionnelle libre. Nous supposerons dans la suite que A possède un état φ
tracial et fidèle (c’est à dire φ(ab) = φ(ba) et φ(aa∗ ) > 0). Ceci est en réalité
très peu restrictif dans le cadre des probabilités libres.

Définition 5 Soit B une sous-algèbre de von Neumann de A. Une espérance


conditionnelle de A dans B est une application linéaire

EB : A −→ B

vérifiant que pour tout b, b0 ∈ B, a ∈ A, on a

EB (bab0 ) = bEB (a)b0

Cette définition pose un problème d’existence qui est résolu par le théorème
suivant [3]:

Théorème 2 Soit A une algèbre de von Neumann munie d’une trace finie et
fidèle φ et soit B une sous-algèbre de von Neumann de A. Il existe une appli-
cation
EB : A −→ B
vérifiant la condition de la définition précédente. De plus on a pour b ∈ B et
a∈A
φ (EB [a]b) = φ(ab)
En particulier si a est libre avec B, EB (a) = φ(a). En revanche l’implication
inverse n’est pas garantie. Il est donc plus sûr de construire le mouvement
Brownien libre sans faire appel à l’espérance conditionnelle.
Définition 6 Un mouvement Brownien libre dans (A, φ), avec φ tracial et
fidèle, est la donnée de:

• une suite croissante de sous-algèbres de von Neumann (At )t≥0 (appelée


aussi filtration)

6
• une famille d’opérateurs auto-adjoints (St )t≥0 avec St ∈ At et telle que
∀0 ≤ s < t, St − Ss ∼ SC(0, t − s) et St − Ss est libre avec As

Si s < t on a en particulier avec l’espérance conditionnelle du théorème précédent


EAs (St ) = Ss .
On peut se demander si un tel processus existe. La construction de (St )t≥0 est
instructive puisqu’elle repose sur un exemple canonique d’e.p.n.c.

Construction de (St )t≥0 Soit H un espace de Hilbert. On appelle espace de


P F(H)
Fock
⊗n
associé à H l’algèbre libre associative engendrée par H (c’est à dire
nH ). C’est un espace de Hilbert en prenant le produit hermitien
H⊗n × H⊗m −→ QC
(f1 ⊗ · · · ⊗ fn , g1 ⊗ · · · ⊗ gm ) 7−→ δm,n (fi , gi )H
Pour h ∈ H on définit l’opérateur création lh sur F(H) par l’application
f1 ⊗ · · · ⊗ fn 7→ h ⊗ f1 ⊗ · · · ⊗ fn
et on définit sur B[F(H)] l’état tracial
τ (A) = (Ω, AΩ)
Alors il découle directement de ces définitions que si (h, h0 )H = 0, lh + lh∗ et
lh0 +lh∗ 0 sont libres entre eux. De plus on peut vérifier grace à la R-transformée [7]
que la loi de µlh +lh∗ est la loi d’une variable aléatoire semi-circulaire de moyenne
nulle et de variance (h, h)H . A partir de ces considérations il devient possible
de construire un mouvement Brownien libre. Il suffit de prendre comme espace
de Hilbert initial l’espace L2 (0, ∞), de poser
St = l1(0,t) + l1∗(0,t)

et de prendre pour At l’algèbre de von Neumann engendrée par (Ss )s≤t .


Encore une fois il est possible d’obtenir une approximation plus concrète de ce
mouvement Brownien libre [6] :
Théorème 3 Soit BtN = √1n (Bij (t))1≤i,j≤n la matrice symétrique dont les coef-
ficients Bij (t) sont des mouvements Browniens standards classiques et indépendants
entre eux (modulo la symétrie). Considerons sur ces matrices l’état
1
φN (BtN ) = ETr(BtN )
N
Alors pour n ∈ N∗ et t1 , . . . , tn ≥ 0 on obtient à la limite
lim φN BtN1 . . . BtNn = φ(St1 . . . Stn )

N →∞

L’existence d’un mouvement Brownien libre permet de construire un calcul


stochastique libre à partir de celui-ci [6] . Dans le casR classique nous étions
amené à considérer des intégrales stochastiques du type R+ At dBt avec (At )t≥0
un processus adapté à la filtration du mouvement Brownien. Dans le cas non-
commutatif nous devons faire attention au fait que les variables ne commutent
pas. Nous devons donc considérer des multiplications à gauche et à droite.
Commençons comme dans le cas classique par définir le cas le plus simple :

7
Définition 7 Un biprocessus simple adapté (Ut )t≥0 est une application de [0, ∞)
dans A ⊗ Aop (Aop est l’algèbre A avec l’opération multiplication a ×op b = ba)
telle qu’il existe 0 = t0 < t1 < · · · < tn < ∞ et pour tout 0 ≤ i ≤ n − 1
Ai , Bi ∈ Ati avec 
Ai ⊗ Bi ti ≤ t < ti+1
Ut =
0 tn ≤ t
Pour un tel processus on définit l’intégral stochastique
Z n−1
X
Ut ]dSt = Ai (Sti+1 − Sti )Bi
i=0

Définissons sur A le produit hermitien

h, i : A, B 7−→ φ(B ∗ A)

On peut canoniquement étendre ce produit hermitien à A ⊗ Aop . La propriété


importante de cette intégrale est que pour U, V deux biprocessus simples adaptés
on a l’égalité
Z  Z ∗  Z
φ U ]dS V ]dS = hUt , Vt iA⊗Aop dt

Le terme de droite de la dernière égalité définit un produit scalaire sur l’ensemble


des biprocessus simples adaptés. On peut donc prendre le complété B2 de cet
espace avec ce produit scalaire. On peut ainsi étendre l’intégrale stochastique
libre en une application Z
: B2 −→ L2 (A)

De plus on a une inégalité de type Burkhorlder-Gundy [6] semblable au cas


classique.
Proposition 5 Si kAt k2 kBt k2 dt est fini on a l’inégalité
R

 21

Z Z
2 2
k Ut ]dSt k ≤ 2 2 kAt k kBt k dt

R l’espace B∞ , complété de l’espace des biprocessus simples


Donc si on introduit
adaptés vérifiant kAt k2 kBt k2 dt < ∞ sous la norme
Z  12
k  k∞ : U = (At , Bt ) 7−→ kAt k2 kBt k2 dt

on peut étendre l’intégrale stochastique en une application


Z
: B∞ −→ A

L’avantage de cette application est que grâce à l’inclusion de l’image dans A,


on peut sans problème multiplier deux intégrales stochastiques.

8
Formule d’Itô [1] Pour établir la formule d’Itô dans le cas libre, il faut définir
des opérateurs différentiels qui prennent en compte la non-commutativité.

fn xn . On définit les opérateurs ∂ et ∆t par les


P
Définition 8 Soit f (x) =
formules
X n−1 X
∂f (X) = fn X k ⊗ X n−k−1
k=0

f (x) − f (y)
Z

∆t f (x) = dµSt (y)
∂x x−y
avec µSt ∼ SC(0, t).
Supposons maintenant que f est assez régulière (analytique par exemple). Alors
on a la formule d’Itô libre
Z t
1 t
Z
f (St ) = f (S0 ) + ∂f (Ss )]dSs + ∆s f (Ss )ds
0 2 0

Nous allons terminer cette introduction en donnant deux opérations qui s’apparentent
à une définition libre du calcul de Malliavin [4]. Nous nous plaçons sur l’algèbre
S(H) engendrée par les opérateurs (lh + lh∗ )h∈H . Cette algèbre présente la pro-
priété de pouvoir être injectée dans l’espace de Fock F(H) :
Proposition 6 L’application

A ∈ S(H) 7→ AΩ ∈ F(H)

est une application injective. C’est même une isométrie si on munit S(H) du
produit scalaire h, i. On peut donc l’étendre en une isométrie

i : L2 (S(H), hi) → F(H)

Il est donc possible de raisonner sur F(H) et d’induire ce raisonnement sur


S(H). Définissons donc les opérateurs gradient et divergence sur F(H)
Définition 9 L’opérateur gradient est l’opérateur densément défini par

F(H) −→ F(H) ⊗ H ⊗ F(H)


∇: Pn
h1 ⊗ · · · ⊗ hn 7−→ (h
j=1 1 ⊗ · · · ⊗ hj−1 ) ⊗ hj ⊗ (hj+1 ⊗ · · · ⊗ hn )

avec ∇Ω = 0.
L’opérateur divergence est l’opérateur densément défini par

F(H) ⊗ H ⊗ F(H) −→ F(H)


δ:
(h1 ⊗ · · · ⊗ hn ) ⊗ h ⊗ (g1 ⊗ · · · ⊗ gm ) 7−→ h1 ⊗ · · · ⊗ hn ⊗ h ⊗ g1 ⊗ · · · ⊗ gm

Grace à i ces applications peuvent se transposer sur l’ensemble des éléments de


S(H) consistant en l’algèbre Salg (H) générée les polynômes en (lh + lh∗ )h∈H . On
peut montrer que le domaine de ∇ est justement la fermeture de Salg (H) dans
F(H). De plus ∇ et δ sont adjoints l’un de l’autre.
Plus particulièrement l’opérateur gradient possède des propriétés [4] semblables
au gradient classique.

9
Proposition 7 L’opérateur gradient rapporté à Salg (H) est une dérivation.
C’est à dire pour A, B ∈ Salg (H)

∇(AB) = (∇A)  B + A  (∇B)

Où la multiplication à gauche et à droite se sous-entend avec le terme le plus


proche dans le produit tensoriel.

Proposition 8 Si on définit la forme bilinéaire [, ]H par

(Salg (H) ⊗ H ⊗ Salg (H)) × H → Salg (H) ⊗ Salg (H)


[, ]H
(A ⊗ h1 ⊗ B, h2 ) 7→ (h1 , h2 )H A ⊗ B

Alors on a l’égalité suivante, équivalente libre de l’intégration par partie, pour


A ∈ Salg (H) et h ∈ H

φ ⊗ φ([∇A, h]H ) = φ(A(lh + lh∗ ))

Pour éclairer la forme linéaire de la dernière proposition, observons ce que cela


donne dans le cas où H = L2 ([0, ∞)). Dans ce cas on peut voir qu’un élément de
(Salg (H) ⊗ H ⊗ Salg (H)) × H est un biprocessus simple et que la forme bilinéaire
est donc pour U ∈ (Salg (H) ⊗ H ⊗ Salg (H)) et h ∈ H
Z
[U, h]H = Ut h(t)dt

Ces opérateurs présentent une forme beaucoup plus explicite dans le cadre de
l’expansion par chaos des processus libres, que nous ne présenterons pas ici.
Ils permettent d’obtenir des théorèmes de comparaison entre la loi de variables
aléatoires non commutatives engendrées par un mouvement Brownien libre et
une loi semi-circulaire [4] ( de manière analogue au théorème de Nualart et
Peccati dans le cas classique [5]).

4 Appendice : Algèbre de von Neumann


Dans ce court appendice nous expliquons rapidement pour quelles raisons l’apparition
d’algèbres de von Neumann est naturelle dans le contexte des probabilités libres.
Rappelons la définition d’une algèbre de von Neumann :
Définition 10 Une algèbre de von Neumann A est une sous-algèbre fortement
fermée de l’espace des opérateurs bornés sur un espace de Hilbert H. Cela
équivaut au fait qu’elle est égale à son bicommutant (c’est à dire A00 = A).

Rappel La topologie forte est la topologie de la convergence ponctuelle en


norme. C’est à dire que An → A si et seulement si pour tout ξ ∈ H

kAn (ξ) − A(ξ)k → 0

En particulier pour tout espace de probabilité (Ω, F, P), L∞ (Ω) est une algèbre
de von Neumann, comme sous-algèbre fortement fermée de B(L2 (Ω)). On peut
montrer que dans ce cas la topologie forte est équivalente à la convergence sim-
ple (alors que la topologie norme est équivalente à la topologie convergence

10
uniforme).
La propriété importante des algèbres de von Neumann est qu’une algèbre de
von Neumann A est engendrée par les projections contenues dans A [3] (au sens
que c’est la fermeture forte de l’espace engendré algébriquement par ces projec-
tions). C’est justement la généralisation de l’espace des fonctions mesurables
bornées sur un espace de probabilité, qui sont engendrées comme limite simple
de combinaisons linéaires d’indicatrices d’événements mesurables.

References
[1] P. Biane and R. Speicher. Stochastic calculus with respect to free brownian
motion and analysis on wigner space. Probability theory and related fields,
112(3):373–409, 1998.

[2] Philippe Biane. Free probability for probabilists, 1998.


[3] V.F.R. Jones. von neumann algebras. Lecture Notes from http://www. math.
berkeley. edu/˜ vfr/MATH20909/VonNeumann2009. pdf, 2003.
[4] T. Kemp, I. Nourdin, G. Peccati, and R. Speicher. Wigner chaos and the
fourth moment. The Annals of Probability, 40(4):1577–1635, 2012.

[5] D. Nualart and G. Peccati. Central limit theorems for sequences of multiple
stochastic integrals. The Annals of Probability, 33(1):177–193, 2005.
[6] R. Speicher. Free calculus. arXiv preprint math/0104004, 2001.
[7] D.V. Voiculescu, K.J. Dykema, and A. Nica. Free random variables, vol-
ume 1. Amer Mathematical Society, 1992.

11

Vous aimerez peut-être aussi