Mémoire
Mémoire
Mémoire
Numéro d’ordre :
Numéro de série :
Mémoire
pour obtention le diplôme de Master
Je remercie d’abord et avant tout le bon Dieu qui m’a donné le courage et la
patience pour réaliser ce travail.
Un grand merci à mes parents pour leur dévouement pour mon bonheur. Je tiens
aussi à exprimer ma profonde gratitude à mes chers frères et mes sœurs.
O E B 2018
Dédicaces
Je dédie ce modeste travail à celle qui m'a donné la vie, le symbole de tendresse,
A mon père AMMAR, école de mon enfance, qui a été mon ombre durant toutes
les années des études, et qui a veillé tout au long de ma vie à m’encourager, à
me donner l'aide et à me protéger.
O E B 2018
Table des matières
Introduction générale 4
1 Généralités 6
1.1 Formulation d’un problème d’optimisation . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Formulation mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Di¤érentiabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Vecteurs gradient et matrice hessienne . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Dérivée directionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1 Ensemble convexe, Fonction convexe . . . . . . . . . . . . . . . . . . . . . 17
1.3.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.3 Conditions d’optimalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Existence et unicité d’un point de minimum . . . . . . . . . . . . . . . . . . . . . 28
1.4.1 Existence et unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.5 Points critiques et leur nature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1
Table des matières
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Méthodes d’optimisation multidimensionnelle . . . . . . . . . . . . . . . . . . . . 35
2.2.1 Méthodes de Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2.3 Méthode de Quasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Méthodes d’optimisation unidimensionnelle . . . . . . . . . . . . . . . . . . . . . . 43
2.3.1 Méthode de Dichotomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.2 Méthode de Section Dorée . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3.3 Méthode de Brent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Conclusion générale 71
Bibliographie 72
2
Notations
3
Introduction générale
Les mathématiques pures ont pour objectif le développement des connaissances mathéma-
tiques pour elles-mêmes sans aucun intérêt a priori pour les applications, sans aucune motivation
d’autres sciences. L’objet de la recherche mathématique peut ainsi être une meilleure compréhen-
sion d’une série d’exemples particuliers abstraits, sur lesquels s’appuie et se développe la ré‡exion
mathématique, la généralisation d’un aspect d’une discipline ou la mise en évidence de liens entre
diverses disciplines des mathématiques.
Les mathématiques appliquées sont une branche des mathématiques qui s’intéressent à l’appli-
cation du savoir mathématique aux autres domaines, L’analyse numérique, les mathématiques de
l’ingénierie, l’optimisation linéaire, la programmation dynamique, l’optimisation et la recherche
opérationnelle, la théorie de l’information, les probabilités et les statistiques et jusqu’à un certain
point, la combinatoire et la géométrie …nie..., ainsi qu’une bonne partie de l’informatique sont
autant de domaines d’application des mathématiques.
L’optimisation joue un rôle important en recherche opérationnelle, dans les mathématiques
appliquées, en analyse et en analyse numérique, en statistique pour l’estimation du maximum de
vraisemblance d’une distribution, pour la recherche de stratégie dans le cadre de la théorie des
jeux, ou encore théorie du contrôle et de la commande.
L’optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à
résoudre analytiquement ou numériquement les problèmes qui consistent à déterminer quelles sont
la solution (ou les solutions) satisfaisant un objectif quantitatif tout en respectant d’éventuelles
contraintes.
4
Introduction générale
L’optimisation peut être dé…nie comme la science qui détermine la meilleure solution à cer-
taine problèmes mathématiquement dé…nie, qui sont souvent des modèles de physique réel. C’est
une technique qui permet de "quanti…er" les compromis entre des critères parfois non commen-
surables.
D’un point de vue mathématique, l’optimisation consiste à rechercher le minimum ou le
maximum d’une fonction avec ou sans contrainte.
Dans ce mémoire, notre attention est portée sur l’étude de certaines méthodes d’optimisation
déterministe. Pour atteindre cet objectif, notre travail est articulé autour de trois chapitres.
Le premier chapitre commence par traiter des notions mathématiques fondamentales, on dé…-
nit et on introduit les outils fonctionnels de base nécessaires pour l’optimisation sans contraintes,
la notion de solution locale et quelques éléments d’analyse convexe. Ainsi, nous étudierons
quelques résultats théoriques (existence et unicité de solutions), aussi, les points stationnaires et
leurs natures.
Dans le chapitre suivant, nous nous intéressons à l’étude de quelques méthodes d’optimisation
les plus utilisées dans la pratique, nous allons traiter certaines méthodes : la méthode de Gradient,
Dichotomie, Newton...
Finalement, le dernier chapitre sera consacré aux méthodes d’optimisation de gradient, di-
chotomie et section dorée. Son but est d’améliorer les performances du système photovoltaïque,
autrement dit maximiser la puissance générée pour avoir un bon rendement et de fortes puissances
transférées.
5
Chapitre 1
Généralités
En général optimiser signi…e le fait de chercher une con…guration optimale d’un système,
c’est a dire, chercher la meilleure con…guration parmi tous les con…gurations possibles du système
et ceci, par rapport à un critère donné. Pour d’écrire un problème d’optimisation nous utilisons
la formulation mathématique. Ce type de problème s’écrit de la forme suivante :
8
>
> min f (x)
>
<
sous la contrainte :
>
>
>
: x2U
6
Chapitre 1 : Généralités
Dans ce présent travail, nous nous intéressons aux problèmes d’optimisation sans contraintes,
autrement dit : 8
< Trouver x 2 Rn tel que :
: (P )
: f (x ) f (x) ; 8x 2 Rn
Soient l’ensemble U Rn et f une fonction dé…nie de U dans R. On dé…nie les minima locaux
et globaux de f sur U de la manière suivante :
Dé…nition 1.1 (Minimum global) On dit que x est un minimum global (ou absolu ) de f
sur U si
f (x ) f (x) ; 8x 2 U:
f (x ) < f (x) ; 8x 2 U:
Dé…nition 1.2 (Minimum local) On dit que x est un minimum local (ou relatif ) de f sur
U s’il existe un voisinage V de x tel que
f (x ) f (x) ; 8x 2 U \ V (x ) :
Les notions de maximum local et global sont dé…nies de façon tout à fait similaire. En fait,
on peut facilement démontrer que les problèmes sans contraintes :
7
Chapitre 1 : Généralités
Ainsi la recherche d’un maximum pouvant se ramener à la recherche d’un minimum, nous por-
terons une attention plus particulière à la recherche du minimum (voir [26]).
8
Chapitre 1 : Généralités
Exemple 1.1 Soit f (x) = sin (x) ; il existe une in…nité de minima et maxima globaux.
1.2 Di¤érentiabilité
Soit U un ouvert de Rn . On considère ici le cas particulier où l’ensemble U l’espace entier Rn ;
considéré comme un espace vectoriel normé muni de la norme euclidienne notée k k (voir [11],
[15] et [25]).
C’est à dire :
f (x + h) f (x) T (h)
lim = 0:
h!0 khk
9
Chapitre 1 : Généralités
Dans ce cas l’application T est alors unique et on note par Df (x) = T: L’ensemble des trans-
formations linéaires continue de Rn dans Rm et noté par L (Rn ; Rm ) ; et il existe une matrice
A (x) 2 Mm;n (R) dans la base fondamentale de Rn tel que Df (x) (y) = A (y) ; 8y 2 Rn ; avec
A (x) = Df (x) = (ai;j )16i m;1 j n :
on a 0 1 0 1
@f1 @f1 @f1
3x21 4x32 2x3
Df (x) = @ @x1 @x2 @x3 A=@ A:
@f2 @f2 @f2
@x1 @x2 @x3
10x1 6x22 1
Pour h = (h1 ; h2 ; h3 ) on a :
0 1
0 1 0 h1 1
3x21 4x32 2x3 B C 3h x 2
+ 4h x 3
+ 2h x
Df (x) h = @ AB C
B h2 C = @
1 1 2 2 3 3
A:
10x1 6x22 1 @ A 2
10h1 x1 + 6h2 x2 + h3
h3
Alors, on a 0 1
3x21 4x32 2x3
A (x) = @ A:
10x1 6x22 1
10
Chapitre 1 : Généralités
Proposition 1.2 On suppose que les dérivées partielles de f existent et continues en un point
a: Alors f est di¤érentiable en a:
Preuve
On suppose que n = 2. Le cas général se montre exactement de la même manière. Pour
h = (h1 ; h2 ) 2 R2 assez petits on peut dé…nir
@f @f
r (h) = f (a + h) f (a) h1 (a) h2 (a) :
@x1 @x2
On a
Alors :
Z 1 Z 1
@f @f @f @f
r (h) = h1 (a1 + sh1 ; a2 + h2 ) (a1 ; a2 ) ds+h2 (a1 ; a2 + sh2 ) (a1 ; a2 ) ds:
0 @x1 @x1 0 @x2 @x2
11
Chapitre 1 : Généralités
Puisque les dérivées partielles de f sont continues en a, il existe > 0 tel que pour tout h1 ; h2 2
[ ; ] et s 2 [0; 1] on a
@f @f
(a1 + sh1 ; a2 + h2 ) (a1 ; a2 ) < "
@x1 @x1
et
@f @f
(a1 ; a2 + sh2 ) (a1 ; a2 ) < ":
@x2 @x2
Cela preuve que jr (h)j " max (jh1 j , jh2 j) ; et …nalement r (h) = h!0 (khk) : D’où le résultat.
@f 2xy 3 @f x2 (x2 y 2 )
(x; y) = ; (x; y) = ;
@x (x2 + y 2 )2 @y (x2 + y 2 )2
qui n’est pas continue en (0; 0), en e¤et posons y = x avec 6= 0 on obtient
@f 2 3 x4 2 3
lim (x; y) = lim 2 = 2 2
;
(x;y)!(0;0) @x x!0 x4 1 + 2 1+
@f
et on a @x
(0; 0) = 0 donc
@f @f
lim (x; y) 6= (0; 0) ;
(x;y)!(0;0) @x @x
@f @f
donc @x
(x; y) n’est pas continue à l’origine. De même à @y
(x; y) :
f (x+h) f (x) T (h)
b) On montre que f n’est pas di¤érentiable c’est à dire limh!0 khk
6= 0: Posons
12
Chapitre 1 : Généralités
h1 = h2 on obtient :
@f (x) B @x1 C
B .. C
rf (x) = =B . C:
@xi i=1;:::;n @ A
@f (x)
@xn
On note dans R;
rf (x) = f 0 (x) :
2 2
Exemple 1.4 1. Soit f (x1 ; x2 ; x3 ) = 2x21 + 15 (x1 x22 ) + 20 (x2 + x23 ) : Le gradient de f est
donnée par : 0 1
4x1 + 30 (x1 x22 )
B C
B C
rf (x1 ; x2 ; x3 ) = B 60x2 (x1 x22 ) + 40 (x2 + x23 ) C :
@ A
2
80x3 (x2 + x3 )
13
Chapitre 1 : Généralités
Proposition 1.3 Pour tout x 2 Rn le gradient rf (x) est l’unique vecteur tel que pour tout
h 2 Rn on a :
Df (x) (h) = hrf (x) ; hi ;
@ 2 f (x)
H (x) = r2 f (x) = ; pour tout i; j 2 f1; : : : ; ng
@xi @xj i;j=1;:::;n
alors 0 1
@ 2 f (x) @ 2 f (x)
B @x21 @x1 @xn C
B .. ... .. C
H (x) = B . . C:
@ A
@ 2 f (x) @ 2 f (x)
@xn @x1 @x2n
On note dans R;
H (x) = f 00 (x) :
Remarque 1.3 Si f deux fois di¤érentiable en x alors r2 f (x) est une matrice symétrique, c’est
à dire :
@ @f @ @f
= :
@xi @xj @xj @xi
2 2
Exemple 1.5 1. Pour la fonction f (x1 ; x2 ; x3 ) = 2x21 + 15 (x1 x22 ) + 20 (x2 + a23 ) : La
hessienne de f est donné par :
0 1
34 60x2 0
B C
B C
r2 (x1 ; x2 ; x3 ) = B 60x2 6x1 + 180x22 + 40 80x3 C:
@ A
0 80x3 80x2 + 240x23
00
r2 f (x) = f (x) = 30x + 4 exp 2x2 + 16x2 exp 2x2 :
14
Chapitre 1 : Généralités
f (x; d) = dt rf (x) :
0 1
2 d1
Exemple 1.6 Soit f (x1 ; x2 ) = 2 (x21 + x2 ) 4 (x2 + 6) et soit d = @ A : La dérivée direc-
d2
tionnelle de f dans la direction d est :
Dé…nition 1.7 Soit f : Rn ! R une fonction continue. si pour tout d 2 Rn ; la dérivée direc-
tionnelle de f dans la direction d existe, alors la fonction f est dite di¤érentiable.
15
Chapitre 1 : Généralités
Dé…nition 1.9 Soit d un vecteur non nul de Rn . On dit que d est une direction de descente de
f en x 2 Rn si dT rf (x) < 0:
@f (x)
On dit que f est Gâteaux-di¤ érentiable en x si les dérivées directionnelles @v
sont dé…nies
@f (x)
pour tout v et si de plus l’application v 7! @v
est linéaire.
La formule de Taylor est un outil important en convexité. Nous rappelons dans le cas général
(voir [2] et [23]) :
Soit f une application de U Rn a valeur dans R, x 2 U et h 2 Rn ; alors :
Proposition 1.5 (Formule de Taylor avec reste intégrale) Si f de classe C 1 sur U , alors
Z 1
f (x + h) = f (x) + hrf (x + th) ; hi dt:
0
1
f (x + h) = f (x) + hrf (x) ; hi + r2 f (x) h; h + khk2 :
2
16
Chapitre 1 : Généralités
Proposition 1.7 (Formule de Taylor avec reste intégrale) Si f de classe C 2 sur U , alors
Z 1
f (x + h) = f (x) + hrf (x) ; hi + (1 t) r2 f (x + th) h; h dt:
0
La notation khkk pour k 2 Nn signi…e une expression qui tend vers 0 plus vite que khkk
( c’est à dire, si on la divise par khkk , le résultat tend vers 0 quand khk tend vers 0 ).
Remarque 1.4 a) Si f est de classe C 1 , alors il existe 0 < < 1 tel que :
f (x + h) = f (x) + hrf (x + h) ; hi :
1
f (x + h) = f (x) + hrf (x) ; hi + r2 f (x + h) h; h :
2
1.3 Convexité
La convexité joue un rôle extrêmement important en optimisation (Voir [3] et [4]) :
On voit assez ce qu’est un ensemble convexe et une fonction convexe, les propriétés de
convexité ainsi que quelques propositions importantes.
8x; y 2 U; 8t 2 [0; 1] on a tx + (1 t) y 2 U:
Autrement dit U est convexe si pour tous les points de U , le segment [x; y] est inclus dans U
(c’est à dire, 8x; y 2 U on a [x; y] U ).
17
Chapitre 1 : Généralités
P
Dé…nition 1.12 Soit x1 ; x2 ; : : : ; xn 2 Rn et j 0 tels que kj=1 j = 1: Toute expression de
P
la forme kj=1 j xj s’appelle combinaison convexe des points xj .
f ( x + y) f (x) + f (y) :
Exemple 1.8 - Les fonctions a¢ nes f (x) = ax + b sont des fonctions convexes et concaves.
En e¤et, soit ; 2 R+ tel que + = 1 on a : f ( x + y) = a ( x + y) + b =
a ( x + y) + ( + ) b = (ax + b) + (ay + b) = f (x) + f (y).
18
Chapitre 1 : Généralités
2. On dit que f est fortement convexe sur U s’il existe > 0 tel que :
19
Chapitre 1 : Généralités
f= 1 f1 + 2 f2 + + n fn :
Alors on a :
1. La fonction f est convexe donc toute combinaison linéaire avec des coe¢ cients strictement
positifs de fonctions convexes est convexe.
2. Si au moins l’une des fonctions f1 ; f2 ; : : : ; fp est strictement convexe alors f est strictement
convexe.
3. Si au moins l’une des fonctions f1 ; f2 ; : : : ; fp est fortement convexe alors f est fortement
convexe.
Où le premier gradient dans le membre de droite de l’égalité est considéré par rapport à la variable
x:
Il est en général di¢ cile de véri…er la convexité d’une fonction en utilisant uniquement la
dé…nition (essayez avec f (x) = x2 ) les propositions suivantes donnent des critères de convexité,
convexité stricte et convexité forte [7].
20
Chapitre 1 : Généralités
Preuve
En …xant x; y en divisant par t et en faisant t tend vers 0 (ce qui est possible car t 2 [0; 1]) on
obtient 2).
2) ) 3) : De 2) on déduit
et on a aussi (prendre y en x et x en y) :
t 2 I ! g (t) = f (ty + (1 t) x) 2 R;
21
Chapitre 1 : Généralités
où I est un intervalle ouvert qui contient [0; 1]. Il est facile de voir que g est de classe C 1 et on a
Par hypothèse 3) le dernier terme de l’égalité précédente 0, ce qui montre que la fonction g 0
est une fonction croissante. On déduit alors que g est une fonction convexe sur [0; 1] ; ce qui nous
donne pour tout t 2 [0; 1] :
g (t 1 + (1 t) 0) tg (1) + (1 t) g (0) ;
c’est à dire
f (ty + (1 t) x) tf (y) + (1 t) f (x)
b) On suppose ici f 2 C 2 :
“)” Supposons que f est convexe et montrons (1:1). Soit h 2 Rn …xé et notons g : 7! R la
fonction donnée par g (x) = hrf (x) ; hi ; 8 x 2 . En utilisant aussi la proposition (1:9) :
22
Chapitre 1 : Généralités
x + t (y x) 2 U 8t 2 [0; 1] ;
“(=” Supposons maintenant que (1:1) est satisfaite et montrons que f est convexe. Soient
x; y 2 U …xées arbitraires, considérons la fonction g1 : ! R donnée par
Alors
23
Chapitre 1 : Généralités
b) Si de plus f est de classe C 2 sur alors f est fortement convexe sur U si et seulement s’il
existe > 0 tel que :
Remarque 1.6 1. Dans la proposition (1:11) b) il n’y a pas d’équivalence entre la stricte
convexité de f et l’inégalité (1:2) de cette proposition dans le cas f 2 C 2 (par exemple la
24
Chapitre 1 : Généralités
fonction f : R ! R donnée par f (x) = x4 est strictement convexe, mais l’inégalité n’est
pas satisfait si x = 0).
2. Dans le cas particulier où l’ensemble U est ouvert alors les 3 propositions précédentes les
inégalités (1:1) ; (1:2) et (1:3) concernant la matrice hessienne r2 f s’écrivent respective-
ment :
Pour voir ceci il su¢ t de remarquer que d’une part, pour tout y 2 U on peut considérer
h=y x 2 Rn et d’autre part, que pour tout h 2 Rn on peut considérer y = x + th 2 U
avec t > 0 assez petit.
On rétrouve alors une caractérisation bien connue pour la convexité et la convexité stricte.
Exemple 1.9 Soit la fonction f : R ! R donnée par f (x) = x2 . Comme rf (x) = f 0 (x) = 2x
on a 8x; y 2 R :
h 00 0
i
hrf (x) rf (y) , x yi = f (x) f (y) : (x y) = 2 (x y)2 kx yk2 avec = 2;
f 00 (x) = 2 = > 0;
25
Chapitre 1 : Généralités
Dé…nition 1.15 (Matrice dé…nie positive) Soit A 2 Mn (R) une matrice carré réelle on dit
que :
8 d 2 Rn ; dt Ad > 0:
8 d 2 Rn ; dt Ad 0:
- Si H (x) est semi dé…nie positive pour tout x 2 Rn ; alors f est convexe.
- Si H (x) est dé…nie positive pour tout x 2 Rn ; alors f est strictement convexe.
Preuve
On démontre par l’absurde, on suppose que rf (x ) 6= 0: Si on pose d = rf (x ) ; on
obtient :
rf (x )T d = krf (x )k2 < 0;
26
Chapitre 1 : Généralités
ce qui donne une contradiction avec le fait que x est un minimum, d’où rf (x ) = 0:
Remarque 1.7 La proposition précédente donne une condition nécessaire n’est pas su¢ sante
c’est à dire rf (x ) = 0 n’entraîne pas que f atteint un minimum (ou un maximum). Prendre
par exemple, soit f une fonction dé…nie de R dans R par f (x) = x3 . on a :
f 0 (x) = 3x2 = 0 ) x = 0;
Preuve
Soit d 2 Rn ; d 6= 0: Pour s assez petit, on dé…nit
: s 2 R 7! f (x + sd) :
1
f (x + sd) f (x ) = s2 dT H (x ) d + s2 :
2
Proposition 1.15 (Conditions su¢ santes d’optimalité) [5] Soit f : Rn ! R deux fois dif-
férentiable en x : Si rf (x ) = 0 et la matrice hessienne H (x ) est dé…nie positive, alors x est
un minimum local strict de f:
27
Chapitre 1 : Généralités
" # p1
X
n
p
8 x = (x1 ; : : : ; xn ) 2 Rn kxkp = jxi j ; avec p 2 N :
i=1
28
Chapitre 1 : Généralités
Exemple 1.10
- Pour n = 2 et x = (x1 ; x2 ) ; f dé…nie par f (x) = x21 + x22 ax1 bx2 c; est coercive pour
tout réels a et b.
- f dé…nie par f (x) = x21 x22 n’est pas coercive. En e¤et la suite xn = (0; n) est telle que
kxn k ! +1 (on peut prendre par exemple kxn k = kxn k1 = n) et pourtant f (xn ) = n2
ne converge pas vers +1.
De la même manière, (toujours dans le cas n = 2), la fonction f dé…nie par f (x) = x21 n’est
pas coercive. C’est encore choisir pour le montrer la suite (0; n) car f (0; n) = 0:
Preuve
Ecrivons l’inégalité 2 de la proposition (1:12) avec x = a où a est un élément …xé de U :
29
Chapitre 1 : Généralités
Alors il existe au moins un point de minimum de f sur U (c’est à dire, 9x 2 U tel que
f (x ) f (x) ; 8x 2 U )
Preuve
30
Chapitre 1 : Généralités
1
1. E est fermé (car E = f (] 1; f (a)]) ; donc E est l’image inverse d’un intervalle fermé
par une fonction continue )
2. E est borné ( supposons le contraire : alors il existe une suite xk 2 E avec kxk k ! +1
pour k ! +1. Comme f est coercive, ceci entrainne f (xk ) 7! +1 ce qui absurde, car
f (xk ) f (a) ; 8k 2 N:).
Preuve
1 1 1 1
f x1 + x2 < f (x1 ) + f (x2 ) = f (x1 ) :
2 2 2 2
31
Chapitre 1 : Généralités
Théorème 1.4 (Existence et unicité) [15] Soit f : Rn ! R une fonction. On suppose que :
(i) f continue
(ii) f coercive
f (x) = x2 + 2x + 1:
On calcule le gradient de f en x :
rf (x ) = f 0 (x ) = 2x + 2:
f 0 (x ) = 0 () 2x + 2 = 0 ) x = 1:
- Si H (x ) est dé…nie positive ( c’est à dire tous ses n mineurs diagonaux principaux sont
strictement positifs ), alors x est un minimum local de f .
32
Chapitre 1 : Généralités
- Si H (x ) est dé…nie négative ( c’est à dire tous ses n mineurs diagonaux principaux d’ordre k
(k = 1; : : : ; n) Mk véri…ent : ( 1)k Mk > 0 ), alors x est un maximum local de f .
- Si l’un des mineurs diagonaux principaux est non nul et ne véri…e pas l’une des deux règles de
signes ci-dessus, alors x est un point selle.
on calcule le gradient de f
0 1 0 1
@f 2 2
(x; y) 3x + 6xy + 3y
rf (x; y) = @ @x A=@ A:
@f 2
@y
(x; y) 3x + 6xy + 3
On a 0 1 0 1
2 2
3x + 6x y + 3y 0
rf (x ; y ) = 0 ) @ 2
A=@ A;
3x + 6x y + 3 0
ce qui donne
8 8 8
< x 2 + 2x y + y 2 = 0 < (x + y )2 = 0 < x = y
) ) ;
: x 2 + 2x y + 1 = 0 : x 2 + 2x y + 1 = 0 : x = 1
on a donc 0 1 0 1
0 0 0 0
H ( 1; 1) = @ A et H (1; 1) = @ A:
0 6 0 6
33
Chapitre 1 : Généralités
Remarque 1.9 Dans le cas ou f est convexe, alors tout minimum local est aussi global. De plus
si f est strictement convexe, alors tout minimum local devient non seulement global mais aussi
unique.
34
Chapitre 2
2.1 Introduction
Dans ce chapitre, nous allons présenter quelques méthodes d’optimisation les plus utilisées
dans la pratique.
Deux classes d’algorithmes soient présentées les algorithmes multidimensionnelles et les al-
gorithmes unidimensionnelles. La première classe présente les algorithmes locaux et la deuxième
classe présente les algorithmes uniquement globaux.
La méthode ( ou algorithme ) du gradient fait partie de la classe plus grande des méthodes
appelées méthodes de descente.
35
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
On veut minimiser une fonction f . Pour cela on se donne un point de départ arbitraire x0 :
Pour construire l’itéré suivante x1 il faut penser qu’on veut rapprocher du minimum de f , on
veut donc que f (x1 ) < f (x0 ) : On cherche alors x1 sous la forme x1 = x0 + 0 d0 où d0 2 Rn et
0 > 0: En pratique donc, on cherche d0 et 0 pour que f (x0 + 0 d0 ) < f (x0 ) : Quand d0 existe
on dit que c’est une direction de descente et 0 est le pas de descente. La direction et le pas
de descente peuvent être …xé ou changer à chaque itération. Le schéma général d’une méthode
de descente est le suivant :
8
< x donné dans Rn
0
:
: x n
k+1 = xk + k dk ; avec dk 2 R et k >0
f (xk+1 ) = f (xk + k dk )
= f (xk ) + k rf (xk ) dk + ( k dk ) :
Or, puisque l’on désire avoir : f (xk+1 ) f (xk ) ; une solution évidente consiste à prendre :
dk = rf (xk ) :
La méthode obtenue ainsi obtenue s’appelle méthode de gradient. Donc le schéma général de la
méthode est : 8
< x donné dans Rn
0
:
: x
k+1 = xk k rf (xk ) ; avec k >0
Algorithme du Gradient :
36
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
1. Initialisation
k = 0 : choix de x0 et de 0 > 0:
2. Itération k
Le pas k est choisi constant ou variable
xk+1 = xk k rf (xk ) :
3. Critère d’arrêt
Si kxk+1 xk k < "; STOP.
Sinon, on pose k = k + 1 et on retourne à 2.
Théorème 2.1 [26] Soit f une fonction de classe C 1 de Rn dans R, x est un minimum de f ,
supposons que :
2
S’il existe deux réels a et b tels que 0 < a < k <b< L2
; pour tout k 0; alors la méthode
du gradient converge pour tout choix de x0 de façon géométrique c’est à dire :
k
9 2 ]0:1[ ; kxk xk kx0 x k:
37
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
C’est une méthode de descente utilisant un pas …xe k = (indépendant de k). La convergence
de la méthode est assurée sous les hypothèses du théorème précédent, en particulier pour un
choix de pas véri…ant :
2
0< < :
L2
C’est la méthode de gradient la plus simple à utiliser.
f (x) = 2x2 + 3x 1:
Calculons le pas On a :
38
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
Itération 1
x1 = x0 f 0 (x0 )
d’ou x1 = 0:75;
STOP.
1
f (v) = hAv; vi hb; vi ;
2
39
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
hrk , dk i
k = ;
hAdk , dk i
et l’on a hrk+1 , dk i = 0:
Notons E (v) = 21 hA (v u) ; v ui ; on a alors
E (xk+1 ) = (1 k) E (xk ) ;
avec
1 hrk , dk i2
k = :
2 hAdk , dk i hA 1 rk , rk i
Puisque la quantité k est par construction telle que 0 k 1; on a l’estimation suivante :
2
rk dk
, > 0;
krk k kdk k
alors k = K(A)
( où K (A) est le conditionnement de A, c’est à dire le rapport de la plus
grande à la plus petite valeur propre ), et donc
E (xk+1 ) = (1 ) E (xk ) :
La méthode de Newton est une méthode itérative générale de résolution d’un système non-
linéaire.
une condition pour x soit solution du problème d’optimisation minRn f (x) avec f : Rn ! R
est qu’il s’annule le gradient de f:
x est une solution de l’équation rf (x) = 0: On cherche à résoudre cette équation .
On peut résoudre l’équation g (x) = rf (x) = 0 par la méthode de Newton qui permet de
résoudre l’équation g (x) = 0.
40
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
Soit x0 2 Rn ; à l’itération k + 1
g (xk ) 1
xk+1 = xk = xk (g 0 (xk )) g (xk ) :
g 0 (xk )
1
xk+1 = xk r2 f (xk ) rf (xk ) :
1
Où r2 f (xk ) = H (xk ) est la forme hessienne de f et (H (xk )) l’inverse de H (xk ) :
La méthode nécessite l’évaluation de la matrice hessienne de f , elle ne peut être utilisée que si
f est deux fois continument di¤érentiable. On peut remarquer que la méthode s’arrête également
lorsque rf (xk ) = 0: Si en plus, r2 f (xk ) est dé…nie positive alors xk est un minimum local
d’après la condition su¢ sante donnée au proposition (1:15) :
Algorithme du Newton :
1. Initialisation
k = 0 : choix de x0 :
2. Itération k
1
xk+1 = xk r2 f (xk ) rf (xk ) :
3. Critère d’arrêt
Si kxk+1 xk k2 < "; STOP.
Sinon, on pose k = k + 1 et on retourne à 2.
Remarque 2.2 Si le point x1 est assez proche de la solution optimale local x telle que H (x )
soit dé…nie positive alors l’algorithme de Newton converge de façon quadratique vers la solution
x c’est à dire :
kxk+1 xk kxk x k2 0:
41
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
0 1 0 1
x01 2
Soit x0 = @ A=@ A ; on trouve les itérations 1 et 2 par la méthode de Newton d’opti-
x02 3
misation 8
< x0 donné
:
: xk+1 = xk r2 f (xk )
1
rf (xk )
On a 0 1 0 1 0 1
2x01 1 3 2 0
rf (x01 ; x02 ) = @ A=@ A ; r2 f (x01 ; x02 ) = @ A:
2x2 0
2 4 0 2
1
On pose dk = r2 f (xk1 ; xk2 ) rf (xk1 ; xk2 ) alors :
8
< x0 donné
:
: xk+1 = xk + dk
alors 0 10 1 0 1 8
2 0 d01 3 < 2d0 = 3
1
@ A@ A=@ A) :
0 2 d02 4 : 2d02 = 4
0 1
3
D’ou d01 = 2
3
; d02 = 2 ) d0 = @ 2 A ; ce qui donne :
2
0 1 0 1 0 1
3 1
2
x1 = x0 + d0 = @ A+@ 2 A=@ 2 A:
3 2 1
0 1 0 1 0 1 0 1
1 1 1
0
x2 = x1 + d1 = @ 2 A+@ A=@ 2 A : Ainsi le point @ 2 A est la solution approché de la
1 0 1 1
fonction f:
42
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
Dans la pratique pour les problèmes de grande dimension, le calcule du hessienne est très
di¢ cile, on peut alors utiliser des algorithmes dites Quasi-Newton qui calcul une approximation
1
Bk de r2 f (xk ) en fonction de Bk+1 ; rf (xk ) ; rf (xk 1 ) ; xk ; xk 1 :
En utilisant Broyden :
(yk 1 Bk 1 :dk 1 ) T
Bk = Bk 1 + T
:dk 1 ;
dk 1 :dk 1
Dé…nition 2.1 (Fonction unimodale) Soit f dé…nie sur intervalle I R: On dit que f (x)
est unimodale si elle admet un unique minimum x dans I; elle est strictement décroissante sur
I \ ] 1; x [ et strictement croissante sur I \ ]x ; +1[ :
Exemple 2.3 La fonction f (x) = jxj est une fonction unimodale sur l’intervalle [ 1; 1] :
43
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
Proposition 2.1 Si f est strictement convexe sur I et atteint son minimum sur I en un point
x dans l’intérieur de I alors elle est unimodale.
La méthode de Dichotomie est une méthode unidimensionnelle qui utilisé pour la fonction
unimodale.
Au départ, à l’aide d’un algorithme préliminaire, on choisit a et b tels que le minimum de f
soit atteint entre a et b. On partage alors, à l’aide de points d; c et e; l’intervalle [a; b] en quatre
sous-intervalles égaux :
a+b a+c c+b
c= ; d= ; e= :
2 2 2
En comparant les valeurs prises par f en a, b; c; d et e, on peut éliminer deux des sous-intervalles
dé…nis par ces points et a¢ rmer que le minimum de f est atteint dans l’union de deux sous-
intervalles contigus [a1 ; c1 ] et [c1 ; b1 ] :
On évalue la fonction f (x) dans ces points qui donnent le résultat suivant :
1. Si f (a) < f (d) < f (c) < f (e) < f (b) alors, on peut éliminer c; e; et b:
2. Si f (a) > f (d) < f (c) < f (e) < f (b) alors, on peut éliminer e; b:
3. Si f (a) > f (d) > f (c) < f (e) < f (b) alors, on peut éliminer a; b:
4. Si f (a) > f (d) > f (c) > f (e) < f (b) alors, on peut éliminer a; d:
5. Si f (a) > f (d) > f (c) > f (e) > f (b) alors, on peut éliminer a; d; et c:
5 19 1
f (a) = 7; f (b) = 2; f (c) = ; f (d) = ; f (e) = ;
2 4 4
44
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
Donc
f (a) > f (d) > f (c) > f (e) < f (b) :
D’après la comparaison on peut éliminer a et d; C’est à dire le minimum est forcément entre c
et b:
On construit une suite décroissante d’intervalles [ai ; bi ] qui contiennent tous le minimum
x : Pour passer de [ai ; bi ] à [ai+1 ; bi+1 ] ; on procède de la manière suivante. On introduit deux
nombres a0 et b0 de l’intervalle [ai ; bi ] tels que a0 < b0 : Puis, on calcule les valeurs f (a0 ) et f (b0 ) :
Trois possibilités se présentent alors à nous. Si f (a0 ) < f (b0 ) ; alors le minimum x se trouve
nécessairement à gauche de b0 , ceci dé…nit alors le nouvel intervalle en posant ai+1 = ai et
bi+1 = b0 : Considérons maintenant que l’inégalité : f (a0 ) > f (b0 ) est satisfaite. Dans ce second
cas , il est évident que le minimum se trouve cette fois à droite de a0 ; on pose alors : ai+1 = a0 et
bi+1 = bi : En…n, le dernier cas consiste à avoir f (a0 ) = f (b0 ) : Alors le minimum se trouve dans
l’intervalle [a0 ; b0 ] : On se restreint donc à ai+1 = a0 et bi+1 = b0 :
Pour choisir a0 et b0 en pratique en général, on privilégie deux aspects :
(i) On souhaite que le facteur de réduction ; qui représente le ratio du nouvel intervalle par
rapport au précédent, soit constant.
(ii) On désire réutiliser le point qui n’a pas été choisi dans l’itération précédente a…n de diminuer
les coûts de calculs.
On peut montrer que la véri…cation simultanée de ces deux contraintes conduits à un choix
unique des paramètres a0 et b0 . Plus précisément, supposons que f est unimodale. Alors on
obtient l’algorithme ci- dessous dit de la section dorée, la méthode tirant son nom de la valeur
du paramètre :
45
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
p
1+ 5
poser = 2
poser a0 = a
poser b0 = b
pour i = 0; : : : ; N max
1
poser a0 = ai + 2 (bi ai )
poser b0 = ai + 1 (bi ai )
si (f (a0 ) < f (b0 )) alors
poser ai+1 = ai
poser bi+1 = b0 :
sinon si (f (a0 ) > f (b0 )) alors
poser ai+1 = a0
poser bi+1 = bi
sinon si (f (a0 ) = f (b0 )) alors
poser ai+1 = a0
poser bi+1 = b0
…n si
…n pour i
Ici, N max est le nombre maximal d’itérations que l’on se …xe. A cette …n, on doit valider un
critère d’arrêt de la forme : jbi+1 ai+1 j < "; où " est l’erreur que l’on se permet sur la solution
x du problème.
Elle est appliquée aux fonctions deux fois continument di¤érentiables dont la dérivée seconde
est bornée.
Dé…nition 2.2 On dit qu’une fonction F est parabolique par morceaux sur [a; b] ; s’il existe une
famille …nies d’intervalles (Ii )1 i k disjoints deux à deux tels que :
46
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
C’est une méthode unidimensionnelle, qui consiste à construire une suite croissante de fonction
(Fk )1 k N parabolique par morceaux, dont les minima globaux forment une suite qui converge
vers le minimum global de f:
C’est à dire :
d2 f (x)
Théorème 2.3 Soit f une fonction deux fois di¤érentiable et véri…e 8x 2 [a; b], dx2
M;
(M > 0) : Alors 8x1 ; x2 2 [a; b] véri…ant x1 x2 , la parabole ' (x) dé…nie par :
8
>
> ' (x1 ) = f (x1 )
2
>
<
d ' (x)
= M; 8x 2 [a; b] et et ;
dx2 >
>
>
: ' (x ) = f (x )
2 2
Preuve
Posons g (x) = ' (x) f (x) pour x 2 [a; b] :
Alors g 00 (x) = '00 (x) f 00 (x) = M f 00 (x) 0: Donc g est convexe.
On a : g (x1 ) = g (x2 ) = 0 ) g (x) 0 8x 2 [a; b] ; d’ou ' (x) f (x) :
Fk : [a; b] ! R
x ! '[xj ;xj+1 ] (x) si x 2 [xj ; xj+1 ] :
47
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
h i
Fk (x) = '[a;x1 ] ; '[x1 ;x2 ] ; : : : ; '[xk 1 ;xk ]
:
Maintenant, cherchons une parabole ' (x) véri…ant '00 (x) = M et passant par les deux points
(x1 ; y1 ) ; (x2 ; y2 ) ; x1 6= x2 : C’est à dire :
8
< y = ' (x )
1 1
:
: y = ' (x )
2 2
M 2
Posons ' (x) = 2
x + x + : On a :
8
< y = M 2
x + x1 +
1 2 1
:
: y = M 2
x + x2 +
2 2 2
y1 y2 M x1 y2 x2 y1 M
= (x1 + x2 ) ; = + x1 x2 :
x1 x2 2 x1 x2 2
'0 (x) = M x +
y1 y2 1
'0 (x0 ) = 0 ) x0 = = + (x1 + x2 ) :
M M (x2 x1 ) 2
L’algorithme de Brent :
1. Initialisation :
Poser k = 1
f (b) f (a) a+b
x1 = M (b a)
+ 2
48
Chapitre 2 : Quelques méthodes et algorithmes de minimisation
49
Chapitre 3
3.1 Introduction
L’utilisation de l’énergie solaire est une option énergétique prometteuse qui répond à la de-
mande croissante en énergie dans le monde, avec des avantages comme l’absence de la pollution
et la disponibilité partout au globe terrestre.
L’énergie photovoltaïque résulte de la transformation directe de la lumière du soleil en énergie
électrique au moyen des cellules généralement à base de silicium cristallin qui reste la …lière la
plus avancée sur le plan technologiques et industriel, en e¤et le silicium est l’un des éléments les
plus abondants sur terre sous forme de silice non toxique.
En e¤et le mot "photovoltaïque" vient du grec "photo" qui signi…e lumière et de "voltaïque"
qui tire son origine du nom d’un physicien italien Alessandro Volta (1754-1827) qui a beaucoup
contribué à la découverte de l’électricité, alors le photovoltaïque signi…e littérairement la «lumière
électricité» .
50
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
1875 : Werner Von Siemens expose devant l’académie des sciences de Berlin un article sur
l’e¤et photovoltaïque dans les semi-conducteurs.
1954 : Trois chercheurs américains Chapin, Peason et Prince fabriquent un cellule photovol-
taïque.
1958 : Une cellule avec un rendement 9%, les premiers satellites alimentés par des cellules
solaires sont envoyés dans l’espace.
1973 : La première maison alimentée par des cellules photovoltaïques est construite à l’univer-
sité de Delware.
1983 : La première voiture alimentée en énergie photovoltaïque parcourt une distance de 4000
Km en Australie.
51
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
présente bien comme une alternative aux autre sources d’énergie. Cette quantité d’énergie quit-
tera sa surface sous forme de rayonnement électromagnétique compris dans une longueur variant
de 0:22 à 10 m, l’énergie associe à ce Rayonnement solaire se décompose approximativement
comme suit :
Au cours de ces dix derniers années ce spectre à été homologués par l’organisation internatio-
nal ( ISO 9845-1 : 1992 ) et la société américaine de test et de matériaux ( ASTME 892-87 : 1992)
ont …xées le ‡ux de standardisation à 1000 W=m2 . Cette énergie est dé…nie comme paramètre
solaire qui à une valeur variable suivant la saison, l’heure, la localisation géographique du site,
les conditions météorologues (poussière, humidité,...ect.).
52
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
284 + j
= 23:45 sin 2
365
Où j est le numéro d’ordre du jour de l’année ( n = 1 pour le 1er Janvier, n = 32 pour le 1er
Février,...etc.).
La déclinaison varie entre 23:45 le 21 décembre et +23:45 le 21 juin.
53
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
Avantages
- Le technologie photovoltaïque présente des qualités sur le plan écologique car le produit et non
polluant, silencieux, et n’entraîne aucune perturbation du milieu.
- Ils peuvent être des systèmes autonomes qui fonctionnent sûrement, sans surveillance pendant
de longues périodes.
- Ils n’ont besoin d’aucun raccordement à une autre source d’énergie où à un approvisionnement
en carburant.
- Ils peuvent être combinés avec d’autres sources d’énergie pour augmenter la …abilité de système.
- Ils peuvent résister à des conditions atmosphériques pénibles comme la neige et la glace.
- Ils ne consomment aucun combustible fossile et leur carburant est abondant et libre.
- Une haute …abilité car l’installation ne comporte pas de pièces mobiles, ce qui la rend particu-
lièrement appropriée aux régions isolées, d’où son utilisation sur les engins spatiaux.
Inconvénients
- L’énergie issue du générateur photovoltaïque est continue et de faible voltage (< à 30 V ) donc
il doit être transformé par l’intermédiaire d’un onduleur.
- La fabrication des modules photovoltaïque relève de la haute technique, ce qui rend le coût
très élevé.
54
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
- Beaucoup d’appareils vendus sur les marches fonctionnent avec du 130 V alternatif.
55
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
circuitée par une diode (car la photopile est une jonction p n).
I = Iph ID
qV
= Iph I0 exp 1 :
AKT
Avec
I : Le courant fourni par la cellule.
Iph : Le photo-courant.
I0 : Le courant de saturation de la diode.
19
q : Charge d’électron ( = 1:602 10 C).
23
K : Constante de Boltzmann ( = 1:381 10 Joule/Kelvin).
T : La température de cellule en Kelvin.
56
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
sortie.(voir [6])
Rauschenbach (1980) et Townsend (1981) ont prouvé que des cellules photovoltaïques peuvent
être modélisées par un circuit électrique équivalent qui contient des paramètres ayant les signi…-
cations liées aux phénomènes physiques de la cellule.
Rauschenbach (1980) et Green (1981) ont passé en revue plusieurs circuits équivalents et ils
ont recommandé l’utilisation de circuit d’une seule diode à quatre paramètres.
Roger (1984), Appelbaum (1987), Ekstein (1990), Du¢ e et Beckmann (1991) et Alghuwainem
(1992) ont employé le modèle à quatre paramètres.
Réellement il existe plusieurs in‡uences des résistances parasites dans la production de l’éner-
gie électrique, et la cellule photovoltaïque est représentée généralement par le schéma suivant :
C’est le modèle le plus classique dans la littérature, il fait intervenir un générateur de courant
pour la modélisation du ‡ux lumineux incident, une diode pour les physiques de polarisation et
deux résistances (série et shunt).
Ces résistances auront une certaine in‡uence sur la caractéristique I V de la photopile :
57
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
- La résistance shunt est due à un courant de fuite au niveau de la jonction, elle dépend de la
façon dont celle-ci a été réalisée.
q (V + RS I)
ID = I0 exp 1 :
KT
Le courant généré par la cellule PV est donné par la loi des mailles
I = Iph ID Ish
q (V + RS I) V + RS I
= Iph I0 exp 1 :
KT RSh
Avec :
I : Le courant fourni par la cellule.
Iph : Le photo-courant.
I0 : Le courant de saturation de la diode.
19
q : Charge d’électron ( = 1:602 10 C).
23
K : Constante de Boltzmann ( = 1:381 10 Joule/Kelvin).
T : La température de cellule en Kelvin.
RS : Résistance série.
RSh : Résistance shunt.
58
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
diode.
Le courant généré par la cellule PV est donné par la loi des mailles
I = Iph ID
q (V + RS I)
= Iph I0 exp 1 :
KT
Avec
I : Le courant fourni par la cellule.
Iph : Le photo-courant.
I0 : Le courant de saturation de la diode.
19
q : Charge d’électron ( = 1:602 10 C).
23
K : Constante de Boltzmann ( = 1:381 10 Joule/Kelvin).
T : La température de cellule en Kelvin.
RS : Résistance série.
Fonction objective
qV
I = Iph I0 exp 1 :
AKT
59
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
qV
P (V ) = I V = Iph V I0 V exp 1
AKT
= V V [exp ( V ) 1] :
60
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
P (V ) ' V V [1 + V 1]
' V V 2:
61
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
7
f (x) = x2 + x:
2
On pose
7
g (x) = f (x) = x2 x:
2
62
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
Calculons le pas , on a :
7 7
jrg (x) rg (y)j = 2x 2y = j2 (x y)j 2 jx yj ;
2 2
- Itération 1
x1 = x0 g 0 (x0 )
1 7 7
= 0 2 0 = ;
2 2 4
d’ou x1 = 47 :
7 7
Critère d’arrêt : jx1 x0 j = 4
0 = 4
> ":
63
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
- Itération 2
x2 = x1 g 0 (x1 )
7 1 7 7 7
= 2 = ;
4 2 4 2 4
d’ou x2 = 74 :
7 7
Critère d’arrêt : jx2 x1 j = 4 4
= 0 < ":
7
Avec g 0 (x) = 2x 2
: D’ou on pose x0 = 0 on a
- Itération 1
0
x1 = x0 0g (x0 )
0
0 = arg min g [x0 0g (x0 )]
7
= arg min g x0 0 2x0
2
7
= arg min g 0 0 2 0
2
7
= arg min g 0 ;
2
d’ou
7 49 2 49
g 0 = 0 0:
2 4 4
64
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
D’autre part
7 49 49 1
g0 0 =0, 0 =0) 0 = ;
2 2 4 2
donc
0
x1 = x0 0g (x0 )
1 7 7
= 0 2 0 = ;
2 2 4
d’ou x1 = 47 :
7 7
Critère d’arrêt : jx1 x0 j = 4
0 = 4
> ":
- Itération 2
0
x2 = x1 1g (x1 )
0
1 = arg min g [x1 1g (x1 )]
7
= arg min g 1 0
4
7
= arg min g :
4
D’ou
7
1 = ;
4
donc
0
x2 = x1 1g
(x1 )
7 7 7 7 7
= 2 = ;
4 4 4 2 4
d’ou x2 = 74 :
7 7
Critère d’arrêt : jx2 x1 j = 4 4
= 0 < ":
STOP. Donc x = x2 = 74 :
65
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
Resevoir à :
g (a) > g (d) > g (c) < g (e) < g (b) :
g (a) = 2:297; g (b) = 2:297; g (c) = 3:06; g (d) = 2:870 et g (e) = 2:871;
Donc
g (a) > g (d) > g (c) < f (e) < g (b) :
66
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
g (a) = 2:870; g (b) = 2:871; g (c) = 3:06; g (d) = 3:014 et g (e) = 3:014;
Donc
g (a) > g (d) > g (c) < g (e) < g (b) :
g (a) = 3:014; g (b) = 3:014; g (c) = 3:06; g (d) = 3:05 et g (e) = 3:05;
Donc
g (a) > g (d) > g (c) < g (e) < g (b) :
67
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
g (a) = 3:05; g (b) = 3:052; g (c) = 3:062; g (d) = 3:06 et g (e) = 3:06:
On résulte
g (a) > g (d) > g (c) < g (e) < g (b) :
g (a) = 3:059; g (b) = 3:06; g (c) = 3:062; g (d) = 3:061 et g (e) = 3:061;
ce qui arrive à :
g (a) > g (d) > g (c) < g (e) < g (b) :
On a la continuité et l’unimodalité de g sur l’intervalle [0; 3:5], alors g (x) admet un seul
minimum dans cet intervalle, donc en peut appliqué la méthode de section dorée.
p
1+ 5
On pose = 2
; a0 = a = 0; b0 = b = 3:5 et " = 0:06,
posons
1
a0 = ai + 2
(bi ai )
1
b 0 = ai + (bi ai ) ;
68
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
Itération 1 : pour i = 0, on a
1
a0 = a0 + 2
(b0 a0 ) = 1:336
1
b 0 = a0 + (b0 a0 ) = 2:163;
d’où
g (a0 ) = 2:892; g (b0 ) = 2:892;
a1 = a0 = 1:336
b1 = b0 = 2:163:
1
a0 = a1 + 2
(b1 a1 ) = 1:651
1
b 0 = a1 + (b1 a1 ) = 1:847;
puis
g (a0 ) = 3:053; g (b0 ) = 3:052;
a2 = a0 = 1:651
b2 = b0 = 1:847;
69
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque
Itération 3 : pour i = 2, on a
1
a0 = a2 + 2
(b2 a2 ) = 1:725
1
b 0 = a2 + (b2 a2 ) = 1:772;
conséquence
g (a0 ) = 3:06; g (b0 ) = 3:06;
a3 = a0 = 1:725
b3 = b0 = 1:772;
C’est à dire le nouvel intervalle est [1:725; 1:772] : On a j1:772 1:725j < " donc STOP.
D’ou on conclu que le minimum de la fonction g est :
7 49
g (x ) = g = :
4 16
Ce qui donne
49
max f (x) = min ( f (x)) = min g (x) = :
16
Conclusion
Dans la première partie de ce chapitre, nous avons présenté une introduction et quelques
avantages et inconvénients sur les systèmes photovoltaïques.
Ensuite nous avons appliqué quelques méthodes d’optimisation pour augmenter et maximiser
la puissance P en fonction a la tension V pour améliorer les performances du système photovol-
7
taïque. Finalement, on résulte que pour une tension égale 4
donne une puissance maximale égale
49
16
:
70
Conclusion
Dans ce mémoire, nous avons présenté di¤érentes méthodes de résolution des problèmes d’op-
timisation déterministe. Dans le cas ou le problème est unidimensionnel c’est-à-dire la fonction
objectif à une seule variable ces problèmes sont relativement faciles à résoudre. Mais la di¢ culté
deviennent beaucoup plus considérables lorsqu’on besoin du minimum global pour le problème
multidimensionnel c’est à dire d’une fonction à plusieurs variables.
Le but assigné à ce mémoire consiste à appliquer les méthodes de Gradient, Dichotomie et
Section Dorée dans le but de maximiser la puissance générée pour avoir un bon rendement du
système photovoltaïque.
Conclusion
In this memory we have presented di¤erent resolution methods on problems of global opti-
mization. In the case of a function of a single variable such problems are relatively easy to solve.
Di¢ culties become much more signi…cant when a need of the global minimum of a function of
several variables.
The purpose of this memory is to apply the Gradient, Dichotomie and Golden search methods
to maximize the power generated to have a good performance of photovoltaic system.
71
Bibliographie
[2] M. Bellou…. Cours d’optimisation sans contraintes. Université Mohamed Cherif Messaadia,
Souk-Ahras, (2015).
[3] M. Bergounioux. Optimisation et contrôle des systèmes linéaires, Dunod, Paris, (2001).
[11] R. Danchin. Cours de calcul di¤érentiel. Licence de Mathématiques, 3éme année, (2010).
72
Bibliographie
[13] R. Fletcher. Practical methods of optimization. John Wily & Sons, New-York, (1987).
[14] T. Hamaizia. A novel class of Filled function for global optimization, International journal
of Mathematics & Computation, Volume 22, No.1, (2013).
[15] T. Hamaizia. Cours d’Optimisation Sans Contraintes, Université Larbi Ben M’hidi d’Oum
Elbouaghi, (2015).
[20] M. Pierre, A. Henort. Analyse numérique. Ecole des Mines de Nancy, (2013-2014).
[22] L. Pujo-Menjouet. Cours de calcul di¤érentiel. Université Claude Bernard, Lyon, France.
[24] R-T. Rockafellar. Convex Analysis, Princeton Mathematics Ser. 28, Princeton University
Press, Princeton, New Jersey, (1970).
73