Sara
Sara
Mémoire Présenté
En Recherche Opérationnelle
abb
bbb
bbb
bbb
bbb
bbb
bbb
bbb
bbb
bbb
bbb
bbb
bbb
bbc
d e
Résolution d’un problème d’optimisation
d e
d e
multi-objectif fractionnaire Linéaire flou en
d nombres entiers e
fgg
ggg
ggg
ggg
ggg
ggg
ggg
ggg
ggg
ggg
ggg
ggg
ggg
ggh
Nous tennons, avant tout, à exprimer nous profonde gratitude à madame ZOUAOUI
Selma, qui a assumé la direction de ce travail. Qu’elle veuille bien trouver ici l’expression
de nous reconnaissance pour son dévouement, sa patience, sa disponibilité, ses conseils et
son aide constant qu’il nous a apporté tout au long de ce travail.
Nous remercions les membres de jury qui ont accepté de juger ce travail et d’y
apporter leur caution.
Nous adressons notre vifs remerciements à tous les enseignants qui, par leur ensei-
gnement, leur encouragement et leur aide, ont contribués à notre formation durant toutes
notre études à l’université de Boumerdes.
Je dédie ce travail à mes parents, ma mère pour ses encouragements et ses prières
tout au long de mes études, mon père pour tous ce qu’il avait fait pour avoir ce résultat.
Je le dédie à mes frères et sœurs surtout mon ange "youcef" (rabi yarahmou), et je les
remercie pour leurs encouragements et leurs aides ainsi que toute ma famille.
A tous mes amies avec lesquelles j’ai partagé mes moments de Joie et de bonheur
karima
Dédicace
Je remercie Allah tout puissant clément et miséricordieux de m’avoir soigné et aidé
pour accomplir ce travail .
À mes frères et sœurs, et je les remercie pour leurs encouragements et leurs aides
ainsi que toute ma grande famille.
À tous mes amies qui m’ont partegé les bon mouments comme les mauvais parme
eux amina , bouchra , karima , nedjma , hanane , nesrine , sarah , hafida , ahlam , meriem
, hassiba ,
katia , feriel , imane ,......
Introduction générale 2
1 Programmation Linéaire 4
1 Programmation linéaire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1 Programme linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Forme d’un Programme linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 La notion de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Résultats fondamentaux et méthodes de résolution de la programma-
tion linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Méthodes de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Programmation linéaire en nombres entiers . . . . . . . . . . . . . . . . . . . . . 10
2.1 Forme générale d’un programme linéaire en nombres entiers . . . . . . . 10
2.2 Méthodes de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Optimisation Multi-Objectif 16
1 Définition : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 La dominance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Introduction et défnitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Optimaliti de pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Efficacité(ou Pareto optimale) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1 Efficacité faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Efficacité forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4 Front Pareto et surface de compromis . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.1 Ensemble des solutions non dominées : . . . . . . . . . . . . . . . . . . . . 20
4.2 Front Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.3 Point Idéal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.4 Point Nadir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5 Complexité et difficulté de l’optimisation combinatoire multi-objectif . . . . . . 22
6 Méthodes de résolution des problèmes (P MO ) . . . . . . . . . . . . . . . . . . . . 23
6.1 Méthodes de résolution exacte . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.2 Méta-heuristiques multi-objectif . . . . . . . . . . . . . . . . . . . . . . . . 25
6.3 Méthodes hybrides de résolution des problèmes (POML) . . . . . . . . . 27
6.4 Méthodes fLoues ou brouillées . . . . . . . . . . . . . . . . . . . . . . . . . . 28
I
TABLE DES MATIÈRES II
Conclusion generale 70
Bibliographie 73
Table des figures
1
Introduction générale
L’une des principales missions de la recherche opérationnelle est d’aider à prendre des dé-
cisions en vue d’une gestion éfficace, rationnelle et logique. La modélisation traditionnelle
des problèmes de recherche opérationnelle n’a connu que des modèles d’optimisation à
objectif unique jusqu’à l’apparition d’une nouvelle vision plus proche de la réalité et qui
consiste à modéliser les problèmes de sorte que tous les objectifs pertinents soient pris
en considération. Cette philosophie de multiplicité d’objectifs semble très raisonnable et
contribue avec une éfficacité très forte à l’élaboration de nouvelles méthodes pratiques de
gestion plus réalistes que les méthodes classiques.
Dans de nombreuses situations pratiques, il est nécessaire d’utiliser des variables dis-
crètes dans la modélisation du problème, par exemple, dans un problème de planification
manufacturiére, le nombre d’unités produites doit être un nombre entier. On parle alors
d’optimisation discrête ou programmation en nombres entiers.
2
3
A cet effet ; nous avons structuré ce présent mémoire en sept chapitres ; nous introduisons
dans le premier chapitre les différentes notions et concept de base de la programmation
linéaire et les différentes méthodes de résolution, ensuite dans le deuxième chapitre
nous présentons les concepts fandamentaux de l’optimisation multi-objectif et un état
de l’art des méthodes de résolution de ces problèmes, nous définissons dans le troisième
chapitre l’essentiel des éléments de la programmation fractionnaire linéaire telle que
la convexité ...etc, nous traitons aussi les différentes méthodes de résolution, dans le
quatrième chapitre comprend les notions des ensembles flous, le cinquième chapitre est
consacré à la résolution de problème multi-objectif fractionnaire linéaire flou en nombres
entiers suivie d’un exemple illustratif, la résolution du ce problème posé à fait l’objet du
dernier chapitre, ont été explicité et implémenté sous matlab ; Finalement, nous clôturons
ce mémoire par une conclusion générale.
Chapitre 1
Programmation Linéaire
Introduction
Les modéles de programmation linéaire permettent d’aborder un grand nombre de
problèmes d’optimisation en apparence trés différents, dans des contextes trés divers. On
peut considèrer que, plutô t que d’être à proprement parler du domaine de la gestion, la
programmation linéaire relève des mathématiques de la Recherche Opérationnelle et
a des applications en gestion ainsi qu’en économie, en statistique, en physique,..,etc. Il
s’agit d’un outil versatile et puissant, régulièrement cité par les entreprises comme un des
modèles les plus utilisées de la Recherche Opérationnelle.
Forme générale
O pt Z LP ( X ) = nj=1 c j x j
P
s.c
(PL) = Pn (1.1)
j =1 a i j x j ≤ , ≥ ou = b i , ∀ i = 1, m
x j ≥ 0, ∀ j = 1, n
4
Programmation Linéaire 5
avec :
-Opt pouvant signifer Minimiser ou Maximiser selon le problème traité,
-Un vecteur C = ( c 1 , c 2 ..c j ) t définissant les coéfficients appliqués à chaque variable de
décision dans la fonction objectif Z LP ,
-Un ensemble de variables de décision représenté par un vecteur X = ( x1 , x2 ..x j ) t ,
-Un vecteur B = ( b 1 , b 2 ..b i ) définissant les seconds membres,
-Un ensemble de contraintes représenté par une matrice A = (a i j ),
Forme canonique
O pt Z LP ( X ) = C T x
s.c
(PL) = (1.2)
Ax ≤ ( resp ≥) b
x≥0
Forme standard
O pt Z LP ( X ) = C T x
s.c
(PL) = (1.3)
Ax = ( resp =) b
x≥0
Théorème 1
On peut toujours écrire un problème canonique sous une forme standard et vis versa.
Remarque
? Les problèmes de minimisation et de maximisation sont en fait équivalents puisque
?
? Min Z = -Max(-Z) et Max Z = Min(-Z).
?
de PL suivant :
Z ( max) = C T x
s.c
(PL) = (1.4)
Ax ≤ b
x≥0
Définition 1.1
Un ensemble D non vide est dit convexe si et seulement si pour tout élément x et y de
D et pour tout λ ∈ [0, 1] λ x + ( 1 - λ )y ∈ D.[5]
Définition 1.2
L’intersection d’un nombre fini de demi-espaces fermés de Rn est appelé polytope
fermé.[5]
Définition 1.3
On appelle polyèdre, un polytope convexe borné (c’est à dire compact convexe de
Rn ).[5]
Définition 1.4
D = {x ∈ Rn , Ax = b, x≥ 0 } est dit ensemble des solutions réalisables.[5]
Définition 1.5
Tout vecteur vérifiant les contraintes (1) et (2) est appelé "solution réalisable" (admis-
sible) du problème (P).[5]
Définition 1.6
Une solution réalisable x∗ est dite optimale si : C T x∗ = { max C T x, ∀ x ∈ D }.[5]
Définition 1.7
Une solution réalisable x est dite de base si (m∗n) de ses composantes sont nulles et
les autres x j1 , x j2 ,..., x jm , correspondent au m vecteurs a j1 , a j2 ,...,a jm , de la matrice
qui sont linéairement indépendants.[5]
Théorème 2
L’ensemble des points extrêmes du polygone convexe X = {x ∈ R / Ax=b, x ≥ 0}, est
égale à l’ensemble des solutions de bases réalisables.[9]
Théorème 3
La fonction objectif du problème , atteint son maximum en un point éxtrême de
l’ensemble X des solutions réalisables.[6]
Si la fonction objectif atteint son maximum en plusieurs points, elle prendra cette même
valeur maximales en tout points qui est combinaison linéaire convexe de ces points
éxtrêmes.
1. Déterminer une première solution de base réalisable, cette solution initiale sert de
départ au cheminement vers la solution optimale si elle existe.
2. Si la solution obtenu en 1 n’est pas optimale déterminer une autre solution de base
Programmation Linéaire 9
3. On répète cette procédure itérative jusqu’à ce qu’il ne soit plus possible d’améliorer
la fonction objectif. La dernière solution de base réalisable obtenue constitue la
solution optimale au programme linéaire.
Etape 3 : si ∀ i = 1,...,m, â is < 0, terminer ; la fonction objectif n’est pas bornée Sinon, choisir
une ligne r pour déterminer la variable qui doit quitter la base telle que :
b̂ r b̂
â rs = min { â isi | â is > 0}
i =1,...,m
B ← B ∪ {s} \ {f(r)}
où f(i) ∈ {1,...,n} est l’indice de la variable de base associée à la ligne i, i ∈ {1,...,m}. L’élément ârs
est appelé pivot.
Etape 4 : Les m premières lignes du tableau 1 ainsi que la dernière ligne sont alors calculées
de la façon suivante :
l i ← l i − lâr ârsis ; i = 1, ..., m, i 6= r
lr ← lr − âlrsr
lm+1 ← lm+1 − lâr ârsis
Aller à l’étape 2.
Les étapes pour appliquer l’algorithme dual du simplexe sont les suivantes :
Etape 1 : Ecrire le problème sous forme standard
Etape 2 : Obtenir une solution de base de départ
avec -z j ≤ 0 j ∈ N.
Etape 3 : Critère de sortie d’une variable : la variable xr sort de la base d’aprés
xr = min{ xb̂ i /xb̂ i < 0}
(a) S’il n’éxiste pas terminer.
(b) Sinon aller à (4)
Etape 4 : Critère d’entrée d’une variable : la variable xs introduite dans la base d’aprés :
xs = min { -z j / νr j , νr j < 0 }
telle que le pivot est ν
Etape 5 : pivoter sur νrs en utilisant les mêmes règle que l’algorithme de simplexe.
Etape 6 : Critère d’optimalité : On obtient une solution réalisable optimale si tous les xbr ≥ 0
et tous les -z j ≤ 0.
Etape 7 : Si la solution de base n’est pas réalisable, on poursuit l’algorithme (allez à 4).
Etape 8 : Sinon terminer.
O pt Z LP ( X ) = nj=1 c j x j
P
s.c
P
n
(PLNE) = j =1 a i j x j ≤ , ≥ ou = b i , ∀ i = 1, m (1.7)
x j ≥ 0, ∀ j = 1, n
x i entier j = 1, k( k ≤ n).
O pt Z LP ( X ) = nj=1 c j x j
P
s.c
P
n
(PLNE) = j =1 a i j x j ≤ , ≥ ou = b i , ∀ i = 1, m
≥ 0 j = 1, n, ∀ j = 1, nx j
x i ∈ Z + j = 1, k ( k ≤ n).
(1.8)
Coupes de Gomory
X
â ik xk = x j (1.9)
k∈ N
Principe de la méthode :
Programmation Linéaire 12
Le principe des procédures par séparation et évaluation est basé sur l’éxploration d’un
arbre de solutions. Toutes les solutions possibles du problème sont séparées en deux sous
ensembles ou plus, chacun d’eux est représenté par une branche de l’arbre de décision.
En utilisant cette méthode, nous examinons, initialement, tout l’ensemble de solutions S.
Dans la phase d’évaluation, nous admettons des solutions n’appartenant pas à S (non
réalisables). Cette étape permet de déterminer une borne inférieure au problème et
consiste en une énumération des solutions du problème par éxploration partielle de
l’arborescence des solutions obtenues par décomposition successives du problème.
L’éfficacité de cette éxploration arborescente peut être grandement accrue si on a un
moyen d’éviter l’examen de toutes les parties en lesquelles l’ensemble des solutions est
décomposé.
Dans les procédures par S-E, c’est la fonction d’évaluation qui permet d’éliminer des
branches complètes de l’arborescence et de localiser la solution optimale, on peut dire qu’il
s’agit d’une "exploration intelligente" du domaine des solutions réalisables du problème
d’optimisation combinatoire considéré. Cette méthode opère comme suit :
-Décomposer l’ensemble des solutions réalisables en plusieurs sous-ensembles.
-Associer à chaque sous-ensemble une évaluation qui est une borne inférieure de la
fonction objectif pour un problème de minimisation (rèspectivement une borne supérieure
de la fonction objectif pour un problème de maximisation).
Si la plus petite évaluation (rèspectivement la plus grande) est associée à une solution
réalisable, alors cette solution est optimale, sinon, séparer l’ensemble auquel correspond
l’évaluation.
Les procédures par S-E ne constituent qu’un cadre général à l’intérieur duquel les diffé-
rents algorithmes sont spécifiés, quand on précise d’une part comment sont définis les
sous-ensembles en lequel l’ensemble fondamental des solutions d’un problème d’optimisa-
tion combinatoire S sera progressivement décomposé d’une part, et comment on éffectue
le choix du sous-ensemble à traiter, les modes d’évaluation et de séparation, d’autre part.
Cependant la méthode générale peut étre définie de manière plus précise.
Programmation Linéaire 13
0 0 0
A l’optimum de (PLNE ) ; Z((PLNE ) ) qu’on notera Z est une évaluation de l’ensemble S,
0 0
si la solution de (PLNE ) est à composantes entières alors Z est une évaluation exacte.
Ainsi pour la résolution de P, on utilise le schéma suivant :
(1) Procédure d’initialisation
Programmation Linéaire 14
(4)Procédure de séparation
Pour séparer l’ensemble S, choisir l’indice r tel que la r ime composanteassoci é eàY n0 estpasenti è recarla
n’est pas entière.
Séparer S en S 1 et s 2 avec : S 1 : l’ensemble des solutions réalisables du programme
0
(PLNE )1 obtenu en rajoutant la contrainte Yit ≥ b Yit c
0
S 2 : l’ensemble des solutions réalisables du programme (PLNE )2 obtenu en rajoutant la
contrainte Yit ≤ b Yit c + 1.
Associer au sommet de l’arborescence deux sommets fils.
Stérilisation :
Evaluation exacte :
stériliser les sous-ensembles correspondant et tout sous-ensemble dont l’évaluation
est supérieure à celle ci. Cet algorithme se termine quand tous les sommets sont soit
terminaux ou éliminés, donc chaque sommet de l’arborescence sera classé dans un des
trois états suivants :
Cette méthode couple la méthode par séparation et évaluation avec des coupes pour
résoudre des programmes linéaires en nombres entiers ou mixtes. Le principe est de
résoudre la relaxation continue du programme linéaire en nombres entiers à l’aide de
l’algorithme du simplexe. Si la solution optimale du problème relaxé n’est pas entière,
on construit une coupe (ou plusieurs) à partir du tableau optimal du simplexe qu’on
rajoute à ce dernier et on optimise de nouveau le tableau du simplexe obtenu. On répéte
ce procédé jusqu’à ce qu’une solution entière, soit trouvée, (solution optimale dans le cas
d’un (PLNE )), ou un test d’arrêt est vérifié. A cette étape, si on n’a pas encore trouvé de
solution entière, alors la partie séparation et évaluation de l’algorithme commence.
Conclusion
Optimisation Multi-Objectif
Introduction
La vie réelle foisonne de problèmes qui cherchent une solution. La majorité de ces pro-
blèmes ont des solutions qui ne sont pas forcément convenables selon un ou plusieurs
critères bien définis. La plupart des problèmes d’optimisation réels sont décrits à l’aide
de plusieurs objectifs ou critères souvent contradictoires et parfois complémentaires qui
doivent être optimisés simultanément. Pour les problèmes n’incluant qu’un seul objectif,
l’optimum cherché est clairement défini, celui-ci reste à formaliser pour les problèmes
d’optimisation multi-objectif.
Prenons le cas d’une personne souhaitant acheter une maison. La maison idéale est celle
qui est moins chère avec beaucoup d’éspace et bien située si possible, mais cette maison
idyllique n’existe pas. Notre acheteur va donc devoir identifier les meilleurs compromis
possibles correspondants à son budget.
Plusieurs autres problèmes peuvent être décrits de la même manière tels que l’établis-
sement d’un emploi du temps scolaire ; c’est un problème multi-objectif de nature car il
faut en même temps optimiser plusieurs objectifs tels que : le volume horaire à ensei-
gner, l’occupation des locaux, la charge horaire par enseignant, le nombre de matière . . .
etc. Traditionnellement, Les problèmes multi-objectif ont été abordés comme problèmes
d’optimisation mono-objectif après la combinaison de plusieurs critères dans une simple
valeur scalaire. De l’autre côté et pendant les dernières années, il y a eu l’apparition d’un
certain nombre de métaheuristiques multi-objectif dont le but est d’obtenir un ensemble
de solutions de compromis pour des problèmes d’optimisation multi-objectif dans une
seule éxécution et sans besoin de convertir le problème en mono-objectif au risque que
celui-ci perd sa signification. La plupart de ces techniques ont réalisé un grand succès
dans l’optimisation des problèmes réels multi-objectif.
1. Définition :
Un problème d’optimisation multi-objectifs consiste à rechercher les meilleures solutions
qui minimisent un nombre M de fonctions, appelées fonctions coût, f m [ X ], m = 1...M par
rapport à un vecteur X, qui est le vecteur des n variables de contrôle (ou paramètres) :
16
Optimisation Multi-Objectif 17
max( f ( X )) = − min(− f ( X ))
O pt f m ( X ) , m ≥ 1
s.c
(PM)
g j ( x) ≥ 0, j = 1, .., J
xi ≥ 0
Quand le problème d’optimisation contient une seule fonction coût ( M = 1), il est appelé
mono-objectif. Ce problème, utilise un seul espace de recherche, connu aussi sous le nom
d’espace de décision S. Il s’agit de l’ensemble des combinaisons possibles des paramètres
qui satisfont toutes les contraintes. En revanche, si le problème d’optimisation contient
plusieurs fonctions coût ( M > 1) , et si les fonctions coût sont antagonistes, il est appelé
multiobjectifs. Un problème d’optimisation multi-objectifs porte sur deux espaces, que
sont l’espace de décision S et l’espace fonctionnel (l’espace des fonctions coût)F.
F IGURE 2.1 : Espace décisionnel et espace objectif d’un probléme d’optimisation multi-
objectif( exemple avec deux variables de décisions et deux fonctions objectifs).
2. La dominance
Optimisation Multi-Objectif 18
Définition 2.2
Une solution y = ( y1 , ..., ym ) domine une solution z = ( z1, ...zm) Ssi :
∀ i ∈ {1...m} f i ( y) ≤ f j ( z) , et ∃ j ∈ {1...m} tq f j ( y) < f j ( z)
Si la solution y domine la solution z nous notons alors y ≺ z.[4]
Notons que pour toute paire de solution y et z un et un seul des cas suivants peut se
presenter :
– y domine z
– y est domine par z
– y et z sont équivalentes au sens de la dominance.
Les solutions équivalentes au sens de la dominance sont appelées dans se qui suit,
solutions équivalentes au sens de Pareto ou solutions Pareto équivalentes ou encore,
solutions non-dominées.
Nous avons défini jusqu’ici les notions de dominance (au sens de Pareto) et d’optimalité.
Il nous reste maintenant à dèfinir la solution d’un problème multi-objectif utilisant ces
concepts. Cet ensemble des meilleurs compromis, appelé aussi surface de compromis ou
front Pareto, est composé des points qui ne sont dominés par aucun autre. Nous définissons
d’abord formellement l’ensemble des solutions non dominées :
ND (F ) = y²F | Ø z ∈ F, z < y
Le front Pareto est aussi appelé l’ensemble des solutions éfficaces ou la surface de
compromis.[4]
Optimisation Multi-Objectif 21
p ii = min yi | y ∈ ND (F )
Optimisation Multi-Objectif 22
p ni = max yi | y ∈ ND (F )
La figure 2.3 nous indique aussi que le front Pareto peut avoir des propriétés particulières
quant á sa forme. La principale caractéristique utilisée pour comparer les formes de ces
courbes est la convexité.[46]
Nous rappelons donc la dèfinition de la convexité :
Convexité :
x∈ A
V
y ∈ A ⇐⇒ Se gment( x, y) ⊂ A
– Les algorithmes sous-linéaires, dont la complexité est en général en o(log n). C’est le cas
de la recherche d’un élément dans un ensemble ordonné fini de cardinal n ;
– Les algorithmes linéaires en complexité o(n) ou en o(n log n) sont considérés comme
rapides, comme l’évaluation de la valeur d’une expression composée de n symboles ou
Optimisation Multi-Objectif 23
– Plus lents sont les algorithmes de complexité située entre o( n2 ) et o( n3 ), c’est le cas de
la multiplication des matrices et du parcours dans les graphes ;
– Au delà, les algorithmes polynômiaux en o( n k ) pour k > 3 sont considérés comme lents,
sans parler des algorithmes exponentiels (dont la complexité, est supérieure à tout
polynôme en n), que l’on s’accorde à dire inutilisables dés que la taille des données est
supérieure à quelques dizaines d’unités.
L’agrégation linéaire
Méthode ² contrainte
mons les autres objectifs en des contraintes d’inégalité Le problème peut être reformulé
de la manière suivante :
max[ f i ( x)]
tq :
f 1 ( x ) ≤ ²1
..
.
f i−1 ( x) ≤ ² i−1
f i+1 ( x) ≤ ² i+1
..
.
f m ( x) ≤ ² m
et que g ( x) ≤ 0
avec, x ∈ Rn , f ( x) ∈ Rm , g( x) ∈ R q
L’approche par ²−contrainte doit aussi être appliquée plusieurs fois en faisant varier le
vecteur ² pour trouver un ensemble de points Pareto optimaux.
Cette approche a l’avantage par rapport à la précédente de ne pas être trompée par les
problèmes non convexes.
Ainsi la figure suivante illustre, en dimension 2, le cas où un point(², f 1min ), de la partie
non convexe, est trouvé. Cette figure montre aussi comment cette approche procède.
En transformant des fonctions objectifs en contraintes, elle diminue la zone réalisable par
paliers. Ensuite, le processus d’optimisation trouve le point optimal sur l’objectif restant.
L’inconvénient de cette approche réside dans le fait qu’il faille lancer un grand nombre
de fois le processus de résolution. De plus, pour obtenir des points intéressants et bien
répartis sur la surface de compromis, le vecteur ² doit être choisi judicieusement.
Il est clair qu’une bonne connaissance du problème a priori est requise.[1]
La Recherche Tabou
La recherche Tabou est une métaheuristique développée par Glover ([Glover, 86], [Glover ,
90], [Glover, 97]). Elle est basée sur des idées simples, mais elle est néanmoins très efficace.
Elle combine une procédure de recherche locale avec un certain nombre de règles et de
mécanismes pour surmonter l’obstacle des optima locaux, tout en évitant de cycler. Elle a
été appliquée avec succès pour résoudre de nombreux problèmes difficiles d’optimisation
combinatoire. Le principe de la méthode Tabou est simple : On part d’une solution initiale
x, puis on cherche le meilleur voisin s(x) dans le voisinage de x [s(x)], l’originalité de la
méthode réside dans le fait que l’on retient le meilleur voisin de x même si celui -ci est
plus mauvais que x. Ce critère autorisant les dégradations de la fonction objectif évite à
l’algorithme d’être piégé dans un minimum local, mais il induit un risque de cyclage. Pour
régler ce problème, l’algorithme mémorise la liste des transformations interdites (telle que
de s(x) à x) dans la liste Tabou interdisant la transformation inverse d’une transformation
faite récemment.[51]
Optimisation Multi-Objectif 26
Le Recuit Simulé
L’origine de la méthode du Recuit Simulé provient de la métallurgie, où, pour atteindre les
états de basse énergie d’un solide, on chauffe celuici jusqu’à des températures très élevées,
après on le laisse refroidir lentement. Ce processus est appelé le recuit. La méthode du
recuit simulé a été développé simultanément par Kirk en 1983 et Cerny en 1985.[41]
Algorithmes génétiques
Les algorithmes génétiques (AGs) ont été introduits par Holland [Holland, 1975] comme
un modèle de méthode adaptative. Le but principal d’un AG est de chercher, dans une
space de solutions E, un élément de cet espace ayant la meilleure adaptation à l’environne-
ment posé. Chaque élément de E est un individu,noté x. Une population P est donc une n
semble de N éléments (individus) de E :P=( x1 , x2 , ..., xn ). La mesure du degré d’adaptation
de chaque individu constitue la fonction de performance F(fitness). L’objectif d’un AG est
de faire évoluer cette population P afin de trouver le meilleur individu x*. Dans ce but,
à chaque génération t, les individus de la population P(i) sont sélectionnés, croisés et
mutés selon des probabilités prédéfinies respectivement p c (probabilité decroisement) et
p m (probabilité de mutation).[1]
La méthode hybride la plus connue est la méthode de Corley. Cette méthode utilise la
méthode de pondération des fonctions objectif et la méthode du compromis. On part du
problème (P ). On le transforme de la manière suivante :
Optimisation Multi-Objectif 28
Pm
Maximiser i =1 w i . f i ( x)
f ( x) ≤ ² , j ∈ 1, ..., m
i j
(P cor ) :
et g( x) ≤ 0
x ∈ Rn
Méthode de Sakawa
Cette méthode fait intervenir la logique floue à tous les niveaux (sur les paramètres du
problème ainsi que sur les paramètres des contraintes). L’ensemble des solutions que
l’on va trouver, lui aussi, fera intervenir la logique floue. Ces solutions auront un niveau
d’appartenance. Ce seront des solutions qui auront une corrélation variable avec l’objectif
initial (le niveau de corrélation avec l’objectif initial est fixé par l’utilisateur).
Etape 1 : sous la contrainte g(x) ≤ 0, on minimise, puis on maximise, chaque fonction objectif
séparément, de manière a obtenir la plage de variation de la fonction d’appartenance des
fonctions objectif.
Etape 2 :On définit les fonctions d’appartenance de la manière suivante :
f i 1 − f i ( x)
µi x = f i1 − f i0 ;
où
• f i0 est la valeur de la fonction d’appartenance la moins intéressante,
• f i1 est la valeur de la fonction d’appartenance la plus intéressante.
Etape 3 : On définit les fonctions de prise de décision DM i (Decision Making) comme suit :
0, si µ i (x) ≤ 0
µ i (x), si0 ≤ µ i (x) ≤ 1
DM i (x) = (2.1)
1, si µ i (x) ≥ 1
où
• DM i (x) = 0, quand l’objectif n’est pas atteint,
• DM i (x) = 1, quand l’objectif est atteint.
Etape 4 : On maximise les fonctions DM i .
Etape 5 : S’il n’y a pas de solutions, ou si la solution ne satisfait pas l’utilisateur, alors il faut
modifier les fonctions d’appartenance, et retourner à l’étape 3.
Etape 6 :Arrêt et affichage des résultats.
fin.
Optimisation Multi-Objectif 29
Méthode de reardon
Présentation de la méthode
On part du problème P. Pour chaque fonction objectif, on définit une fonction d’appar-
tenance, qui aura la forme représentée à la figure 2.5.Cette fonction d’appartenance
permet "d’informer" l’algorithme que la fonction objectif a sa valeur située dans l’intervalle
[O i − E i , O i + E i ] (zone oùla fonction d’appartenance vaut 0). Si la valeur de la fonction
objectif est située en dehors de cette zone, on pénalise de plus en plus la fonction objectif.
Dans ce cas, la pénalité varie entre 0 et S min et S max .
La signification des diffirents paramètres de la fonction d’appartenance est la suivante :
Smax
Smin
f
fimin Oi − Ei Oi Oi + Ei fimax
S max
• si f i ≤ (O i − E i ) alors f 0 ( f i ) = [ f ] . f i − (O i − E i )
min −(O i −E i )
• si (O i − E i ) ≤ f i ≤ (O i + E i ) alors f 0 ( f i ) =0
S min
• si f i ≥ (O i − E i ) alors f 0 ( f i ) =[ (O ] . f i − (O i + E i ).
i +E i )− f max
Optimisation Multi-Objectif 30
Conclusion
Dans ce chapitre nous avons donné un aperçu sur les problèmes d’optimisation multiobjec-
tif ainsi que les méthodes de résolution proposées.
Chapitre 3
Programmation fractionnaire
linéaire
Introduction
f (x)
maximiser h(x)
s.c.
(PF )
g i ( x ) ≤ 0, i = 1, m
x∈X
avec :
Les fonctions f, h et g i , i = 1, m sont continues sur Rn
31
Programmation fractionnaire linéaire 32
h( x) > 0, ∀ x ∈ X
L’ensemble des solutions réalisables de (PF ) est non vide S(PF) 6= ;
∃ x ∈ S(PF) : f ( x) ≥ 0.
Définition 3.1
1. Le problème (PF ) de maximisation est appelé problème fractionnaire concave-
convexe si f est concave et les fonction h et g i pour i = 1, m sont convexes.
2. Le problème (PF ) de minimisation est appelé problème fractionnaire convexe-
concave si f et les fonctions g i pour i = 1, m sont convexes et h concave.[49]
Ensemble convexe
Définition 3.2
K est un ensemble convexe si et seulement si
∀ x, y ∈ K ; ∀λ ∈ [0, 1] on a λ x + (1 − λ) y ∈ K
Exemple :
Propriétés
n
– L’ensemble R est convexe.
– Un singleton {a} est convexe.
– Un intervalle [a, b] est convexe dans R.
– Une réunion disjoint d’intervalle de R n’est pas convexe ] − ∞, 0] ∪ [1, +∞[ .[49]
Fonction convexe
Définition 3.3
On dit qu’une fonction f : K → R, K ⊆ Rn défini sur un ensemble K convexe et non
vide, est convexe si elle vérifier :
∀ ( x, y) ∈ K, ∀ λ ∈ [0, 1] f (λ x + (1 − λ) y) ≤ λ f ( x) + (1 − λ) f ( y).
[16]
Fonction concave
Définition 3.4
On dit qu’une fonction f : K → R définie sur un ensemble convexe non vide K de Rn
est concave si elle vérifie :
∀ x, y ∈ K λ ∈ [0, 1] f (λ x + (1 − λ) y) ≥ λ f ( x) + (1 − λ) f ( y).
[16]
p t x+α
maximiser q t x+β
s.c.
(PFL)
Ax ≤ b
x≥0
Où α et β sont des réels, p et q sont des vecteurs de Rn avec q est un vecteur non nul, A est
une matrice réelle de format ( m ∗ n) et b est un vecteur de Rm . Désignons par S l’ensemble
{ x ∈ Rn : Ax ≤ b, x ≥ 0}
Programmation fractionnaire linéaire 34
Z ( q t x + β) = p t x + α
( p − Z q) t x = Z β − α
qui est une expression linéaire de la Z -courbe niveau de la fonction critère. Puisque Z est
quelconque, on voit que chaque courbe niveau du critère fractionnaire linéaire est linéaire
sur S, à condition que le dénominateur ne soit pas nul sur S. Donc, si un programme
fractionnaire linéaire unicritère possède une solution optimale, alors au moins un point
extrême de S est optimal.
(1 − 5 Z ) x1 + (1 − Z ) x2 = 1 − Z
donc pour :
Z = 0 ⇐⇒ x1 + x2 = 1 courbe de niveau 0
Z = 1 ⇐⇒ x1 = 0 courbe de niveau 1
Le problème à quatre points extrêmes x1 , x2 , x3 etx4 dont les valeurs du critère sont indi-
quées sur la figure 3.1.
Les lignes discontinues représentent les 0-courbes niveaux du numérateur et du déno-
minateur dont l’intersection est le point de rotation r(0,1). La flèche circulaire dénote
le gradient de la fonction fractionnaire linéaire critère et indique le sens et l’angle avec
lesquels se déplacent les courbes de niveaux. Donc, en faisant déplacer la courbe de niveau
0 autour du point de rotation suivant le sens de rotation trigonométrique, nous pouvons
voir que le point optimal x4 de valeur optimale Z ∗ = 1 est l’intersection du domaine S avec
la courbe de niveau Z = 1.
La résolution directe
Dans cette stratégie de résolution, le programme fractionnaire est traité sous sa forme
originale c’est à dire sans modifier ni la fonction objectif ni l’ensemble des contraintes,
elle est utilisé pour résoudre les problèmes fractionnaires linéaires continus, entiers,
bivalentes(0,1), mixtes.
Pour la recherche d’une solution optimale d’un programme hyperbolique en variables
continues sans fait aucun changement au programme initial il existe plusieurs algorithmes
et parmi les plus récentes, celle de A. Cambini et al. qui permet aussi d’optimiser le
problème hyperbolique sur un domaine de solutions réalisables S non borné.
On considère donc le programme hyperbolique continu (PFL) :
p t x+α
maximiser q t x+β
s.c.
(PFL)
Ax ≤ b
x≥0
Où α et β sont des réels, p et q sont des vecteurs de Rn avec q est un vecteur non nul, A est
une matrice réelle de format ( m ∗ n) et b est un vecteur de Rm . Désignons par S l’ensemble
{ x ∈ Rn : Ax ≤ b, x ≥ 0}
Programmation fractionnaire linéaire 37
Théorème
Le point x0 de S est une solution optimale du problème (PFL) si et seulement si le
vecteur gradient réduit γ = β p j − α q j est tel que γ j ≤ 0 pour tout indice hors
base j ∈ Nk .
Si P1 n’a pas de solutions, alors la valeur de la fonction objectif est infinie ; sinon une
solution optimal e1 x de P1 est aussi une solution niveau optimale.[29]
Proposée initialement en 1956 par Isbell et Marlow pour des programmes hyperboliques,
ce n’est qu’à partir de 1967 que cette approche a connu un grand élan avec Dinkelbach qui
l’a généralisée aux programmes fractionnaires non linéaires.
Soit le programme hyperbolique suivant :
p t x+α
maximiser q t x+β
s.c.
(PFL)
Ax ≤ b
x≥0
Où α et β sont des réels, p et q sont des vecteurs de Rn avec q est un vecteur non nul, A est
une matrice réelle de format ( m ∗ n) et b est un vecteur de Rm . Désignons par S l’ensemble
{ x ∈ Rn : Ax ≤ b, x ≥ 0}
Remarquons que cette nouvelle fonction à maximiser est linéaire alors que celle du
programme (PFL) ne l’est pas.
p t x∗ +α
Soit x une solution optimale de (PFL) et λ∗ = q t x∗ +β
Dinkelbach a montré que :
Z (λ) = 0 ⇐⇒ λ = λ∗
Plus précisément, cette transformation, proposée par Charnes et Cooper pour le pro-
gramme hyperbolique en variables continues, Cette transformation en un programme
linéaire équivalent a pour but d’appliquer les algorithmes standards tels que la méthode
du Simplexe.
Soit le problème (PFL) suivant :
p t x+α
maximiser q t x+β
s.c.
(PFL)
Ax ≤ b
x≥0
y
z = ( q t x1+β ) y = ( q t x1+β ) x x= z
Alors :
max Z = z ( p t x + α)
y
max Z = z ( p t ( z ) + α) = p t y + α z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (1)
y
Ax ≤ b ⇐⇒ A( z ) ≤ b ⇐⇒ A y − bz ≤ 0 . . . . . . . . . . . . . . . . . . . . . (2)
1
z= q t x+β
⇐⇒ ( q t x + β) z = 1
y
. ⇐⇒ ( q t ( z ) + β) z = 1
. ⇐⇒ q t y + β z = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (3)
y
x≥0 ⇐⇒ z ≥0 ⇐⇒ y ≥ 0 et z > 0 . . . . . . . . . . . . . . . . . . . . . . . . (4)
Alors de (1), (2), (3) et (4) en obtient le problème fractionnaire linéaire équivalent
(PFLE ) suivant :
max p t y + α z
s.c.
(PFLE ) A y − bz ≤ 0
qt y + βz = 1
y ≥ 0, z > 0
p t x+α
max Z = q t x+β
s.c
(PFLNE )
A x≤b
x ≥ 0, x entier.
5.2. Relaxation
Définition 3.5
Soit la forme générale du (PFLNE ) suivante :
p t x+α
max (min) Z = q t x+β
s.c.
(PFLNE ) Ax ≤ b
∀ x j ∈ x, x j ≥ 0 ( j = 1, n)
x ∈ Z + pour ( j = 1, k) avec k ≤ n
j
Notez bien que si on remplace les dernies restrictions par x j ≥ 0 pour j = 1, k avec
( k ≤ n) on aura un programme linéaire qui sera une relaxation du problème original.
Ce fait est trés important. ça implique qu’on peut résoudre la relaxation par des
méthodes qu’on a déja considérés.
Programmation fractionnaire linéaire 41
Méthode de Granot
[17]
Principe de l’algorithme
p t x+α
max Z = q t x+β
s.c
(PFLNE )
A x≤b
x ≥ 0, x entier.
dans cette méthode, la structure originale des contraintes est maintenues et les opérations
sont réalisées dans un tableau de simplexe augmenté qui comprend m et 3 lignes supplé-
mentaires. les m premies lignes correspondant aux contraintes d’origine, les lignes (m+1),
(m+2) correspondant aux numérateur et dénominateur de la fonction objectif fractionnaire
du problème (PFLNE ) et la ligne (m+3) correspond au vecteur gradient réduit γ j . A
chaque itération de l’algorithme, les (m+2) lignes sont modifiées à travers les opérations
ordinaires de pivot, par contre la dernière ligne est modifiée selon la formule du gradient
réduit.
– Une fois les valeurs de gradient réduit calculées par la formule suivante :
b
θk = min { A i , A ik > 0}
ik
Alors toute ligne v pour laquelle [ b v / A vk ] ≤ θk , peut servir comme une ligne source
pour générer une coupe de Gomory de la forme :
A bv
b Avj c x j = b
P
s + j∈N A vk c, s ≥ 0.
vk
Programmation fractionnaire linéaire 42
Cette coupe peut être rajoutée au problème initial et servir comme ligne pivot, avec
la k ieme colonne comme une colonne pivot. Puisque la valeur du pivot dans ce cas est
[ A vk / A vk ] = 1, les nouveaux coefficients obtenus après l’opération de pivot usuelle sont
tous entiers.
La coupe de Dantzig
Etant donné le programme relaxé (PFL) de (PFLNE ) c’est à dire sans les contraintes
d’intégrité et supposons le vecteur seconde membre b des contraintes est un vecteur positif
mais non entier. La coupe de Dantzig définit par :
P
j ∈ N x j ≥ 1, Où N étant l’ensemble des indices hors base
a été proposée sur la base que dans le problème relaxé (PFL), une des variable hors
base est strictement positive et dans le problème en variables entières (PFLNE ) cette
variable est supérieure ou égale à 1. Cette coupe n’est utilisée qu’en cas de nécessité
vu ces conditions d’utilisation et son inefficacité (son rôle est de tronquer juste un seul
point du domaine réalisable). Une des coupes qui nous utiliserons dans notre travail est
une généralisation de cette coupes de Dantzig appelée coupe de Dantzig améliorée. Elle
ressemble quelque peu à cette coupe mais est plus efficace. Elle permet de réduire plus
fortement le domaine d’admissibilité.
L’algorithme utilisant les coupes de Gomory consiste d’abord a résoudre le problème relaxé
(PFL) par l’algorithme du simplexe, considérons le tableau obtenu a l’optimum, parmi les
variables de base B choisissons une variable xr , r ∈ B, fractionnaire (s’il n’y en a pas, on
est à l’optimum). La contrainte correspondante à xr ( i eme ligne de tableau optimal) s’écrit :
P
xr + j∈N Ai j x j = bi
C’est une des méthodes les plus utilisées pour la résolution de (PFLNE ) . Elle combine
de façon élégante la méthode primale-duale du simplexe et le principe de séparation et
évaluation dans une arborescence de recherche. Elle repose sur les étapes suivantes :
Au nœud 0 de l’arborescence :
On pose U = z un minorant de la valeur optimale de la fonction objectif et on résout le
problème relaxé (PFL) avec la méthode primale du simplexe.
Séparation :
x, a ses coordonnées b
Si la solution optimale, disons b x j ∈ N , pour tout j = 1,...,n, terminer.
Cette solution est optimale pour (PFLNE ).
Sinon, choisir une variable x j qui n’est pas entière. Partitionner l’ensemble des solutions
en deux sous-ensembles en ajoutant l’une ou l’autre des contraintes :
x j ≤ bb
x j c ou x j ≥ db
x je
Evaluation :
Résoudre le programme (PFL) avec la nouvelle contrainte en utilisant la méthode duale
du simplexe.
Test de stérilisation :
A un nœud k :
donné un aperçu sur la programmation fractionnaire linéaire telle que le modèle générale,
les domaines d’applications, et les quatre grandes méthodes de résolution : graphique,
dirècte, par paramétrisation, et la résolution avec un programme équivalent. nous avons
aussi défini la programmation fractionnaire linéaire en nombres entiers (PFLNE ) et ses
méthodes de résolution.
Chapitre 4
Introduction
Les mathématiques du flou, de plus en plus désignées sous le terme générique de théorie
du flou, regroupent plusieurs théories qui sont des généralisations ou des extensions
de leurs homologues classiques : la théorie des sous-ensembles flous étend celle des
ensembles, la logique floue étend la logique binaire, la théorie des quantités floues étend
celle des nombres et intervalles, la théorie des possibilités étend celle des probabilités,
plus généralement la théorie des mesures floues étend celle de la mesure. elles ont toutes
pour objectif de proposer des concepts, des techniques et des méthodes formellement
rigoureuses pour recueillir, représenter et traiter des connaissances et des données
floues c’est-à-dire contenant de l’imprécision, de l’incertitude ou de la subjectivité ; ces
trois facettes principales du flou étant souvent coexistantes. D’autre synonymes, tels
que connaissance mal spécifiée, mal décrite, imparfaite, vague, qualitative, linguistique,
partielle, incomplète, approximative ou approchée, recouvrent cette même acception du
flou.
45
Notions de base de la logique floue 46
Définition 4.2
Soit X un ensemble ordinaire. Un ensemble flou à de X est défini par sa fonction
d’appartenance µ Ã .
µ Ã : X → [0, 1]
x→ µ Ã (x) ∈ [0,1]
La valeur de µ Ã (x) représente le degré d’appartenance de x dans X et est interprété
comme la mesure dans laquelle x appartient à Ã . Par conséquent, plus la valeur de
µ Ã (x) est proche à 1, plus x appartient à Ã .
à = {(x, µ à (x)) | x ∈ X }
1 si x ∈ A
µ Ã(x) = (4.1)
0 si x ∈ A
Définition 4.3
Soit à un ensemble flou sur X, alors le support de à , noté supp ( à ), est l’ensemble
ordinaire donné par :
Définition 4.4
Le noyau d’un sous-ensemble flou A dans un univers du discours X est le sous-
ensemble des éléments de X pour lesquels la fonction d’appartenance vaut 1. C’est
l’ensemble des points qui appartiennent intégralement à :
N( Ã ) = { x | µ Ã ( x) = 1}.[21]
Notions de base de la logique floue 48
Définition 4.5
Soit à un ensemble flou sur X. La hauteur de à , notée htr ( à ), est définie comme
h ( Ã ) = sup µ Ã (x)
x∈ X
Si htr( à ) = 1, alors l’ensemble flou à est appelé un ensemble flou normal, sinon il est
dit subnormal.[31]
Définition 4.6
Soient à et B̃ deux ensembles flous sur X. L’ensemble flou à est appelé un sous
ensemble de B̃ (ou à est contenu dans B̃ ), noté à ⊂ B̃, si la condition suivante est
verifiée :
µ Ã ( x) ≤ µB̃ ( x) ∀ x ∈ X .[31]
Définition 4.7
Soient à et B̃ deux ensembles flous sur X. à et B̃ sont égaux, noté par à = B̃ si les
deux conditions suivantes sont vérifiées :
à ⊂ B̃ et B̃ ⊂ à .[21]
Définition 4.8
Soient à et B̃ deux ensembles flous sur X. L’union de à et B̃ , notée à ∪ B̃ , est un
ensemble flou sur X dont la fonction d’appartenance est donnée par :
=µ Ã ( x) ∨ µB̃ ( x).[21]
Définition 4.9
Soient à et B̃ deux ensembles flous sur X. L’intersection de à et B̃ , notée à ∩ B̃ , est
un ensemble flou sur X dont la fonction d’appartenance est donnée par :
Définition 4.10
Soit à un ensemble flou sur X. Le complémentaire de à , noté à c , est un ensemble
flou sur X dont la fonction d’appartenance est donnée par :
∀x ∈ X , µ Ã c ( x) = 1 − µ Ã ( x).[31]
Notions de base de la logique floue 50
Définition 4.12
Un nombre flou trapézoïdal (TrFN) . Ã sur R est defini par un quadruplet (a, b, c, d),
avec la fonction d’appartenance µ Ã (x) donnée par (4.2) et illustrée par la figure 4.1
x−a
a≤x≤b
b−a
1 b≤x≤c
µ Ã ( x) =
d−x
c≤x≤d
d−c
0 sinon
µÃ (x)
0 a b c d R
Définition 4.13
[21]Un nombre flou triangulaire (TFN) Ã sur R est un cas particulier de (TrFN) où
(b = c), qui est défini par un triplet (a, b, c) avec la fonction d’appartenance µ Ã (x)
donnée par (4.2) et illustrée par la figure 4.2
x−a
a≤x≤b
b−a
µ Ã ( x) = c−x
b≤x≤c
c−b
0 sinon
µÃ (x)
0 a b c R
Définition 4.14
Pour toute valeur α de l’intervalle [0.1] on appel la coupe α d’un sous-ensemble
flou de X, le sous-ensemble noté Ã α des éléments de X pour lesquels la fonction
d’appartenance est supérieure ou égale à α :
à α = { x ∈ X | µ à ( x) ≥ α}
2.4. Défuzzification
La défuzzification est essentielle d’une part pour ramener toutes les unités de mesures
vers une unité de mesure commune (i.e., la normalisation).
Dans notre cas, la défuzzification de chaque (TrFN) se fait en utilisant une coupe α.
Notions de base de la logique floue 52
Théorème de décomposition
[31] Le théorème de décomposition montre qu’il est possible de reconstituer un sous-
ensemble flou à partir de ses coupes α . En fait, le théorème permet de définir la
fonction d’appartenance µ A à partir des fonctions caractéristiques des coupes α :
µ Ã ( x) = sup αχ Ã α (x)
x∈[0.1]
µÃ (x)
0 [B L BU ] R
B L = ( b − a )α + a (4.2)
BU = d − ( d − c)α (4.3)
Conclusion
Nous avons vu dans ce chapitre les concepts de base des ensembles flous , nombres flous
et comment faire la défuzzification .
Chapitre 5
Introduction
1. Formulation du problème
La forme d’un problème multi-objectif fractionnaire linéaire flou en nombres entiers
(P MFLF NE ) est donnée comme suit :
1 1
max Z1 ( x) = dc 1xx++αβ1
2 2
max Z2 ( x) = dc 2xx++αβ2
.
(P MFLF NE ) = . (5.1)
.
k k
max Z k ( x) = dc kxx++αβk
s.c
x∈ M (b̃)
Où k ≥ 2, c r , d r sont 1 ∗ n vecteurs
M( b̃)= {x ∈ Rn / ni=1 Ax≤ b̃, x ≥ 0 et entier},
P
53
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 54
fournies par le décideur. Tout au long de ce mémoire, nous supposons que M (b̃) est non
vide.
nous avons choisi parmi les divers types de nombres flous les trapézoïdaux (4.11), car ces
nombres sont assez simples (linéaires par morceaux), ce qui les rend particulièrement
utiles en résolution de notre problème.
Le vecteur des paramètres flous b̃ dans le problème (P MFLF NE ) est un vecteur de
nombres flous dont la fonction d’appartenance est notée µb̃ (b).
À l’aide de la coupe (4.13) α nous avons transformé le problème (P MFLF NE ) vers un
problème (P MFLNE ) puis le rèsoudre.
pour un certain degré α = α∗ =[0.1], éstimé par le décideur. le problème peut être expri-
mer par un problème α-multi-objectif fractionnaire linéaire non flou en nombre entier
(α − P MFLNE ).
c1 x+α1
max Z1 ( x) = d 1 x+β1
c2 x+α2
max Z2 ( x) =
d 2 x+β2
.
.
(α − P MFLNE )= (5.2)
.
c k x+αk
max Z k ( x) =
d k x+βk
s.c
x∈ M (b)
n
où M(b)= {x ∈ R / Ax≤ b, x ≥ 0 et entier / b ∈ L α ( b̃) },
tq : L α ( b̃)={b Rm /µb̃ ( b) ≥α } (4.13)
0, b ≤ b1
[ bb2−−bb11 ]
b1 ≤ b ≤ b2
µb̃ ( b) = 1 b2 ≤ b ≤ b3
b4 −b
[ b4 −b3 ] b3 ≤ b ≤ b4
0, autrement
Défuzzification
soit un nombre Trapzoïdale T̃ dèfini par T̃ = ( b 1 , b 2 , b 3 , b 4 ), d’aprés les équations (4,2)
et (4,3) les bornes inférieure et supérieure respectivement sont définies comme suit :
b = α( b 2 − b 1 ) + b 1 , b = b 4 − α( b 4 − b 3 )
Alors l’interval flou de T̃ : T̃ α = [ b, b].
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 55
c1 x+α1
max Z1 ( x) = d 1 x+β1
c2 x+α2
max Z2 ( x) =
d 2 x+β2
.
.
(α − P MFLNE )= (5.3)
.
c k x+αk
max Z k ( x) =
d k x+βk
s.c
x ∈ M ( b)
n
où {x ∈R / Ax ≤ b x ≥ 0, et entier}
α
et bα ≤ b i ≤ b
c t x + c0
max( f ( x)) = t
d x + d0
(PFLNE ) = (5.4)
s.c
s = { x ∈ Rn Ax ≤ b, x≥ 0 et entier }
Théorème
[35] x∗ est une optimale pour le problème (PFL) si elle est optimale pour le problème
linéaire :
(PLNE ) =
maxφ∗ (x)=( c t x + c 0 )-f(x∗ )(d t x + d 0 ) s.c s= {x ∈ Rn Ax ≤ b, x ≥ 0 etentier }
x∈ s l
(5.5)
s s
max Z s ( x) = dc sxx++αβs
r r
Z r ( x) = dc rxx++αβr ≥ ²r , r = 1, 2, 3..., k; r 6= s,
P s (² ) = Ax ≤ b (5.6)
α
α
b ≤ b i ≤ b , i = (1, 2, ...m)
x≥ 0 et entier.
Si x∗ est une solution optimale entière unique de problème P s (²∗ ), alors x∗ devient une α -
solution éfficace au problème de (α − P MFLNE ).
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 57
Algorithm 8 Algorithme II
Remarque :
? 1. Le pas de α c’est un choix de décideur.
?
?
? 2. Pour chaque calcul sur un niveau de α, l’intervalle de "b" va deminuer sachant
?
?
? que µb̃ ( b) ≥ α.
?
?
?
? 3. Si l’intervalle trouvé contient 2 entiers on prend le min.
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 58
4. Un exemple illustratif
Nous considérons le problème muti-objectif fractionnaire linéaire flou en nombres entiers
(P MFLF NE ) suivant :
max Z1 ( x) = −xx12−+43
max Z2 ( x) = −xx21++14
max Z3 ( x) = − x1 + x2
(PMFLFNE)= s.c (5.7)
− x1 + 4 x2 ≤ b̃ 1
2 x1 − x2 ≤ b̃ 2
x , x ≥ 0, et entier
1 2
Les paramètres flous b̃ 1 , b̃ 2 sont donnés par les nombres flous suivants énumérés dans le
tableau ci-dessous :
a1 a2 a3 a4
b1 0 0.2 0.3 0.6
b2 8 8.2 8.3 0.6
Voiçi les fonctions d’appartenances pour convertir au-dessus de la logique floue Le problème
(P MFLF NE ) dans sa version non floue.
[ ab12 − a1
−a 1
] a1 ≤ b1 ≤ a2
1 a 2 ≤ b1 ≤ a 3
µb̃1 ( b 1 ) =
[ aa44 −
−b1
a3 ] a3 ≤ b1 ≤ a4
0,
sinon.
[ ab22 − a1
−a 1
] a1 ≤ b2 ≤ a2
1 a2 ≤ b2 ≤ a3
µb̃2 ( b 2 ) =
[ aa44 −
−b1
a3 ] a3 ≤ b2 ≤ a4
0,
sinon.
D’où :
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 59
1. [ ab12 − a1
−a 1 ] = α ⇒ b 1 = 0 (borne inf) ;
[ aa44 −
−b1
a 3 ] = α ⇒ b 1 = 0.6 (borne sup) ;
b 1 ≤ b 1 ≤ b 1 ⇒ 0 ≤ b 1 ≤ 0. 6 .
2. [ ab22 − a1
−a 1
] = α ⇒ b 1 = 8 (borne inf) ;
[ aa44 −
−b2
a 3 ] = α ⇒ b 2 = 8.6 (borne sup) ;
b2 ≤ b 2 ≤ b 2 ⇒ 8 ≤ b 1 ≤ 8.6.
le problème flou (P MFLF NE ) est converti à la version non floue (α − P MFLNE ) comme
dans la forme suivante :
max Z1 ( x) = −xx12−+43
max Z2 ( x) = −xx21++14
max Z3 ( x) = − x1 + x2
s.c
(α − P MFLF NE )= − x1 + 4 x2 ≤ b 1 (5.8)
2 x1 − x2 ≤ b 2
0 ≤ b 1 ≤ 0. 6
8 ≤ b 2 ≤ 8. 6
x1 , x2 ≥ 0, et entier
nous avons choisi b 1 = 0 et b 2 = 8 (car ils sont les petits entiers dans ces intervalles ).
en utilisant l’algorithme "Isbell-Marlow" modifié (Alg. I) pour résoudre les problème
(PFLNE ).
Tout d’abord, nous résolvons le problème (P1 ) :
max Z1 ( x) = −xx12−+43
s.c
(P1 )= − x1 + 4 x2 ≤ 0 (5.9)
2 x1 − x2 ≤ 8
x1 , x2 ≥ 0, et entier
nous commençons par une solution initiale entière de base x0 = (0,0), nous avons :
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 60
max φ0 ( x) = [( x1 − 4) − z1 ( x0 )(− x2 + 3)]
= x1 − 43 x2
0
s.c
(P1 )= (5.10)
− x1 + 4 x2 ≤ 0
2 x1 − x2 ≤ 8
x1 , x2 ≥ 0, et entier
Solution de base :
x1 x2 x3 x4 b
x3 -1 4 1 0 0
x4 2 -1 0 1 8
-Z 1 -4/3 0 0 0
0
Tableau optimal au P1 :
x1 x2 x3 x4 b
x2 0 1 2/7 1/7 8/7
x1 1 0 1/7 8/14 32/7
-Z 0 0 -1/7 -8/14 -4/7
cette solution n’est pas entière donc on applique Branch and Bound avec 4 ≤x1 ≤ 5
La séparation :
max φ0 ( x) = [( x1 − 4) − z1 ( x0 )(− x2 + 3)]
= x1 − 43 x2
s.c
0
(SP1 )= − x1 + 4 x2 ≤ 0 (5.11)
2 x1 − x2 ≤ 8
x1 ≤ 4
x , x ≥ 0, et entier
1 2
L’évaluation :
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 61
0 0
Résolvons le sous problème (SP1 ), On doit ajouter la contrainte x1 au (SP1 ) ; sous forme
d’équation, on a x1 + x5 = 4 On obtient alors le tableau suivant en ajoutant cette contrainte
au tableau précédent.
x1 x2 x3 x4 x4 b
x2 0 1 2/7 1/7 0 8/7
x1 1 0 1/7 8/14 0 32/7
x5 1 0 0 0 1 4
-Z 0 0 -1/7 -8/14 0 -4/7
On doit toute fois modifier ce tableau puisque x1 est une variable dans la base et il doit lui
correspondre un vecteur unitaire dans le tableau.
x1 x2 x3 x4 x4 b
x2 0 1 2/7 1/7 0 8/7
x1 1 0 1/7 8/14 0 32/7
x5 0 0 -1/7 -8/7 1 -4/7
-Z 0 0 -1/7 -8/14 0 -4/7
0
Le tableau optimal du SP1 :
x1 x2 x3 x4 x4 b
x2 0 1 0 -1 2 0
x1 1 0 0 0 0 4
x5 0 0 1 4 -7 4
-Z 0 0 0 0 -1 0
Tous les c j ≤ 0 ,et la solution optimale entière a été trouvé (4.0) avec φ0 (x)= 0, arrêter.
max Z2 ( x) = −xx21++14
s.c
(P2 )= − x1 + 4 x2 ≤ 0 (5.12)
2 x1 − x2 ≤ 8
x , x ≥ 0, et entier
1 2
La solution entière de base initiale x0 = (0,0) est utilisé pour résoudre :
max φ 0 ( x) = [(− x1 + 4) − z2 ( x0 )( x2 + 1)]
= − x1 − 4 x2
0
s.c
(P2 )= (5.13)
− x1 + 4 x2 ≤ 0
2 x1 − x2 ≤ 8
x1 , x2 ≥ 0, et entier
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 62
0
Tous les c j ≤ 0 j=1.2, donc la solution optimale entière pour le problème (P2 ) est (0,0) avec
φ0 (x) = 0
Enfin, nous résolvons :
max Z3 (x) = -x1 + x2
s.c
(P3 )= − x1 + 4 x2 ≤ 0 (5.14)
2 x1 − x2 ≤ 8
x , x ≥ 0, et entier
1 2
Solution de base :
x1 x2 x3 x4 b
x3 -1 4 1 0 0
x4 2 -1 0 1 8
-Z -1 1 0 0 0
Tableau optimal du P3 :
x1 x2 x3 x4 b
x2 -1/4 1 1/4 0 0
x4 7/4 0 1/4 1 0
-Z -3/4 0 -1/4 0 0
Tous les c j ≤ 0 j = 1.2, donc la solution optimale entière trouvée est (0,0) et puisque x1 et
x2 sont entiers, arrêter.
Maintenant, la méthode "²-contrainte" est utilisé pour convertir le problème multi-objectif
fractionnaire linéaire non floue en nombres entiers (α − P MFLNE ) à un problème mono-
objectif fractionnaire linéaire en nombres entiers (PFLNE ) et le tableau des gains est
donné ci-dessous.
Z1 ( x) = −xx12−+43 Z2 ( x) = −xx21++14 Z3 = − x1 + x2
x z1 (4,0) 0 0 -4
−4
x z2 (0,0) 3 4 0
−4
x z3 (0,0) 3 4 0
max 0 4 0
−4
min 3 0 -4
−4
² 3 ≤ ²1 ≤ 0 0 ≤ ²2 ≤ 4 -4 ≤ ²3 ≤ 0
Solution de base :
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 63
max Z1 ( x) = −xx12−+43
s.c
− x1 + 4 x2 ≤ 0
(P1 (²∗ ))=2 x1 − x2 ≤ 8 (5.15)
− x1 +4
x2 +1 ≥ 1
− x1 + x2 ≥ −3
x , x ≥ 0, et entier
1 2
En utilisant l’algorithme "Isbell-Marlow" modifié (Alg. I) et en laissant la solution entière
max ω0 (x)=[(x1 − 4) − z1 ( x0 )(− x2 + 3)]
= x1 − 43 x2
s.c
0
− x1 + 4 x2 ≤ 0
(P1 (² ))=
∗
(5.16)
2 x1 − x2 ≤ 8
x1 + x2 ≤ 3
x1 − x2 ≤ 3
x1 , x2 ≥ 0, et entier
Solution de base :
x1 x2 x3 x4 x5 x6 b
x3 -1 4 1 0 0 0 0
x4 2 -1 0 1 0 0 8
x5 1 1 0 0 1 0 3
x6 1 -1 0 0 0 1 3
-Z 1 -4/3 0 0 0 0 -3
x1 x2 x3 x4 x5 x6 b
x3 0 5 1 0 1 0 3
x4 0 -3 0 1 -2 0 2
x1 1 1 0 0 1 0 3
x6 0 -2 0 0 -1 1 0
-Z 0 -7/3 0 0 -1 0 -3
La solution entière est trouvée (3,0) avec ω0 (x) = 3. puisque ω0 (x) 6= 0, puis utiliser x∗ =
(3,0) comme une solution entière initiale de base pour résoudre le problème suivant :
Résolution d’un problème multi-objectif fractionnaire linéaire flou
en nombres entiers 64
maxω0 (x)=[(x1 − 4) − z1 ( x1 )(− x2 + 3)]
= x1 − 13 x2 − 3
s.c
00
− x1 + 4 x2 ≤ 0
(P1 (²∗ ) )= (5.17)
2 x1 − x2 ≤ 8
x1 + x2 ≤ 3
x1 − x2 ≤ 3
x1 , x2 ≥ 0, et entier
Soluion de base :
x1 x2 x3 x4 x5 x6 b
x3 -1 4 1 0 0 0 0
x4 2 -1 0 1 0 0 8
x1 1 1 0 0 1 0 3
-Z 1 -4/3 0 0 0 0 0
x1 x2 x3 x4 x5 x6 b
x3 0 5 1 0 1 0 3
x4 0 -3 0 1 -2 0 2
x1 1 1 0 0 1 0 3
x6 0 -2 0 0 -1 1 0
-Z 0 -7/3 0 0 -1 0 0
la solution optimale entière est trouvée (3,0) avec ω1 (x)=0. puisque ω1 (x) = 0. alors arrêter.
Alors l’ensemble des solution efficaces entiéres du problème (α − P MFLNE ) telle que
(α=0) est Eef = {(4.0) , (0.0) , (3.0) }
Pour toutes valeures de α ∈ ]0.1] les b i ne peuvent être entières. donc la résolution de
notre problème est faite seulement pour α = 0.
Conclusion
Dans ce chapitre nous avons présenté un algorithme qui a été proposé pour résoudre
le problème de programmation multi-objectif fractionnaire linéaire flou en nombres
entiers (P MFLF NE ). Certains concepts flous ont été donnés pour convertir le problème
(P MFLF NE ) à un problème non flou (P MFLNE ), la version est une modification de
l’algorithme "Isbell-Marlow" (Alg. I) qui a été utilisé pour achever le processus de solution.
Chapitre 6
Implémentation, Résultats et
Discution
Introduction
Dans ce chapitre, nous aboutissons à l’étap finale de notre travail, à savoire l’élaboration
d’un logiciel aussi convivial que possible. nous expliquerons son fonctionnement afin de
faciliter son utilisation et de mettre en application la méthode de résolution proposée, nous
avons alors implémenté cette méthode en utilisant Matleb de la société The Mathwork.
1. Choix du langage
Le choix s’est porté sur l’emploi du langage du logiciel Matlab R2015a, car il répond aux
critère suivants :
-La maniabilité du language : constitué d’un ensemble de possibilités faisant en sorte que
le programmeur travaille avec aisance.
-Le bagage du language : il contient une interface graphique et des fonctions prédéfinies
telle que :
intlinprog :
permet de résoudre un problème linéaire en nombres entiers.
La fonction length :
Cette fonction prend comme entré un vecteur et retourne leur taille. Leur code Matlab
est : k=length(vec), telle que " vec " est un vecteur, et " k "est la taille qu’on cherche.
La fonction size :
Cette fonction prend comme entré une matrice et retourne sa taille. Le code Matlab est :
[ MN ]=size (A)
65
Implémentation, Résultats et Discution 66
La fonction zeros :
Cette fonction génére une matrice de taille M*N.
le code Matlab : A= zeros(M,N).
La fonction floor :
retourne la première valeur entière inférieure à x, dans la direction de −∞
le code Matlab : a=floor(b).
b : est la valeur qu’on cherche a trouvé leur partie entière inferieur. a : la valeur obtenue.
3. Exemple concret
Le problème à résoudre ici est un problème muti-objectif fractionnaire linéaire flou en
nombres entiers suivant :
max Z1 ( x) = −xx12−+43
max Z2 ( x) = −xx21++14
max Z3 ( x) = − x1 + x2
(PMFLFNE) = s.c (6.1)
-x1 + 4 x2 ≤ b̃ 1
2x1 - x2 ≤ b̃ 2
x , x ≥ 0, et entier
1 2
1 0 −4
−1 0 3
−1 0 4
Z=
0 1 1
−1 1 0
0 0 1
à !
−1 4
C=
2 −1
³ ´
b 1 = 0 0. 2 0. 3 0. 6
³ ´
b 2 = 8 8. 2 8. 3 8. 6
nous donnons le vécteur flou de "b" sous forme d’un (T rF N ) puis nous précisant le pas de
α ainsi que le choix de la fonction fixé pour la résolution de la fonction ε−contrainte.
pour le résultat finale nous avons les deux premiers colonnes sont les "ε" choisi pour la
résolution de ε−contrainte. les deux derniers colonnes représente la solution optimale
pour chaque "ε" choisi.
Implémentation, Résultats et Discution 69
Conclusion
Dans ce chapitre nous avons commencé par décrire le logiciel Mathlab puisque nous
l’avons choisit pour la programmation de notre méthode, puis nous avons appliqué notre
programme sur un exemple, enfin nous avons testé le programme sur tous l’interval de ε.
Conclusion générale
Dans ce mémoire, nous nous sommes intéressés à l’étude d’un problème d’optimisation
multi-objectif fractionnaire linéaire flou en nombre entier. Les fonctions objectifs sont
fractionnaires linéaires et les paramètres flous sont associés aux second membre des
contraintes Ils sont caractérisés par des nombres flous trapézoïdales. Dans ce sens nous
avons deux objectifs à atteindre :
Le premier est de rendre notre problème multi-objectif fractionnaire linéaire flou en un
problème multi-objectif linéaire non flou. Pour cela, nous avons transformé le problème
flou en un problème non flou, en se basant sur des fonctions d’appartenance prédéfinis ou
en obtenant les "b" dans des intervalles. Puis nous avons éfféctués une modification de tel
sorte que nous ayons transformé notre problème fractionnaire en un problème linéaire à
l’aide de la méthode "Isbelle-Merlow".
Deuxième objectif est de rendre le problème, d’un problème multi-objectif en un problèmen
mono-objectif en utilisant la méthode d 0 ε-Contrainte puis le résoudre.
Enfin, nous nous sommes attachés à décrire l’application construite, ainsi une vue d’en-
semble sur le logiciel de programmation que nous avons utilisés qui est Matlab 2015.
70
Bibliographie
[1] ASLI, L. . Approche hybride pour les problèmes d’optimisation combinatoire mul-
tiobjectif : cas des problèmes de type sac-à-dos 2010.
[2] BARICHARD, V. . Approches hybrides pour les problèmes multiobjectifs 2003.
[3] B ECTOR , C. R. ,Suresh Chandra , Fuzzy Mathematical Programming and Fuzzy
Matrix Games Springer-Verlag Berlin Heidelberg, 2005 ,169,.
[4] B ENLAHRACHE , N. . Optimisation Multi-Objectif Pour l’Alignement Multiple de
Séquences 2007.
[5] BEZOUI, M. . Support de Cours :programmation linèaire Bèjaia, 2008-2009.
[6] C.G UÉRARD. « Programmation Linéaire » Paris, Eyrolles 1976.
[7] CHAABANE, D. Contribution à l’optimisation multicritère en variables discrètes
Mons 2007,.
[8] C HANKONG, V., AND Y.Y. Haimes, Multiobjective Decision-Making : Theory and
Methodology, System Science and Engineering. North Holland, 1983.
[9] C HERGUI , M.-A., AND M OULAÜ, M. An Exact Method for a Discrete Multiobjective
Linear Fractional Optimization, Applied Mathematics and Decision Sciences1-12
(2008).
[10] COELLO COELLO. C. A. .An updated survuey of g.a based multiobjective optimization
techniques Technical report Lania-RI-98-08 Laboratorio Nacional Avanzada, Xalapa,
Veracruz, Mexico (Deceumber 1998).
[11] C OLLETTE , Y., AND P. . Siarry, Optimisation multiobjectif,Edition Eyrolles 75240
Paris Cedex 05, France, 2002.
[12] DANTZIG, G. Linear programming and extensions Princeton University Press,
Prince- ton, N.J., 1963.
[13] ET I, O. . Optimisation multicritère : Fondements et Concepts PhD thesis, Université
de Grenoble, 1998.
[14] ET L.HAMADACHE, A. B. Interprètation èconomique de la dualitè et l’analyse de
post-optimale Boumerdes 2013,.
[15] ET N.Z EMOURENE , A. Programmation fractionnaire linèaire en nombres entiers :
mèthode de Granot. Boumerdes 2015,.
[16] FABIAN, B. Modèles de Recherche Opèrationnelle, [email protected] Univer-
sitè de Montrèal 2010.
71
BIBLIOGRAPHIE 72
[36] REARDON. B. J. Fuzzy logic us niched pareto muli-objective genetic algorithm opti-
mization : Part i : Schaffer’s problem.Technical report la- ur-97-3675, Los Alamos
National Laboratory, 1997..
[37] S AAD, O. M. n Stability of Proper Efficient Solutions in Multiobjective Fractional
Programming under Fuzziness, Mathematical and Computer Modeling 45 (2007),
221-231.
[38] SAKAWA . M ; H. yano. An interactive fuzzy satisfcing method for multiobjective
linear programming problems witth fuzzy parametres, vol volume 28. Fuzzy sets and
Systems, 1988.
[39] S CHAIBLE , S., AND S HI , J. Recent Developments in Fractional Programming : Single
and Max-Min Case, A Gary Anderson Graduate School of Management, California,
2004.
[40] S ESHAN, C. R., AND V.G. Tikekar, Algorithms for Integer Fractional Programming
Journal of the Indian Institute of Science, 62 (1980), 9-16.
[41] SIARRY. P. .La mèthode du recuit simulè en èlectronique Habilitation report, Paris-
sud University(Orsay) (1994).
[42] S IMONNARD, M. « Programmation Linéaire » Dunod 1962..
[43] S TEUER , R. E. Multiple Criteria Optimization : Theory ; Computation and Applica-
tion Willey, New York, 1986.
[44] S UGENO, M., K. G. Structure identification of fuzzy model. Fuzzy Sets Syst 28 : 15–
33, 1988.
[45] T EGHEM , J. « Programmation Linéaire » , OM Partners.
[46] V ERMA H.C., B., AND M.C. . Puri Ranking in integer linear fractional pro- gramming
problems, Zeitschrift f¨er Operations Research- Methods and Models of Operations
Research 34, 325-334, 1990.
[47] Z ADEH , L. A. Soft computing and fuzzy logic. IEEE Software 11(6), pp 48-56, 1994.
[48] Z ADEH , L. A. le concept d’une variable linguistique et son application à rapprocher
le raisonnement (1975).
[49] Z ERDANI , O. Thèse de doctorat : L’optimisation non linèaire multi objectif 2013,.
[50] ZOUAOUI, S. .Mèmoire de magistère : Approche multicritère pour le problème de
sac à dos. USTHB,Algerie,alger 2011.
Bibliographie
[1] ASLI, L. . Approche hybride pour les problèmes d’optimisation combinatoire mul-
tiobjectif : cas des problèmes de type sac-à-dos 2010.
[2] BARICHARD, V. . Approches hybrides pour les problèmes multiobjectifs 2003.
[3] B ECTOR , C. R. ,Suresh Chandra , Fuzzy Mathematical Programming and Fuzzy
Matrix Games Springer-Verlag Berlin Heidelberg, 2005 ,169,.
[4] B ENLAHRACHE , N. . Optimisation Multi-Objectif Pour l’Alignement Multiple de
Séquences 2007.
[5] BEZOUI, M. . Support de Cours :programmation linèaire Bèjaia, 2008-2009.
[6] C.G UÉRARD. « Programmation Linéaire » Paris, Eyrolles 1976.
[7] CHAABANE, D. Contribution à l’optimisation multicritère en variables discrètes
Mons 2007,.
[8] C HANKONG, V., AND Y.Y. Haimes, Multiobjective Decision-Making : Theory and
Methodology, System Science and Engineering. North Holland, 1983.
[9] C HERGUI , M.-A., AND M OULAÜ, M. An Exact Method for a Discrete Multiobjective
Linear Fractional Optimization, Applied Mathematics and Decision Sciences1-12
(2008).
[10] COELLO COELLO. C. A. .An updated survuey of g.a based multiobjective optimization
techniques Technical report Lania-RI-98-08 Laboratorio Nacional Avanzada, Xalapa,
Veracruz, Mexico (Deceumber 1998).
[11] C OLLETTE , Y., AND P. . Siarry, Optimisation multiobjectif,Edition Eyrolles 75240
Paris Cedex 05, France, 2002.
[12] DANTZIG, G. Linear programming and extensions Princeton University Press,
Prince- ton, N.J., 1963.
[13] ET I, O. . Optimisation multicritère : Fondements et Concepts PhD thesis, Université
de Grenoble, 1998.
[14] ET L.HAMADACHE, A. B. Interprètation èconomique de la dualitè et l’analyse de
post-optimale Boumerdes 2013,.
[15] ET N.Z EMOURENE , A. Programmation fractionnaire linèaire en nombres entiers :
mèthode de Granot. Boumerdes 2015,.
[16] FABIAN, B. Modèles de Recherche Opèrationnelle, [email protected] Univer-
sitè de Montrèal 2010.
74
BIBLIOGRAPHIE 75
[36] REARDON. B. J. Fuzzy logic us niched pareto muli-objective genetic algorithm opti-
mization : Part i : Schaffer’s problem.Technical report la- ur-97-3675, Los Alamos
National Laboratory, 1997..
[37] S AAD, O. M. n Stability of Proper Efficient Solutions in Multiobjective Fractional
Programming under Fuzziness, Mathematical and Computer Modeling 45 (2007),
221-231.
[38] SAKAWA . M ; H. yano. An interactive fuzzy satisfcing method for multiobjective
linear programming problems witth fuzzy parametres, vol volume 28. Fuzzy sets and
Systems, 1988.
[39] S CHAIBLE , S., AND S HI , J. Recent Developments in Fractional Programming : Single
and Max-Min Case, A Gary Anderson Graduate School of Management, California,
2004.
[40] S ESHAN, C. R., AND V.G. Tikekar, Algorithms for Integer Fractional Programming
Journal of the Indian Institute of Science, 62 (1980), 9-16.
[41] SIARRY. P. .La mèthode du recuit simulè en èlectronique Habilitation report, Paris-
sud University(Orsay) (1994).
[42] S IMONNARD, M. « Programmation Linéaire » Dunod 1962..
[43] S TEUER , R. E. Multiple Criteria Optimization : Theory ; Computation and Applica-
tion Willey, New York, 1986.
[44] S UGENO, M., K. G. Structure identification of fuzzy model. Fuzzy Sets Syst 28 : 15–
33, 1988.
[45] T EGHEM , J. « Programmation Linéaire » , OM Partners.
[46] V ERMA H.C., B., AND M.C. . Puri Ranking in integer linear fractional pro- gramming
problems, Zeitschrift f¨er Operations Research- Methods and Models of Operations
Research 34, 325-334, 1990.
[47] Z ADEH , L. A. Soft computing and fuzzy logic. IEEE Software 11(6), pp 48-56, 1994.
[48] Z ADEH , L. A. le concept d’une variable linguistique et son application à rapprocher
le raisonnement (1975).
[49] Z ERDANI , O. Thèse de doctorat : L’optimisation non linèaire multi objectif 2013,.
[50] ZOUAOUI, S. .Mèmoire de magistère : Approche multicritère pour le problème de
sac à dos. USTHB,Algerie,alger 2011.