Sur la Commande Adaptative Neuronale de Systèmes Dynamiques Complexes


Thèse de Doctorat, 2014
262 Pages

Extrait

UNIVERSITE DE TUNIS EL MANAR
Thèse réalisée au sein du Laboratoire de Recherche LA.R.A Automatique
École Nationale d'Ingénieurs de Tunis, BP 37, 1002 Tunis, le Belvédère
THÈSE
présentée à
L'ÉCOLE NATIONALE D'INGÉNIEURS DE TUNIS
pour l'obtention du grade de
DOCTEUR EN GÉNIE ÉLECTRIQUE
par
Farouk ZOUARI
Ingénieur ENIT
Sur
la Commande Adaptative Neuronale
de Systèmes Dynamiques Complexes
soutenue le 16 décembre 2014, devant le Jury d'Examen composé de :
M. Mohamed BENREJEB
M. Abdellah EL MOUDNI
M. Messaoud HASSANI
M. Moncef GASMI
M. Kamel BEN SAAD
Président
Rapporteur
Rapporteur
Examinateur
Directeur de Thèse


Avant-propos
Les travaux de recherche, faisant l'objet du présent rapport, ont été effectués au sein du
Laboratoire de Recherche LA.R.A Automatique de l'École Nationale d'Ingénieurs
de Tunis (ENIT).
Je suis très redevable envers Monsieur Mohamed BENREJEB, Professeur à l'ENIT
et Directeur du Laboratoire de Recherche LA.R.A Automatique de l'ENIT, pour l'accueil qu'il
m'a réservé au sein dudit laboratoire, pour ses conseils, son soutien scientifique et humain,
pour m'avoir fait le grand honneur d'accepter de présider mon Jury de thèse. Qu'il trouve ici le
témoignage de ma très profonde gratitude et mon grand estime.
Je tiens à exprimer mes vives reconnaissances envers Monsieur Kamel BEN SAAD, Maître
de Conférences à l'ENIT, pour avoir bien voulu m'accueillir au sein de son équipe, pour avoir
dirigé mes travaux et m'avoir fait découvrir le monde de la recherche par ses conseils et ses
directives qui m'ont permis de mener à bien mes travaux de recherche dans le cadre de la
préparation de cette thèse. Qu'il reçoive l'expression de ma profonde gratitude.
Je tiens à exprimer ma vive reconnaissance à Monsieur Abdellah EL MOUDNI, Professeur et
Responsable de l'équipe Évaluation et Conduite de Systèmes (ECS) du Laboratoire Systèmes
et Transport (SeT) de l'Université de Technologie de Belfort-Montbéliard (UTBM), pour
avoir accepté de rapporter mon travail. Je le remercie vivement.
Ma vive gratitude va à Monsieur Messaoud HASSANI, Professeur et Directeur du
Laboratoire de Recherche en Automatique Traitement de Signal et Image (ATSI) de l'École
Nationale d'Ingénieurs de Monastir (ENIM), pour avoir bien voulu évaluer mes travaux de
recherche. Je lui adresse mes sincères remerciements.
Je tiens à remercier vivement Monsieur Moncef GASMI, Professeur et Directeur du
Laboratoire d'Informatique pour les Systèmes Industriels (LISI) de l'Institut National des
Sciences Appliquées et de Technologie (INSAT), pour avoir accepté de juger ce travail. Qu'il
soit grandement remercié.
Je remercie finalement tous les chercheurs du Laboratoire de Recherche LA.R.A Automatique
pour leur amicale présence et pour la sympathie qu'ils m'ont constamment témoignées. Je leur
exprime ici toute ma gratitude.


Je dédie ce travail
À la mémoire de mon père,
À ma mère,
Et à ma soeur.


-i-
Table des matières
Notations ... v
Liste des figures...ix
Introduction générale ... 1
Chapitre I : Généralités sur les approches existantes d'identification et de commande
adaptative de systèmes dynamiques non linéaires complexes ... 7
I.1 Introduction ... 8
I.2 Caractéristiques de systèmes dynamiques ... 8
I.3 Méthodes d'identification ... 9
I.3.1 Méthodes d'identification conventionnelles ... 10
I.3.2 Méthodes d'identification non conventionnelles ... 13
I.4 Approches existantes de commande adaptative de systèmes dynamiques non linéaires
complexes ... 26
I.4.1 Commande adaptative par retour d'état... 31
I.4.2 Commande adaptative directe ... 34
I.4.3 Commande adaptative par mode glissant ... 35
I.4.4 Commande adaptative robuste
H
f
... 38
I.4.5 Commande adaptative par backstepping ... 40
I.4.6 Commande adaptative basée sur observateur ... 44
I.5 Conclusion ... 47
Chapitre II : Nouvelles commandes adaptatives indirectes neuronales robustes par
retour d'état pour une classe de systèmes dynamiques non linéaires complexes à retard
non affines en la commande ... 49
II.1 Introduction ... 50
II.2 Nouvelle commande adaptative indirecte neuronale robuste par retour d'état pour un
système dynamique non linéaire complexe à retard non affine en la commande possédant
une seule entrée et une seule sortie ... 51
II.2.1 Formulation du problème et préliminaires ... 52
II.2.2 Linéarisation entrée-sortie du système ... 53
II.2.3 Approximation des non linéarités inconnues du système par des réseaux de
neurones ... 55
II.2.4 Conception de la commande ... 59
II.2.5 Analyse de la stabilité ... 66
II.2.6 Exemples et discussions ... 68
II.3 Nouvelle commande adaptative indirecte neuronale robuste par retour d'état pour un
système dynamique non linéaire complexe à retard non affine en la commande possédant
plusieurs entrées et plusieurs sorties (MIMO) carré ... 78
II.3.1 Position du problème ... 79
II.3.2 Linéarisation entrée-sortie du système ... 81

Table des matières
-ii-
II.3.3 Approximation des non linéarités inconnues du système par des réseaux de
neurones ... 82
II.3.4 Conception de la commande ... 87
II.3.5 Analyse de la stabilité ... 94
II.3.6 Exemples et discussions ... 96
II.4 Conclusion ... 110
Chapitre III : Nouvelles commandes adaptatives indirectes neuronales robustes par
retour de sortie pour une classe de systèmes dynamiques non linéaires complexes à
retard non affines en la commande ... 113
III.1 Introduction ... 114
III.2 Nouvelle commande adaptative indirecte neuronale robuste par retour de sortie pour
un système dynamique non linéaire complexe à retard non affine en la commande
possédant une seule entrée et une seule sortie ... 115
III.2.1 Formulation du problème ... 116
III.2.2 Approximation des non linéarités inconnues du système par des réseaux de
neurones ... 117
III.2.3 Observateur d'état du système ... 121
III.2.4 Conception de la commande ... 122
III.2.5 Analyse de la stabilité ... 130
III.2.6 Exemples et discussions ... 133
III.3 Nouvelle commande adaptative indirecte neuronale robuste par retour de sortie pour
un système dynamique non linéaire complexe à retard non affine en la commande
possédant plusieurs entrées et plusieurs sorties (MIMO) carré ... 147
III.3.1 Position du problème et préliminaires ... 147
III.3.2 Approximation des non linéarités inconnues du système par des réseaux de
neurones ... 150
III.3.3 Observateur d'état du système ... 156
III.3.4 Conception de la commande ... 157
III.3.5 Analyse de la stabilité ... 166
III.3.6 Exemples et discussions ... 169
III.4 Conclusion ... 191
Conclusion générale ... 193
Bibliographie ... 195
Annexes ... 205
A. Définitions, Lemmes et Théorèmes ... 207
B. Approximation des non linéarités inconnues du système (II.1) sur un ensemble
compact
X
: ... 213
C. Détermination de la borne supérieure de la dérivée temporelle de la fonction
de Lyapunov
V ... 217
D. Approximation des non linéarités inconnues du système (II.32) sur un ensemble
compact
1
X
: ... 221

Table des matières
-iii-
E. Détermination de la borne supérieure de la dérivée temporelle de la fonction
de Lyapunov
1
V ... 227
F. Détermination de la borne supérieure de la dérivée temporelle de la fonction
de Lyapunov
2
V ... 233
G. Détermination de la borne supérieure de la dérivée temporelle de la fonction
de Lyapunov
3
V ... 237


-v-
Notations
Acronymes
MLP : Réseau de neurones perceptron multicouches
RBF : Fonction radiale de base
SISO : Une seule entrée et une seule sortie
MIMO carré : Plusieurs entrées et plusieurs sorties dont le nombre d'entrées est égal au
nombre de sorties
SPR : Strictement positive réelle
Symboles
t Variable de temps
\ Ensemble des nombres réels
` Ensemble des nombres entiers naturels
] Ensemble des nombres entiers relatifs
n
\ Ensemble des vecteurs réels de dimension n
1
n m
×
Matrice de dimension n m
× dont tous ses éléments sont égaux à 1
0
n m
×
Matrice nulle de dimension n m
×
1
n
Vecteur de dimension n dont tous ses éléments sont égaux à 1
0
n
Vecteur nul de dimension n
p p
I
×
Matrice identité d'ordre p
0.2785
=
a Scalaire
a Vecteur
A
Matrice
T
A
Transposée de la matrice A
0
T
P
P
=
; ,
0
T
= ; ,
0
T
Q
Q
=
; Matrices symétriques définies positives
( )
det P Déterminant de la matrice P
( )
Tr P Trace de la matrice P
sgn Fonction signe
tanh Fonction tangente hyperbolique
a Valeur absolue du scalaire a
1
a Norme 1 du vecteur a
2
a Norme Euclidienne du vecteur a
F
A
Norme de Frobenius de la matrice A
n Ordre du système
p Nombre des entrées et des sorties pour un système possédant plusieurs entrées et plusieurs
sorties
s Variable de Laplace

Notations
-vi-
1
q
-
Opérateur retard
n
x
\ Vecteur d'état
^
n
x
\ Vecteur d'état estimé
u
\ Entrée scalaire de commande d'un système possédant une seule entrée et une seule
sortie
p
u
\ Vecteur des entrées de commande d'un système possédant plusieurs entrées
et plusieurs sorties
y
\ Sortie scalaire d'un système possédant une seule entrée et une seule sortie
p
y
\ Vecteur des sorties d'un système possédant plusieurs entrées et plusieurs sorties
( )
(
)
1
n
x t
X
t ,
u
+
ª
- º
= «
»
¬
¼
,
1
1
r
x
X
ª º
= « »
¬ ¼
,
( )
( )
n p
x t
X
t ,
u
+
ª
- º
= «
»
¬
¼
,
1
p
r
p
x
X
ª º
= « »
¬ ¼
1
r
^
X
,
p
r
^
X
Estimation des vecteurs
1
r
X
,
p
r
X
, respectivement
n
d
x
\ Vecteur d'état de référence
d
y
\ Sortie scalaire de référence
p
d
y
\ Vecteur des Sorties de référence
\ Erreur scalaire
p
\ Vecteur des erreurs
n
b
\ ,
n
c
\ Vecteurs d'état du système possédant une seule entrée et une seule sortie
n p
B
×
\ ,
n p
C
×
\
Matrices d'état du système possédant plusieurs entrées et plusieurs
sorties
(
)
(
)
h x t
,u
-
,
( )
h x ,
(
)
(
)
x t
-
,
( )
(
)
1
n
X
t ,
+
Fonctions lisses
( )
f x ,
( )
x
,
(
)
(
)
H x t
,u
-
,
( )
(
)
n p
X
t ,
+
Vecteurs des fonctions lisses
( )
(
)
n p
X
t ,
+
Matrice des fonctions lisses
d
\ Perturbation scalaire
p
d
\ Vecteur des perturbations
( )
G s ,
( )
G s
Fonctions de transfert
( )
G s ,
( )
G s
Matrices de transfert
( )
T s Filtre passe bas
( )
T s Matrice des filtres passe bas
( )
x ,
,
( )
x ,
Vecteurs des fonctions d'activation
( )
x ,
Matrice des fonctions d'activation
*
,
*
Vecteurs des paramètres optimaux
*
W
,
*
Matrices des paramètres optimaux
^
, ^
Vecteurs d'estimation des paramètres optimaux
*
,
*
, respectivement
^
W
, ^
Matrices d'estimation des paramètres optimaux
*
W
,
*
, respectivement
,
Vecteurs d'erreurs d'estimation des paramètres

Notations
-vii-
W ,
Matrices d'erreurs d'estimation des paramètres
( )
x
Erreur scalaire d'approximation
( )
x
Vecteur d'erreurs d'approximation
*
Constante positive de majoration
V
,
1
V ,
2
V ,
3
V Fonctions de Lyapunov
,
,
W
Ensembles convexes
x
,
X
,
1
X
Ensembles compacts
1 n
b
K
×
\ Vecteur gain du retour d'état
p n
B
K
×
\ Matrice gain du retour d'état
n
c
K
\ Vecteur gain d'observation
n p
C
K
×
\ Matrice gain d'observation


-ix-
Liste des figures
Structure d'un neurone formel...15
Quelques fonctions d'activation utilisées dans la caractérisation des neurones
formels : (a) linéaire, (b) tangente hyperbolique, (c) sigmoïde, (d) gaussienne,
(e) multi-quadratique inverse... 16
Quelques architectures des réseaux de neurones : (a) Réseau de neurones non
bouclé à couche cachée, (b) Réseau de neurones totalement bouclé, (c) Réseau
de neurones avec connections arrières (réseau de neurones récurrent ou
feedback)...18
Formes usuelles de quelques fonctions d'appartenance
: (a) Fonction
triangulaire, (b) Fonction trapézoïdale, (c) Fonction gaussienne, (d) Fonction
sigmoïde, (e) Fonction singleton...23
Principe de la commande adaptative...27
Principe de la commande adaptative directe...28
Principe de la commande adaptative indirecte...28
Principe de la commande à gains programmés...29
Principe de la commande adaptative par modèle interne...30
Principe de la commande adaptative par anticipation...30
Principe de la commande adaptative neuronale par retour d'état...33
Principe de la commande adaptative directe neuronale...35
Structure de la commande adaptative neuronale par mode glissant...38
Structure de la commande adaptative neuronale robuste H
...40
Structure de la commande adaptative neuronale basée sur observateur...47
Réseaux de neurones non bouclés à une seule couche cachée : (a) RN1 utilisé
pour approximer
( )
(
)
x t
-
, (b) RN2 utilisé pour approximer
( )
(
)
1
n
X
t ,
+
...55
Figure I.1.
Figure I.2.
Figure I.3.
Figure I.4.
Figure I.5.
Figure I.6.
Figure I.7.
Figure I.8.
Figure I.9.
Figure I.10.
Figure I.11.
Figure I.12.
Figure I.13.
Figure I.14.
Figure I.15.
Figure II.1.

Liste des figures
-x-
Structure de la commande adaptative indirecte neuronale robuste par retour
d'état proposée pour un système dynamique non linéaire complexe à retard non
affine en la commande possédant une seule entrée et une seule sortie...64
Organigramme relatif à la mise en oeuvre de la commande adaptative indirecte
neuronale robuste par retour d'état proposée pour un système dynamique non
linéaire complexe à retard non affine en la commande possédant une seule
entrée et une seule sortie...65
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour d'état au système (II.26) : (a) Entrée du système
u ,
(b) Sortie du système
1
y
x
= et signal de référence
d
y , (c) Variable d'état
3
x ,
(d) Variable d'état
2
x , (e) Erreur de poursuite
...72
Résultats de l'application d'une commande adaptative neuronale robuste par
mode glissant [6, 23, 29, 119] au système (II.26) : (a) Entrée du système
u ,
(b) Sortie du système
1
y
x
= et signal de référence
d
y , (c) Variable d'état
3
x ,
(d) Variable d'état
2
x , (e) Erreur de poursuite
...73
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour d'état au système (II.29) : (a) Entrée du système
u ,
(b) Sortie du système
1
y
x
= et signal de référence
d
y , (c) Variable d'état
2
x ,
(d) Erreur de poursuite
...77
Résultats de l'application d'une commande adaptative neuronale robuste par
mode glissant [6, 23, 29, 119] au système (II.29) : (a) Entrée du système
u ,
(b) Sortie du système
1
y
x
= et signal de référence
d
y , (c) Variable d'état
2
x ,
(d) Erreur de poursuite
...78
Réseaux de neurones non bouclés à une seule couche cachée : (a) RN3 utilisé
pour approximer
( )
(
)
n p
X
t,
+
, (b) RN3 utilisé pour approximer
( )
(
)
,
n p
X
t
+
...83
Structure de la commande adaptative indirecte neuronale robuste par retour
d'état proposée pour un système dynamique non linéaire complexe à retard non
affine en la commande possédant plusieurs entrées et plusieurs sorties...92
Organigramme relatif à la mise en oeuvre de la commande adaptative indirecte
neuronale robuste par retour d'état proposée pour un système dynamique non
linéaire complexe à retard non affine en la commande possédant plusieurs
entrées et plusieurs sorties... 93
Figure II.2.
Figure II.3.
Figure II.4.
Figure II.5.
Figure II.6.
Figure II.7.
Figure II.8.
Figure II.9.
Figure II.10.

Liste des figures
-xi-
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour d'état au système (II.56) : (a) Entrée du système
1
u , (b) Entrée du système
2
u , (c) Sortie du système
1
y et signal de référence
1
d
y
, (d) Sortie du système
2
y
et signal de référence
2
d
y , (e) Variable d'état
2
x
, (f) Variable d'état
3
x
, (g) Variable d'état
5
x
, (h) Norme Euclidienne du
vecteur des erreurs de poursuite
(
)
2
...101
Résultats de l'application d'une commande adaptative neuronale robuste par
mode glissant [6, 23, 29, 119] au système (II.56) : (a) Entrée du système
1
u
,
(b) Entrée du système
2
u
, (c) Sortie du système
1
y
et signal de référence
1
d
y
,(d) Sortie du système
2
y
et signal de référence
2
d
y
, (e) Variable d'état
2
x
, (f) Variable d'état
3
x
, (g) Variable d'état
5
x
, (h) Norme Euclidienne du
vecteur des erreurs de poursuite
(
)
2
...103
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour d'état au système (II.58) : (a) Entrée du
système
1
u
, (b) Entrée du système
2
u
, (c) Sortie du système
1
y
et signal de
référence
1
d
y
, (d) Sortie du système
2
y
et signal de référence
2
d
y
, (e) Variable
d'état
2
x
, (f) Variable d'état
4
x
, (g) Norme Euclidienne du vecteur des erreurs
de poursuite
(
)
2
...108
Résultats de l'application d'une commande adaptative neuronale robuste par
mode glissant [6, 23, 29, 119] au système (II.58) : (a) Entrée du système
1
u
,
(b) Entrée du système
2
u
, (c) Sortie du système
1
y
et signal de référence
1
d
y
,
(d) Sortie du système
2
y
et signal de référence
2
d
y
, (e) variable d'état
2
x
,
(f) variable d'état
4
x
, (g) Norme Euclidienne du vecteur des erreurs de
poursuite
(
)
2
...110
Réseaux de neurones non bouclés à une seule couche cachée : (a) RN5 utilisé
pour approximer
( )
(
)
x t
- , (b) RN6 utilisé pour approximer
( )
(
)
1
,
n
X
t
+
... 120
Structure de la commande adaptative indirecte neuronale robuste par retour
de sortie proposée pour un système dynamique non linéaire complexe à retard
non affine en la commande possédant une seule entrée et une seule sortie ... 128
Organigramme relatif à la mise en oeuvre de la commande adaptative indirecte
neuronale robuste par retour de sortie proposée pour un système dynamique
non linéaire complexe à retard non affine en la commande possédant une seule
entrée et une seule sortie ... 129
Figure II.11.
Figure II.12.
Figure II.13.
Figure II.14.
Figure III.1.
Figure III.2.
Figure III.3.

Liste des figures
-xii-
Diagramme de Nyquist de la fonction de transfert
( )
G s
dans le cas
du système (III.33) ... 135
Diagrammes de Bode de la fonction de transfert
( )
G s dans le cas
du système (III.33) ... 135
Diagramme de Nyquist de la fonction de transfert
( )
G s
dans le cas
du système (III.33) ... 136
Diagrammes de Bode de la fonction de transfert
( )
G s dans le cas
du système (III.33) ... 136
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour de sortie au système (III.33) : (a) Entrée du
système
u , (b) Sortie du système
1
y
x
= et signal de référence
d
y , (c) Estimation
de la variable d'état
3
x , (d) Estimation de la variable d'état
2
x , (e) Erreur de
poursuite
... 139
Résultats de l'application d'une commande adaptative neuronale robuste basée
sur observateur [5, 83, 86] au système (III.33) : (a) Entrée du système
u , (b)
Sortie du système
1
y
x
= et signal de référence
d
y , (c) Estimation de la variable
d'état
3
x , (d) Estimation de la variable d'état
2
x , (e) Erreur de poursuite
... 140
Diagramme de Nyquist de la fonction de transfert
( )
G s dans le cas
du système (III.35) ... 142
Diagrammes de Bode de la fonction de transfert
( )
G s dans le cas
du système (III.35) ... 143
Diagramme de Nyquist de la fonction de transfert
( )
G s dans le cas
du système (III.35) ... 143
Diagrammes de Bode de la fonction de transfert
( )
G s dans le cas
du système (III.35) ... 144
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour d'état au système (III.35) : (a) Entrée du système
u , (b) Sortie du système
1
y
x
= et signal de référence
d
y , (c) Estimation de la
variable d'état
2
x ,(d) Erreur de poursuite
... 146
Figure III.4.
Figure III.5.
Figure III.6.
Figure III.7.
Figure III.8.
Figure III.9.
Figure III.10.
Figure III.11.
Figure III.12.
Figure III.13.
Figure III.14.

Liste des figures
-xiii-
Résultats de l'application d'une commande adaptative neuronale robuste basée
sur observateur [5, 83, 86] au système (III.35) : (a) Entrée du système
u ,
(b) Sortie du système
1
y
x
= et signal de référence
d
y , (c) Estimation de la
variable d'état
2
x , (d) Erreur de poursuite
... 147
Réseaux de neurones non bouclés à une seule couche cachée : (a) RN7 utilisé
pour approximer
( )
(
)
n p
X
t,
+
, (b) RN8 utilisé pour approximer
( )
(
)
,
n p
X
t
+
... 154
Structure de la commande adaptative indirecte neuronale robuste par retour de
sortie proposée pour un système dynamique non linéaire complexe à retard non
affine en la commande possédant plusieurs entrées et plusieurs sorties ... 164
Organigramme relatif à la mise en oeuvre de la commande adaptative indirecte
neuronale robuste par retour de sortie proposée pour un système dynamique
non linéaire complexe à retard non affine en la commande possédant plusieurs
entrées et plusieurs sorties ... 165
Diagramme de Nyquist de la fonction de transfert
( )
11
G
s dans le cas
du système (III.73) ... 171
Diagrammes de Bode de la fonction de transfert
( )
11
G
s dans le cas
du système (III.73) ... 172
Diagramme de Nyquist de la fonction de transfert
( )
12
G
s dans le cas
du système (III.73) ... 172
Diagrammes de Bode de la fonction de transfert
( )
12
G
s dans le cas
du système (III.73) ... 173
Diagramme de Nyquist de la fonction de transfert
( )
11
G
s dans le cas
du système (III.73) ... 174
Diagrammes de Bode de la fonction de transfert
( )
11
G
s dans le cas
du système (III.73) ... 174
Diagramme de Nyquist de la fonction de transfert
( )
12
G
s dans le cas
du système (III.73) ... 175
Diagrammes de Bode de la fonction de transfert
( )
12
G
s dans le cas
du système (III.73) ... 175
Figure III.15.
Figure III.16.
Figure III.17.
Figure III.18.
Figure III.19.
Figure III.20.
Figure III.21.
Figure III.22.
Figure III.23.
Figure III.24.
Figure III.25.
Figure III.26.

Liste des figures
-xiv-
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour de sortie au système (III.73) : (a) Entrée du
système
1
u , (b) Entrée du système
2
u , (c) Sortie du système
1
y et signal de
référence
1
d
y
, (d) Sortie du système
2
y
et signal de référence
2
d
y
,
(e) Estimation de la variable d'état
2
x
, (f) Estimation de la variable d'état
3
x
,
(g) Estimation de la variable d'état
5
x
, (h) Norme Euclidienne du vecteur des
erreurs de poursuite
(
)
2
... 179
Résultats de l'application d'une commande adaptative neuronale robuste basée
sur observateur [5, 83, 86] au système (III.73) : (a) Entrée du système
1
u
,
(b) Entrée du système
2
u
, (c) Sortie du système
1
y
et signal de référence
1
d
y
,
(d) Sortie du système
2
y
et signal de référence
2
d
y
, (e) Estimation de la
variable d'état
2
x
, (f) Estimation de la variable d'état
3
x
, (g) Estimation de la
variable d'état
5
x
, (h) Norme Euclidienne du vecteur des erreurs de poursuite
(
)
2
... 180
Diagramme de Nyquist de la fonction de transfert
( )
11
G
s dans le cas
du système (III.75) ... 183
Diagrammes de Bode de la fonction de transfert
( )
11
G
s dans le cas
du système (III.75) ... 183
Diagramme de Nyquist de la fonction de transfert
( )
12
G
s dans le cas
du système (III.75) ... 184
Diagrammes de Bode de la fonction de transfert
( )
12
G
s dans le cas
du système (III.75) ... 184
Diagramme de Nyquist de la fonction de transfert
( )
11
G
s dans le cas
du système (III.75) ... 185
Diagrammes de Bode de la fonction de transfert
( )
11
G
s dans le cas
du système (III.75) ... 185
Diagramme de Nyquist de la fonction de transfert
( )
12
G
s dans le cas
du système (III.75) ... 186
Diagrammes de Bode de la fonction de transfert
( )
12
G
s dans le cas
du système (III.75) ... 186
Figure III.27.
Figure III.28.
Figure III.29.
Figure III.30.
Figure III.31.
Figure III.32.
Figure III.33.
Figure III.34.
Figure III.35.
Figure III.36.

Liste des figures
-xv-
Résultats de l'application de la nouvelle commande adaptative indirecte
neuronale robuste par retour de sortie au système (III.75) : (a) Entrée du
système
1
u , (b) Entrée du système
2
u , (c) Sortie du système
1
y et Signal de
référence
1
d
y
, (d) Sortie du système
2
y
et Signal de référence
2
d
y
,
(e) Estimation de la variable d'état
2
x
, (f) Estimation de la variable d'état
4
x
,
(g) Norme Euclidienne du vecteur des erreurs de poursuite
(
)
2
... 189
Résultats de l'application d'une commande adaptative neuronale robuste basée
sur observateur [5, 83, 86] au système (III.75) : (a) Entrée du système
1
u
,
(b) Entrée du système
2
u
, (c) Sortie du système
1
y
et signal de référence
1
d
y
,
(d) Sortie du système
2
y
et signal de référence
2
d
y
, (e) Estimation de la
variable d'état
2
x
, (f) Estimation de la variable d'état
4
x
, (g) Norme
Euclidienne du vecteur des erreurs de poursuite
(
)
2
... 191
Figure III.37.
Figure III.38.


-1-
Introduction générale
L'élaboration de lois de commande qui confèrent à des processus des propriétés désirées est le
principal objectif d'un grand nombre de travaux de recherche (voir par exemple [1-137]). Les
exemples de tels processus sont des systèmes continus ou discrets, linéaires ou non linéaires, à
retards, constantes ou variables, mécaniques, électroniques, électriques, électromécaniques,
physiques, biologiques, économiques, chimiques, etc. Généralement, l'objectif de
l'élaboration de ces lois de commande est de forcer les sorties de systèmes à suivre des
signaux de référence à condition, entre autres, que la stabilité de tels systèmes soit assurée.
La commande d'un système requiert, généralement, la modélisation de celui-ci, c'est-à-dire la
détermination des relations liant ses variables [1-137]. Celles-ci peuvent être reformulées sous
la forme d'une fonction vectorielle associant aux variables d'entrées les variables de sorties
[1-102, 137]. La description d'un système peut être réalisée par un modèle mathématique en
se fondant, soit sur une analyse expérimentale, soit sur une analyse théorique, ou encore sur
une analyse théorico-expérimentale [102-108]. En plus de la collecte des données et la
validation, deux étapes principales sont nécessaires afin d'effectuer la modélisation d'un
système [102-115]. La première correspond au choix de la structure du modèle qui interprète
et prédit au mieux le comportement du système et qui est le mieux adapté pour la synthèse de
la commande. La deuxième étape est l'identification, c'est-à dire, la détermination des
paramètres du modèle choisi [102-120]. Les dynamiques non modélisés existent dans de
nombreux systèmes non linéaires pratiques, en raison de certains facteurs, tels que les bruits
de mesure, les erreurs de modélisation, les perturbations externes et les dynamiques négligées
(modélisation simplifiée) [1-120]. Dans la pratique, il est peu probable d'avoir un modèle
mathématique parfait d'un système [49, 119, 120].
Les commandes conventionnelles peuvent être utilisées avec succès lorsque les systèmes sont
linéaires ou non linéaires dans un domaine de fonctionnement limité [1-120]. Il existe un
grand nombre de recherche traitant des commandes basées sur des contrôleurs de types
proportionnel (P), proportionnel intégral (P.I) et proportionnel intégral dérivé (P.I.D) [52, 60,
67, 88]. Pour une classe de systèmes linéaires avec retard sur l'entrée, la conception de
commande dans [11, 124, 125] a été reposée sur un prédicteur de Smith. La détermination de
régulateurs linéaires par la technique de planification des gains pour des points de
fonctionnement connus, peut être efficace [119]. Cependant, il est bien connu que ces

Introduction générale
-2-
commandes conventionnelles peuvent être mises en défaut pour les systèmes non linéaires et
complexes à large domaine de fonctionnement ou ne sont pas bien connus et donc pas
exactement modélisés [1-120].
La conception de contrôleurs pour une large classe de systèmes non linéaires peut être réalisée
à l'aide de la théorie de la géométrie différentielle [119]. L'idée principale de cette théorie est
de rendre le modèle mathématique d'un système non linéaire sous la forme normale de
Brunovsky (ou la forme canonique) [1-27]. Avec des transformations convenables, une classe
de systèmes non linéaires peut devenir sous une forme stricte de rétroaction [1, 28, 48, 78, 98-
100, 120]. Si une linéarisation entrée-sortie parfaite du système non linéaire est effectuée, un
régulateur linéaire classique peut être appliqué avec succès [60, 67, 119]. Les méthodes de
linéarisation entrée-sortie du modèle du système sont utilisées afin de formuler la loi de
commande en fonction des non linéarités d'un tel modèle [5, 119]. La linéarisation entrée-
sortie d'un modèle non linéaire peut être réalisée à l'aide du théorème des accroissements
finis [11-14, 50] ou par le développement en séries de Taylor de premier ordre des non
linéarités d'un tel modèle [31, 38, 46-49]. Le backstepping, la linéarisation par bouclage
(Feedback linearization) et l'inversion de la dynamique non linéaire ont été des approches de
conception de commandes non classiques, développées et appliquées avec succès à plusieurs
systèmes industriels. L'inconvénient majeur de ces approches est qu'elles exigent une
modélisation convenable du système à commander [1-132].
Les commandes adaptatives peuvent être appliquées, avec succès, lorsque les systèmes ne
sont pas exactement modélisés ou lorsque ses paramètres sont variables. D'après les travaux
consignés dans [1-126], l'utilisation de la commande adaptative conventionnelle est limitée au
cas où la dynamique inconnue du système possède une structure linéaire avec des paramètres
inconnus. Par contre, l'utilisation de commandes adaptatives intelligentes peut être nécessaire
dans le cas où les systèmes ont des structures peu connues ou inconnues. Les commandes
adaptatives neuronales, les commandes adaptatives floues, les commandes adaptatives neuro-
floues et les commandes adaptatives basées sur des réseaux d'ondelettes constituent des
exemples de telles commandes adaptatives intelligentes. Grâce aux systèmes intelligents (tels
que les réseaux de neurones, les systèmes flous et les réseaux d'ondelettes), ces commandes
adaptatives intelligentes ont reçu beaucoup d'attention. Dans [2, 48, 53, 76, 91, 133], les
systèmes intelligents ont été utilisés pour traiter les problèmes de synchronisation et d'analyse
de la stabilité de systèmes chaotiques retardés. Plusieurs travaux de recherche ont prouvé que
les systèmes intelligents possèdent la propriété d'approximation universelle, c'est-à-dire qu'ils

Introduction générale
-3-
sont susceptibles d'approcher n'importe quelle dynamique continue non linéaire sur un
ensemble compact, avec une précision arbitraire fixée [1-32, 39-42, 45-53, 56-59, 95, 96,
119]. Les premières utilisations de systèmes intelligents en commande adaptative n'étaient
pas basées sur des analyses de stabilité rigoureuses [37, 119]. Plus tard, cependant, les
déterminations de lois de commandes adaptatives intelligentes ont été fondées sur la théorie
de Lyapunov afin de garantir la stabilité du système bouclé [1-32, 39-42, 45-53, 56-59]. Les
systèmes intelligents ont été utilisés pour approcher les non-linéarités du système (dans la
commande adaptative indirecte) ou le contrôleur idéal (dans la commande adaptative directe)
[119]. Dans [11, 16, 22, 51, 56, 57, 74, 85], des contrôleurs adaptatifs intelligents ont été
construits afin de commander une classe de systèmes non linéaires à retards. Dans [51, 128],
en utilisant des fonctions de type Nussbaum, une commande adaptative neuronale a été
proposée pour une classe de systèmes non linéaires à une seule entrée et une seule sortie.
Dans [134], en utilisant l'approche de la fonction Razoumikhin, un nouveau schéma de
conception de commande adaptative floue a été réalisé. Récemment, dans [51, 129], des
commandes adaptatives intelligentes fondées sur des fonctions de Lyapunov-Krasovaskii ont
été proposées pour une classe de systèmes non linéaires à retards. En plus, dans [128], une
commande adaptative neuronale basée sur le lemme Razoumikhin-Nussbaum a été
développée pour une classe de systèmes à retards. En présence des incertitudes structurelles et
des perturbations externes, l'utilisation des commandes adaptatives intelligentes robustes peut
s'avérer nécessaire [2, 6, 7, 18, 19, 21, 23-25, 32, 35-37, 39, 43, 47, 55, 67, 69]. D'après les
travaux de recherche [2, 6, 7, 18, 19, 21, 23, 119], la commande adaptative neuronale robuste,
la commande adaptative floue robuste et la commande adaptative neuro-floue robuste ont été
appliquées avec succès aux classes de systèmes non linaires pouvant être incertains et/ou
perturbés. Les lois d'adaptation de certaines commandes sont fondées sur l'erreur de
poursuite, c'est-à-dire basées sur l'écart entre la sortie du système et le signal de référence [2,
6-8, 14, 16-19, 21, 23-25, 32, 37, 39, 43, 47, 55, 69, 73, 76]. L'hypothèse clé de certaines
approches de commande adaptative est que tous les états du système sont disponibles pour la
mesure [77, 78, 80, 84, 101-103, 108, 109, 111, 113, 119-123, 126-128, 132].
Dans de nombreux domaines industriels, les variables d'état peuvent être partiellement
indisponibles car elles n'ont pas toujours une signification physique et leurs mesures directes
peuvent être irréalisables (les capteurs nécessaires peuvent être indisponibles ou de précision
insuffisante) ; dans ces conditions, la commande adaptative utilisant un observateur (ou
commande adaptative par retour de sortie) est adaptée [1, 5, 9, 10, 13, 27, 30, 68, 70, 72, 82,

Introduction générale
-4-
129]. En reposant sur l'état / ou l'erreur d'observation, des commandes adaptatives
intelligentes directes et indirectes ont été développées dans [1, 4, 5, 9, 10, 12, 13, 15, 22, 27,
30, 68,70, 78, 81-83, 85-87, 90-92]. La conception d'observateurs pour un système non
linéaire incertain et perturbé est un problème très exigeant. En général, il existe trois
méthodes de conception de commande adaptative par retour de sortie [13, 135]. La première
méthode de conception est basée sur le principe de séparation, c'est-à-dire, la conception
séparée de la loi de commande et de l'observateur [135]. Par contre, la deuxième méthode de
conception repose sur le principe de la non séparation, c'est-à-dire, la conception non séparée
de la loi de commande et de l'observateur [13]. La troisième méthode est fondée sur la
condition strictement positive réelle (SPR) de la dynamique d'erreur d'observation afin que le
lemme de Meyer-Kalman-Yakubovich (MKY) soit utilisé pour l'adaptation des paramètres et
pour l'analyse de la stabilité [4, 15, 79, 82]. En général, la condition SPR n'est pas vérifiée,
par conséquent, les lois de commande et d'ajustement des paramètres sont réalisées à l'aide
du théorème de la stabilité de Lyapunov et via le filtrage de la dynamique de l'erreur
d'observation. En effet, le filtrage de la dynamique de l'erreur d'observation, qui n'est pas
SPR, est effectué par un filtre passe-bas pour satisfaire la condition SPR d'une fonction de
transfert associée à l'analyse de la stabilité de Lyapunov [4, 15, 82, 83].
Une hypothèse commune dans les schémas de commandes proposés dans [1-94, 101-135] est
que le gain de commande est non nul. Toutefois, dans certains cas, cette hypothèse est loin
d'être réaliste. Quand le gain de commande est inconnu et peut s'annuler en des points de
fonctionnement, la conception des contrôleurs adaptatifs devient difficile. Selon les travaux
consignés dans [1-94, 101-135], les principaux inconvénients de certaines commandes
adaptatives ont été la convergence de l'erreur de poursuite vers un petit voisinage de zéro et la
possibilité d'existence d'un problème de singularité de la commande.
Le développement de commandes adaptatives neuronales de systèmes dynamiques non
linéaires complexes à retard pouvant être incertains et/ou perturbés constitue l'objectif
principal de la recherche présentée dans ce mémoire. Il concerne essentiellement certains
systèmes dynamiques non linéaires complexes à retard SISO (possédant une seule entrée et
une seule sortie) et certains systèmes dynamiques non linéaires complexes à retard MIMO
carré (possédant plusieurs entrées et plusieurs sorties dont le nombre d'entrées est égal au
nombre de sorties). Les principales contributions effectuées dans ce sens peuvent être
résumées comme suit :

Introduction générale
-5-
1)
Proposition de nouvelles commandes adaptatives indirectes neuronales robustes par
retour d'état pour une classe de systèmes dynamiques non linéaires complexes à retard,
non affines en la commande.
2)
Proposition de nouvelles commandes adaptatives indirectes neuronales robustes par
retour de sortie pour une classe de systèmes dynamiques non linéaires complexes à retard,
non affines en la commande.
Le présent mémoire est composé de trois chapitres, en plus d'une introduction générale, d'une
conclusion générale, d'une bibliographie et d'annexes.
Le chapitre I présente des généralités concernant l'identification et la commande adaptative
de systèmes dynamiques non linéaires complexes afin d'introduire les éléments de base
nécessaires à la bonne compréhension de nos travaux. La première partie de ce chapitre donne
des généralités sur l'identification de systèmes dynamiques non linéaires complexes. Les deux
types de méthodes d'identification à savoir conventionnelles et non conventionnelles sont
détaillés. Nous commençons à montrer que les méthodes d'identification conventionnelles
permettent de concevoir des modèles linéaires pour des systèmes non linéaires dans des
domaines de fonctionnement bien limités. Ensuite, les méthodes d'identification non
conventionnelles telles que les méthodes basées sur les réseaux de neurones, les méthodes
basées sur la logique floue et les méthodes basées sur les réseaux d'ondelettes sont
développées. Par conséquent, la propriété des systèmes intelligents d'approcher n'importe
quelle dynamique continue non linéaire sur un ensemble compact est montrée. Quelques
algorithmes d'apprentissage des paramètres de systèmes intelligents tels que l'algorithme du
gradient simple, l'algorithme du gradient à pas variable, l'algorithme de Newton et
l'algorithme de Levenberg-Marqaurdt sont étudiés. La deuxième partie de ce chapitre donne
des généralités sur la commande adaptative de systèmes dynamiques non linéaires complexes.
Certaines commandes adaptatives conventionnelles et non conventionnelles sont aussi
présentées tout en montrant leurs avantages et leurs inconvénients.
Le chapitre II présente de nouvelles commandes adaptatives indirectes neuronales robustes
par retour d'état pour une classe de systèmes dynamiques non linéaires complexes à retard
non affines en la commande. Les systèmes de commande comprennent des réseaux de
neurones non bouclés à une seule couche cachée et des contrôleurs adaptatifs robustes. En
effet, les réseaux de neurones sont utilisés afin d'approcher les non-linéarités inconnues des
systèmes étudiés. Les lois de commande sont conçues en se reposant sur l'approche de
linéarisation entrée sortie par retour d'état. En plus, ces lois de commande sont augmentées

Introduction générale
-6-
par des commandes additives afin de réduire l'influence des erreurs d'approximation
neuronales sur les performances et ainsi pour garantir la robustesse des structures de
commande en présence des perturbations externes et des paramètres incertains. Les lois
d'adaptation de systèmes de commande sont déterminées à l'aide du théorème de la stabilité
de Lyapunov pour que les erreurs de poursuite convergent vers zéro. Les lois d'adaptation des
paramètres des réseaux de neurones utilisent des algorithmes du gradient avec projection pour
assurer la bornitude des paramètres, pour éviter le problème de singularité possible dans la
conception des commandes et afin d'éliminer les effets indésirables de l'annulation du gain de
commande en des points de fonctionnement.
Le chapitre III présente de nouvelles commandes adaptatives indirectes neuronales robustes
par retour de sortie pour une classe de systèmes dynamiques non linéaires complexes à retard
non affines en la commande. Les systèmes de commande contiennent des réseaux de
neurones non bouclés à une seule couche cachée, des observateurs d'états et des contrôleurs
adaptatifs robustes. En effet, les réseaux de neurones et les observateurs sont utilisés
respectivement pour approximer les non-linéarités inconnues de systèmes et afin d'aborder le
problème d'estimation des états non mesurés de tels systèmes. La conception de commandes
est fondée sur la condition SPR qui est accomplie via le filtrage des dynamiques des erreurs
de poursuite. Les lois de commande sont déterminées en se fondant sur l'approche de
linéarisation par bouclage. En outre, ces lois de commande sont augmentées aussi par des
commandes additives pour compenser l'influence des erreurs d'approximation neuronales sur
les performances et ainsi afin d'assurer la robustesse des structures de commande en présence
des perturbations externes et des paramètres incertains. Les lois d'adaptation de systèmes de
commandes sont déterminées à l'aide du théorème de la stabilité de Lyapunov afin que les
erreurs de poursuite et de modélisation convergent vers zéro. Les lois d'adaptation des
paramètres des réseaux de neurones utilisent des algorithmes du gradient avec projection pour
garantir la bornitude des paramètres, pour résoudre le problème de singularité possible dans la
conception des commandes et afin de compenser les effets indésirables de l'annulation du
gain de commande en des points de fonctionnement.
Des exemples sont étudiés pour illustrer la faisabilité, l'efficacité et la validité des
commandes adaptatives indirectes neuronales robustes proposées et pour mener des analyses
comparatives.

-7-
Chapitre I
: Généralités sur les approches existantes
d'identification et de commande adaptative de systèmes
dynamiques non linéaires complexes
Sommaire
I.1 Introduction ... 8
I.2 Caractéristiques de systèmes dynamiques ... 8
I.3 Méthodes d'identification ... 9
I.3.1 Méthodes d'identification conventionnelles ... 10
I.3.2 Méthodes d'identification non conventionnelles ... 13
I.4 Approches existantes de commande adaptative de systèmes dynamiques non linéaires
complexes ... 26
I.4.1 Commande adaptative par retour d'état ... 31
I.4.2 Commande adaptative directe ... 34
I.4.3 Commande adaptative par mode glissant ... 35
I.4.4 Commande adaptative robuste H
... 38
I.4.5 Commande adaptative par backstepping ... 40
I.4.6 Commande adaptative basée sur observateur ... 44
I.5 Conclusion ... 47

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-8-
I.1 Introduction
Les systèmes dynamiques existants peuvent être continus ou discrets, linéaires ou non
linéaires, simples ou complexes, à une seule entrée et une seule sortie, à entrées multiples et
sorties multiples, à entrées multiples et une seule sortie ou à une seule entrée et sorties
multiples [1-137]. Les méthodes de commandes conventionnelles peuvent être appliquées à
tels systèmes généralement dans un domaine de fonctionnement limité et sont fondées parfois
sur des méthodes de linéarisation [11-14, 31, 38, 46-50, 60, 67, 108, 119]. Parmi celles-ci, on
distingue celles utilisant le théorème des accroissements finis [11-14, 50] et le développement
en séries de Taylor [31, 38, 46-49]. Les non linéarités et les précisions des modèles ont des
impacts sur les performances des systèmes de commande [1-137]. Le suivi ou le niveau des
performances souhaitées sur un large domaine de fonctionnement nécessite parfois l'emploi
des méthodes de commande non conventionnelles [1-137]. La conception de la loi de
commande peut être difficile lorsqu'une partie du système est inconnue, définie avec
incertitude, ou variable pendant le fonctionnement [13-32]. À cet égard, l'utilisation des
propriétés d'approximation universelle de réseaux de neurones, de la logique floue et de
réseaux d'ondelettes peuvent permettre de surmonter les difficultés possibles durant la
conception [1-20].
Dans ce chapitre, nous présentons des généralités sur les approches existantes d'identification
et de commande adaptative de systèmes dynamiques non linéaires complexes dans le but
d'introduire les éléments de base nécessaires à la bonne compréhension de nos travaux. Nous
nous sommes intéressés plus particulièrement aux outils de représentation, de synthèse et
d'analyse essentiels pour la conception de commandes adaptatives proposées dans ce
mémoire. Pour cela, nous introduisons dans la section I.2 les caractéristiques de systèmes
dynamiques. Nous donnons dans la section I.3 des généralités sur l'identification de systèmes
dynamiques non linéaires complexes. Dans la section I.4, nous rappelons les principes de
quelques commandes adaptatives de systèmes dynamiques non linéaires complexes. Les
éléments théoriques utilisés dans ce mémoire sont présentés dans l'annexe A.
I.2 Caractéristiques de systèmes dynamiques
Généralement, un système dynamique est un processus capable d'évoluer en fonction de
temps [130] et caractérisé par :

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-9-
des grandeurs de sorties généralement accessibles à la mesure,
des grandeurs d'entrées agissant sur le comportement du système,
des variables d'état décrivant les variables internes du système,
des contraintes définissant les domaines de commande et des sorties admissibles.
Une classe de systèmes non linéaires dynamiques complexes possédant une seule entrée
et une seule sortie (SISO), utilisée en automatique, est définie par le système d'équations
suivant [131] :
( ) ( )
( )
x
f x
x u
y
h x
=
+
°
®
=
°¯
(I.1)
n
x
\ , u \ et y \ , désignent respectivement l'état, l'entrée et la sortie du système.
( )
f x et
( )
x
sont des vecteurs des fonctions lisses ;
( )
h x est une fonction lisse.
Pour trouver une relation entre l'entrée et la sortie du système, il est nécessaire de dériver la
sortie y du système par rapport au temps, tant de fois, jusqu'à l'apparition du signal de
commande
u dans son expression.
En utilisant les dérivées de Lie, le système (I.1) peut devenir sous la forme suivante [119,
131] :
(
)
(
)
1
1
1
1
,
1,
,
1
,
,
,
,
i
i
r
f
r
r
z
z
i
r
z
h
z
z
h
z
z
u
y
z
+
=
=
-
° =
+
®
°
=
¯
!
!
!
(I.2)
avec
(
)
1
,
,
0
r
h
z
z
!
et r
n
.
La modélisation est une étape nécessaire avant la conception de commande d'un système
dynamique. Généralement, le modèle mathématique d'un processus dynamique peut être un
système d'équations récurrentes, un système d'équations différentielles ou une fonction de
transfert [1-35].
I.3 Méthodes d'identification
L'objectif principal de l'identification consiste à déterminer un modèle mathématique
approprié d'un système / procédé donné, utile pour interpréter et prédire fidèlement son
comportement dans différentes conditions de son fonctionnement [94-97]. L'autre objectif de
l'identification est d'aider à concevoir une loi de commande qui permet au système de

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-10-
fonctionner d'une manière souhaitée. La plupart de systèmes pratiques sont dynamiques, non
linéaires, complexes et donc l'identification en ligne ou hors ligne de ces systèmes est souvent
une tâche difficile.
L'approche pratique de détermination du modèle dynamique d'un système passe par quatre
étapes [101-103, 108, 109] :
l'acquisition des données du système (entrées-sorties) issues d'une expérimentation,
la sélection de la structure du modèle,
l'estimation des paramètres du modèle en utilisant une méthode appropriée
d'estimation structurelle ou paramétrique,
la validation du modèle identifié (structure et valeurs des paramètres).
Les méthodes d'identification concernant les modèles de comportement linéaires et non
linéaires, sont de deux types [1-129] :
les méthodes d'identification conventionnelles,
les méthodes d'identification non conventionnelles.
On distingue aussi deux grandes approches d'identification [102] :
l'identification en boucle ouverte utilisée lorsque le système est stable,
l'identification en boucle fermée utilisée lorsque le système est instable en boucle
ouverte ou possède un comportement intégrateur.
I.3.1 Méthodes d'identification conventionnelles
Les méthodes d'identification conventionnelles permettent de concevoir des structures
linéaires pour des systèmes non linéaires dans des domaines de fonctionnement limités. Dans
le cas d'un système à une seule entrée et une seule sortie, la structure linéaire utilisée en
pratique peut être décrite en utilisant le modèle général suivant [102, 108, 119] :
( )
( )
( )
( )
( )
( )
( )
( )
1
1
2
4
1
1
1
1
3
5
F q
F q
F q
y k
u k
d k
F q
F q
-
-
-
-
-
=
+
(I.3)
( )
u k et
( )
y k sont respectivement l'entrée et la sortie du système à l'instant k .
1
q
-
l'opérateur retard et
( )
d k une perturbation.

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-11-
( )
1
1
F q
-
,
( )
1
2
F q
-
,
( )
1
3
F q
-
,
( )
1
4
F q
-
et
( )
1
5
F q
-
sont des polynômes respectivement de la
forme :
( )
1
1
1
1
2
1
11
12
1
1
n
n
F q
f q
f q
f q
-
-
-
-
= +
+
+ +
!
(I.4)
( )
2
2
1
1
2
2
21
22
2
n
n
F q
f q
f q
f q
-
-
-
-
=
+
+ +
!
(I.5)
( )
3
3
1
1
2
3
31
32
3
1
n
n
F q
f q
f q
f q
-
-
-
-
= +
+
+ +
!
(I.6)
( )
4
4
1
1
2
4
41
42
4
1
n
n
F q
f q
f q
f q
-
-
-
-
= +
+
+ +
!
(I.7)
( )
5
5
1
1
2
5
51
52
5
1
n
n
F q
f q
f q
f q
-
-
-
-
= +
+
+ +
!
(I.8)
1
n ,
2
n ,
3
n ,
4
n et
5
n sont des entiers avec
2
3
n
n
et
4
5
n
n
.
11
f ,
12
f ,
! ,
1
1n
f
,
21
f
,
22
f
,
!,
2
2n
f
,
31
f
,
32
f
,
!,
3
3n
f
,
41
f
,
42
f
,
!,
4
4n
f
,
51
f
,
52
f
,
!,
5
5n
f
sont les paramètres du
modèle à déterminer.
Les cas spéciaux du modèle (I.3) sont connus sous les noms [108] de :
Box-Jenkins (BJ), quand :
( )
1
1
1
F q
-
= ,
Auto-Régressif à Moyenne Ajustée avec entrée eXogène (ARMAX),
quand :
( ) ( )
1
1
3
5
1
F q
F q
-
-
=
=
,
Output-Error (OE), quand :
( ) ( )
1
1
4
5
1
F q
F q
-
-
=
=
,
Auto-Régressif avec entrée eXogène (ARX), quand :
( ) ( ) ( )
1
1
1
3
4
5
1
F q
F q
F q
-
-
-
=
=
=
,
Réponse Impulsionnelle Finie (FIR), quand :
( ) ( ) ( ) ( )
1
1
1
1
1
3
4
5
1
F q
F q
F q
F q
-
-
-
-
=
=
=
=
La détermination des paramètres du modèle peut être réalisée à l'aide des algorithmes non
récursifs relatifs au traitement en bloc de mesures entrée-sortie obtenues sur un horizon de
temps ou en utilisant des algorithmes récursifs relatifs au traitement pas à pas des mesures
[102, 108, 119] dont les trois principaux:
la méthode des moindres carrés récursifs ordinaire,
la méthode de la variable instrumentale récursive,
la méthode des moindres carrés étendue.

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-12-
Si les paramètres du système sont légèrement variables dans le temps, l'algorithme
d'identification récursif des moindres carrés avec facteur d'oubli est défini par [101, 102] :
( )
(
)
( ) ( ) ( )
( )
( )
(
)
(
) ( )
( ) (
)
( )
(
) (
) ( )
( )
(
)
( )
( )
(
) ( )
0
0
^
^
1
1
1
1
1
1
1
1
1
^
1
m
m
m
m
m
T
m
m
m
m
T
m
m
m
m
m
m
m
m
m
m
m
m
k
k
P
k
k
k
P
k
k
k P
k
P
k
P
k
a
k
a
k
k
P
k
k
a
k
a a
k
a
k
y k
k
k
=
- +
°
°
ª
º
-
-
°
=
- -
«
»
°
+
-
-
®
«
»
¬
¼
°
=
- + -
°
°
=
-
-
°¯
(I.9)
0
0
1
a
E E est un facteur d'oubli,
1
2
^
n
n
m
+
\
,
( )
(
)
(
)
(
)
(
)
1
2
1
2
1 ,
,
,
1 ,
,
T
n
n
m
k
y k
y k
n
u k
u k
n
+
= -
-
-
-
-
-
ª
º
¬
¼
!
!
\
et
( )
(
) (
)
1
2
1
2
0
1000
m
n
n
n
n
P
I
+
×
+
=
avec
(
) (
)
1
2
1
2
n
n
n
n
I
+
×
+
la matrice identité d'ordre
1
2
n
n
+ .
Dans le cas continu, une classe de systèmes linéaires possédant une seule entrée et une seule
sortie peut être régie par le système d'équations suivant :
T
x
A x
bu
y
c x
=
+
°
®
=
°¯
(I.10)
avec
n
x
\ ,
n n
A
×
\ ,
n
b
\ et
n
c
\ .
La fonction de transfert du système (I.10) est définie par [1-137] :
( )
1
T
n n
G s
c
s I
A
b
-
×
ª
º
=
-
¬
¼
(I.11)
s désigne l'opérateur de Laplace.
Un système linéaire invariant dans le temps est dit à minimum de phase si le système et son
inverse sont causaux et stables [119].
La fonction de transfert
( )
G s est SPR (strictement positive réelle), si et seulement si [4, 15,
82] :
( )
G s est stable,
la partie réelle de la fonction de transfert est strictement positive, c'est-à-dire que,
( )
Re
0
G j
ª
º
¬
¼ ; avec
2
1
j
= - et
]
[
,
- + ,

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-13-
( )
2
lim
Re
0
G j
+
ª
º
¬
¼ ; .
La fonction de transfert
( )
G s est SPR, c'est-à-dire que [79] :
le diagramme de Nyquist de la fonction de transfert
( )
G s est entièrement dans le
demi-plan droit du plan complexe,
l'argument de la fonction de transfert
( )
G s est appartient à l'intervalle
(
) (
)
4
1
4
1
,
2
2
z
z
n
n
º
+
+
ª
-
»
«
¼
¬
avec
z
n
]
.
Dans le cas des systèmes linéaires possédant plusieurs entrées et plusieurs sorties, les matrices
de transfert sont utilisées afin de décrire les caractéristiques entrées-sorties de tels systèmes.
On dit que la matrice de transfert
( )
G s est SPR, si et seulement si [4, 15, 82] :
( )
G s est stable,
( )
(
)
0
T
G j
G
j
+
-
;
\ avec
2
1
j
= - ,
( )
(
)
2
lim
0
T
G j
G
j
+
ª
º
+
-
¬
¼ ; .
I.3.2 Méthodes d'identification non conventionnelles
Parmi les méthodes d'identification non conventionnelles les plus utilisées, on distingue dans
la littérature [1-32, 39-42, 45, 47, 48, 50-53, 78, 80, 82, 83] :
les méthodes d'identification basées sur les réseaux de neurones,
les méthodes d'identification basées sur la logique floue,
les méthodes d'identification basées sur les réseaux d'ondelettes.
I.3.2.1 Méthodes d'identification basées sur les réseaux de neurones
Un neurone formel dont l'élaboration a été inspiré du fonctionnement du neurone biologique,
représente l'élément de base des réseaux de neurones artificiels [5, 10, 11, 13, 14, 45,
103, 108]. Il possède généralement un vecteur d'entrées à n composantes
i
x
,
1,
,
i
n
= !
. Il
transforme le vecteur d'entrées
[
]
1
,
,
T
n
n
x
x
x
=
!
\ en un scalaire
1
S
\ , en utilisant un
certain vecteur de poids
[
]
1
0
1
, ,
,
T
n
n
+
=
!
\ choisi suivant une certaine information

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-14-
donnée au préalable ou ajusté pour atteindre un certain niveau de performance [103, 108,
119]. Les plus populaires transformations sont le produit scalaire et la distance Euclidienne.
Si la transformation est un produit scalaire, nous avons [108, 119] :
1
0
1
n
i
i
i
S
x
=
= +
¦
(I.12)
Si la transformation est une distance Euclidienne, nous pouvons écrire [108, 119] :
(
)
2
1
1
2
0
n
i
i
i
x
S
=
-
=
¦
(I.13)
Après la transformation, une fonction d'activation produit une sortie
2
S
\ utilisable par un
système externe ou par un autre neurone [108, 119].
Généralement, les fonctions d'activation des neurones sont continues par morceau. Dans ce
qui suit, nous définissons quelques fonctions d'activation [108, 119] :
fonction linéaire
( )
2
1
1
S
S
S
=
=
, utilisée généralement afin de générer les sorties des
réseaux de neurones multicouches,
tangente hyperbolique
( )
0
1
2
0
1
1 exp
,
1 exp
n
i
i
i
n
i
i
i
x
S
x
x
=
=
§
·
-
- -
¨
¸
©
¹
=
=
§
·
+
- -
¨
¸
©
¹
¦
¦
,
sigmoïde
( )
2
0
1
1
,
1 exp
n
i
i
i
S
x
x
=
=
=
§
·
+
- -
¨
¸
©
¹
¦
,
gaussienne
( )
(
)
2
1
2
2
0
,
exp
n
i
i
i
x
S
x
=
§
·
-
¨
¸
¨
¸
=
=
-
¨
¸
¨
¸
©
¹
¦
,
fonction signe
( )
1
2
1
1
1
1, si
0
0, si
0
1, si
0
S
S
S
S
S
°
=
=
=
®
°-
¯
;
E
,

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-15-
fonction linéaire avec seuil
( )
1
2
1
1
1
1
1, si
1
, si 1
1
1, si
1
S
S
S
S
S
S
°
=
=
-
®
° -
-
¯
E
E ,
fonction de Heaviside
( )
1
2
1
1
1, si
0
0, si
0
S
S
S
S
=
= ®
¯
E
,
multi-quadratique inverse
( )
(
)
1
2
2
1
1
1
a
S
S
S
-
=
=
+
avec
1
0
a
; .
Généralement, les réseaux à fonctions de base radiales (RBF) et les réseaux perceptron
multicouches (MLP) utilisent respectivement comme transformation le produit scalaire et la
distance Euclidienne. Un réseau RBF ou MLP est une collection de neurones comportant une
couche d'entrée, une couche cachée et une couche de sortie. Les fonctions d'activation des
couches d'entrée et de sortie sont linéaires. La principale différence entre les réseaux RBF et
MPL vient du fait que [5-11, 13, 14, 16-20, 23-26, 30, 31, 41, 42, 45] :
les fonctions d'activation de type tangente hyperbolique ou sigmoïde sont utilisées
dans la couche cachée du réseau MPL,
les fonctions d'activation de type gaussienne sont utilisées dans la couche cachée du
réseau RBF.
Les figures I.1 et I.2 montrent respectivement la structure d'un neurone formel et quelques
fonctions d'activation.
Figure I.1. Structure d'un neurone formel
Transformation
Fonction d'activation
( )
1
S
x
1
S
( )
2
1
S
S
=

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-16-
Figure I.2. Quelques fonctions d'activation utilisées dans la caractérisation des neurones
formels
: (a) linéaire, (b) tangente hyperbolique, (c) sigmoïde, (d) gaussienne,
(e) multi-quadratique inverse
1
S
(d) Fonction
( )
2
1
1
2
12
exp
S
S
§
·
=
-
¨
¸
©
¹
avec
*
12
\
(b) Fonction
( )
( )
( )
1
1
1
exp
1
exp
1
S
S
S
-
=
+
(a) Fonction
( )
1
1
S
S
=
(c) Fonction
( )
( )
1
1
1
1 exp
S
S
=
+
-
(e) Fonction
( )
(
)
1
2
1
1
1
a
S
S
-
=
+
avec
1
0
a
;

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-17-
Un réseau de neurones est un ensemble de neurones reliés entre eux par des connexions
pondérées dites poids synaptiques. L'approximation universelle de fonctions non linéaires est
la plus importante propriété des réseaux de neurones multicouches.
Théorème I.1 [5,7-11, 17-31, 103] : Toute fonction continue
( )
f x peut être approximée
uniformément, avec une précision arbitraire, dans un domaine fini de l'espace de ses
variables
n
x
\ , par un réseau de neurones contenant une couche d'entrée, une couche de
neurones cachés en nombre fini ayant tous la même fonction d'activation de base radiale,
sigmoïde ou tangente hyperbolique et un neurone de sortie linéaire.
Remarque I.1 : Le théorème I.1 assure l'approximation des fonctions continues, mais ne
montre pas comment choisir la structure du réseau de neurones ou comment ajuster les
paramètres afin d'atteindre une certaine précision désirée [40-47, 95-97].
Cette propriété justifie l'utilisation des réseaux de neurones dans de nombreux domaines
d'application, tels que : la reconnaissance de formes, le traitement de signaux, l'identification
et la commande de processus [108].
Il existe souvent trois types de neurones particuliers. Dans un réseau de neurones, il y a les
neurones de la couche d'entrées recevant les données du monde extérieur, les neurones de la
couche de sortie fournissant le résultat du traitement effectué et les neurones des couches
cachées [108, 119].
Nous pouvons classer les réseaux de neurones en deux catégories [103, 108-110, 119] :
les réseaux de neurones non bouclés,
les réseaux de neurones bouclés.
Quelques architectures des réseaux de neurones utilisés pour effectuer des taches
d'approximation des fonctions non linéaires et de classification sont présentées dans la figure
I.3.

Chapitre I : Généralités sur les approches existantes d'identification et de commande adaptative
de systèmes dynamiques non linéaires complexes
-18-
(a)
(b)
(c)
Figure I.3. Quelques architectures des réseaux de neurones : (a) Réseau de neurones non
bouclé à couche cachée, (b) Réseau de neurones totalement bouclé, (c) Réseau de neurones
avec connections arrières (réseau de neurones récurrent ou feedback)
!
!
Couche de sortie
Couche cachée
Couche d'entrée
!
#
!
!
!
!
!
Fin de l'extrait de 262 pages

Résumé des informations

Titre
Sur la Commande Adaptative Neuronale de Systèmes Dynamiques Complexes
Cours
GÉNIE ÉLECTRIQUE
Auteur
Année
2014
Pages
262
N° de catalogue
V287201
ISBN (ebook)
9783656876731
ISBN (Livre)
9783656876748
Taille d'un fichier
2250 KB
Langue
Français
mots-clé
commande, adaptative, neuronale, systèmes, dynamiques, complexes
Citation du texte
Farouk Zouari (Auteur), 2014, Sur la Commande Adaptative Neuronale de Systèmes Dynamiques Complexes, Munich, GRIN Verlag, https://www.grin.com/document/287201

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Sur la Commande Adaptative Neuronale de Systèmes Dynamiques Complexes


Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur