les Thèses Soutenues à l'USTO MB
vous cherchez une thèse?
A partir de cette page vous pouvez :
Retourner au premier écran avec les recherches... | Votre compte |
Détail de l'auteur
Auteur Abdelkader ABDALLAH BENCHERIF
Documents disponibles écrits par cet auteur



Conception d’un système multi-agents en utilisant les processus décisionnels de Markov. / Abdelkader ABDALLAH BENCHERIF
Titre : Conception d’un système multi-agents en utilisant les processus décisionnels de Markov. Type de document : document électronique Auteurs : Abdelkader ABDALLAH BENCHERIF, Auteur Année de publication : 2014 Importance : 92 p. Accompagnement : CD Langues : Français (fre) Catégories : Génie électrique:Automatique Mots-clés : les systèmes multi-agents , robot mobile , Processus décisionnel de Markov , Apprentissage par renforcement, Q-Learning. Résumé : Ce travail de thèse s'est intéressé à deux domaines de l'intelligence artificielle : d'une part l'apprentissage par renforcement (A/R), et d'autre part les systèmes multi-agents (SMA).
Nous considérons le problème du contrôle robotique autonome comme un processus décisionnels de Markov (PDM), mais vu la complexité à trouver une politique optimale pour résoudre ce problème, nous avons utilisé une approche basée sur la programmation dynamique et la méthode de Monte Carlo, cette approche appelé apprentissage par renforcement.
Outre l’état de l’art sur la robotique mobile et les systèmes multi-agents, ce travail se compose de deux parties :
1- Apprentissage par renforcement mono agent :
On présente le formalisme des processus de décisions markoviens et les notions de politiques (ou stratégies) de décision ainsi que les différents critères de maximisation des récompenses couramment utilisés sont définis. Après avoir exposé des algorithmes courants de planification et d’apprentissage, nous décrivons les deux grandes familles d’algorithmes d’apprentissage par renforcement que sont les algorithmes « model-free ou méthodes directes » et « model-based ou méthodes indirectes ».
Nous présentons les principaux algorithmes d’apprentissage par renforcement et leurs caractéristiques et on les montre par un test sur un labyrinthe, ceci a été fait en utilisant MATLAB.
2- Apprentissage par renforcement muli-agent :
Notre objectif est de montrer qu’un ensemble d’agents simples dotés individuellement de capacités sensori-motrices peut résoudre collectivement un problème complexe, il suffit de vérifier l’hypothèse de Markov pour que l’environnement soit Markovien.
Nous testons notre approche sur une plate forme de simulation multiagent « netlogo » avec 3 robots plongent sur un environnement dynamique et incertain pour résoudre le problème de navigation. Où chaque agent a une architecture de contrôle basé sur l’apprentissage par renforcement (Q-learning décentralisé) .
On a utilisé les avantages des systèmes multiagent comme la coopération pour améliorer l’apprentissage d’une façon indirecte (par l’implémentation des informations échangées par les agents dans la fonction de récompense de chaque agent) . L’idée principale de cette approche est de guider l’apprentissage en plaçant les agents dans des situations proches des sources de renforcement (positives ou négatives).
Cette approche accélère l’apprentissage puisque les agents reçoivent fréquemment des récompenses qui leur permettent de modifier leur comportement.
Ces expériences ont confirmé l’efficacité de notre approche car les performances issues de notre architecture de contrôle (le q-learning décentralisé avec l’aspect de coopération) sont bien meilleures que celles obtenues par un apprentissage classique.
Les résultats obtenus sont très satisfaisants du fait que les robots parviennent à atteindre un niveau d’autonomie très élevé, ceci ouvre la vois vers l’expérimentation des ces résultats sur un ensemble de robots réels.
Directeur de thèse : HENDEL Fatiha Conception d’un système multi-agents en utilisant les processus décisionnels de Markov. [document électronique] / Abdelkader ABDALLAH BENCHERIF, Auteur . - 2014 . - 92 p. + CD.
Langues : Français (fre)
Catégories : Génie électrique:Automatique Mots-clés : les systèmes multi-agents , robot mobile , Processus décisionnel de Markov , Apprentissage par renforcement, Q-Learning. Résumé : Ce travail de thèse s'est intéressé à deux domaines de l'intelligence artificielle : d'une part l'apprentissage par renforcement (A/R), et d'autre part les systèmes multi-agents (SMA).
Nous considérons le problème du contrôle robotique autonome comme un processus décisionnels de Markov (PDM), mais vu la complexité à trouver une politique optimale pour résoudre ce problème, nous avons utilisé une approche basée sur la programmation dynamique et la méthode de Monte Carlo, cette approche appelé apprentissage par renforcement.
Outre l’état de l’art sur la robotique mobile et les systèmes multi-agents, ce travail se compose de deux parties :
1- Apprentissage par renforcement mono agent :
On présente le formalisme des processus de décisions markoviens et les notions de politiques (ou stratégies) de décision ainsi que les différents critères de maximisation des récompenses couramment utilisés sont définis. Après avoir exposé des algorithmes courants de planification et d’apprentissage, nous décrivons les deux grandes familles d’algorithmes d’apprentissage par renforcement que sont les algorithmes « model-free ou méthodes directes » et « model-based ou méthodes indirectes ».
Nous présentons les principaux algorithmes d’apprentissage par renforcement et leurs caractéristiques et on les montre par un test sur un labyrinthe, ceci a été fait en utilisant MATLAB.
2- Apprentissage par renforcement muli-agent :
Notre objectif est de montrer qu’un ensemble d’agents simples dotés individuellement de capacités sensori-motrices peut résoudre collectivement un problème complexe, il suffit de vérifier l’hypothèse de Markov pour que l’environnement soit Markovien.
Nous testons notre approche sur une plate forme de simulation multiagent « netlogo » avec 3 robots plongent sur un environnement dynamique et incertain pour résoudre le problème de navigation. Où chaque agent a une architecture de contrôle basé sur l’apprentissage par renforcement (Q-learning décentralisé) .
On a utilisé les avantages des systèmes multiagent comme la coopération pour améliorer l’apprentissage d’une façon indirecte (par l’implémentation des informations échangées par les agents dans la fonction de récompense de chaque agent) . L’idée principale de cette approche est de guider l’apprentissage en plaçant les agents dans des situations proches des sources de renforcement (positives ou négatives).
Cette approche accélère l’apprentissage puisque les agents reçoivent fréquemment des récompenses qui leur permettent de modifier leur comportement.
Ces expériences ont confirmé l’efficacité de notre approche car les performances issues de notre architecture de contrôle (le q-learning décentralisé avec l’aspect de coopération) sont bien meilleures que celles obtenues par un apprentissage classique.
Les résultats obtenus sont très satisfaisants du fait que les robots parviennent à atteindre un niveau d’autonomie très élevé, ceci ouvre la vois vers l’expérimentation des ces résultats sur un ensemble de robots réels.
Directeur de thèse : HENDEL Fatiha Exemplaires
Code-barres Cote Support Localisation Section Disponibilité 3683 02-10-499 Version numérique et papier Bibliothèque USTOMB Mémoire de Magister Exclu du prêt
BUC USTOMB'Thèses



Service Thèse de la BUC met à votre disposition L'ensemble des thèses de doctorat et mémoires de magister soutenues à l'USTO MB
Adresse
BUC USTOMB'ThèsesBibliothèque centrale USTOMB
BP 1505 EL M'Naouer USTO ORAN
Algérie
(213)041627180
contact