les Thèses Soutenues à l'USTO MB
vous cherchez une thèse?
A partir de cette page vous pouvez :
Retourner au premier écran avec les dernières notices... | Votre compte |
Catégories
Faire une suggestion Affiner la recherche
Titre : Analyse du trafic routier dans un contexte de sécurité routière. Type de document : document électronique Auteurs : OUESSAI ASMAA, Auteur Année de publication : 2019/2020 Importance : 121 p. Format : A4 Accompagnement : CD Langues : Français (fre) Catégories : Electronique:Technique de communication moderne Mots-clés : Estimation du trafic routier, Classification de la congestion de trafic, IMM-EKF, DDKF2, SVM.
Traffic Estimation, Traffic Congestion Classification, IMM-EKF, DDKF2, SVMRésumé : Cette thèse est consacrée à l’estimation et la classification du trafic autoroutier en utilisant des caméras de vidéo-surveillance. Le but étant de fournir une information précise et en temps réel sur l’état du trafic routier, permettant d’aider les conducteurs à choisir l’itinéraire le moins encombré et donc le plus rapide et le plus sûr, ce qui contribue à améliorer leur qualité de vie et réduit l’effet de la congestion routière sur l’environnement, la société et l’économie.
Dans la première partie de cette thèse, nous avons utilisé le filtre de Kalman à différences divisées du 2éme ordre (DDKF2) pour estimer les paramètres du trafic et nous avons comparé ses performances à celle du filtre de Kalman étendu (EKF) en utilisant des données simulées et réelles.
Dans la seconde partie de cette thèse nous avons développé un modèle macroscopique de trafic à deux régimes, capable de simuler la vitesse et la densité moyennes du trafic dans ses états fluide et congestionné, et aussi de prédire les paramètres du trafic au cours du temps. Le modèle développé a été incorporé dans un filtre à modèles multiples interagissant (IMM) à base de deux filtres de Kalman étendu (EKF), l’un assumant un trafic fluide et l’autre un trafic congestionné, afin d’estimer la vitesse et la densité moyennes du trafic dans un tronçon d’autoroute. L’algorithme IMM permet de combiner automatiquement les estimées des paramètres du trafic fournies par les deux filtres EKF, en utilisant les probabilités de modes (régimes) qu’il calcule. Ces probabilités ont été exploitées pour classer simplement le trafic en deux classes sans avoir besoin d’utiliser un classifieur spécifique comme le SVM, ce qui comparativement à ce classifieur, réduit la charge de calcul et simplifie la procédure de classification, en évitant de recourir à une phase d’apprentissage. Les résultats de classification obtenus sont satisfaisants et comparables à ceux obtenus par la classification par SVM.
This thesis studies the estimation and classification of highway traffic using video surveillance cameras. The goal is to provide accurate and real-time information about the road traffic state, to help drivers for choosing the least congested and thus the fastest and safest route, which will contributes to improve their life’s quality and reduce the effect of traffic congestion on the environment, society and the economy.
In the first part of this thesis, we used the 2nd order Divided Difference Kalman filter (DDKF2) for the estimation of the traffic parameters and we compared its performances to that of the extended Kalman filter (EKF) using simulated and real-time dataset.
In the second part of the thesis, we have developed a two-class macroscopic model that is able to simulate the mean speed and mean density of traffic in the cases of free traffic and congested traffic, and also to predict the traffic state over time. The developed model was incorporated into the Interacting Multiple Models (IMM) filter, which uses two Extended Kalman Filter (EKF), one assuming a free traffic and the other one a congested, to estimate the traffic mean speed and density in a highway stretch. The IMM filter automatically combines the traffic parameters estimates provided by the EKF filters, by using the modes (regimes) probabilities that it calculates. These probabilities are exploited to simply classify the traffic into two classes without the need to use a dedicated classifier, such as the SVM, which compared to this classifier, reduces the computational load and simplifies the classification procedure, since no learning phase is required. The obtained classification results are satisfactory and are comparable to those obtained by using the SVM.
Directeur de thèse : KECHE Mokhtar Analyse du trafic routier dans un contexte de sécurité routière. [document électronique] / OUESSAI ASMAA, Auteur . - 2019/2020 . - 121 p. ; A4 + CD.
Langues : Français (fre)
Catégories : Electronique:Technique de communication moderne Mots-clés : Estimation du trafic routier, Classification de la congestion de trafic, IMM-EKF, DDKF2, SVM.
Traffic Estimation, Traffic Congestion Classification, IMM-EKF, DDKF2, SVMRésumé : Cette thèse est consacrée à l’estimation et la classification du trafic autoroutier en utilisant des caméras de vidéo-surveillance. Le but étant de fournir une information précise et en temps réel sur l’état du trafic routier, permettant d’aider les conducteurs à choisir l’itinéraire le moins encombré et donc le plus rapide et le plus sûr, ce qui contribue à améliorer leur qualité de vie et réduit l’effet de la congestion routière sur l’environnement, la société et l’économie.
Dans la première partie de cette thèse, nous avons utilisé le filtre de Kalman à différences divisées du 2éme ordre (DDKF2) pour estimer les paramètres du trafic et nous avons comparé ses performances à celle du filtre de Kalman étendu (EKF) en utilisant des données simulées et réelles.
Dans la seconde partie de cette thèse nous avons développé un modèle macroscopique de trafic à deux régimes, capable de simuler la vitesse et la densité moyennes du trafic dans ses états fluide et congestionné, et aussi de prédire les paramètres du trafic au cours du temps. Le modèle développé a été incorporé dans un filtre à modèles multiples interagissant (IMM) à base de deux filtres de Kalman étendu (EKF), l’un assumant un trafic fluide et l’autre un trafic congestionné, afin d’estimer la vitesse et la densité moyennes du trafic dans un tronçon d’autoroute. L’algorithme IMM permet de combiner automatiquement les estimées des paramètres du trafic fournies par les deux filtres EKF, en utilisant les probabilités de modes (régimes) qu’il calcule. Ces probabilités ont été exploitées pour classer simplement le trafic en deux classes sans avoir besoin d’utiliser un classifieur spécifique comme le SVM, ce qui comparativement à ce classifieur, réduit la charge de calcul et simplifie la procédure de classification, en évitant de recourir à une phase d’apprentissage. Les résultats de classification obtenus sont satisfaisants et comparables à ceux obtenus par la classification par SVM.
This thesis studies the estimation and classification of highway traffic using video surveillance cameras. The goal is to provide accurate and real-time information about the road traffic state, to help drivers for choosing the least congested and thus the fastest and safest route, which will contributes to improve their life’s quality and reduce the effect of traffic congestion on the environment, society and the economy.
In the first part of this thesis, we used the 2nd order Divided Difference Kalman filter (DDKF2) for the estimation of the traffic parameters and we compared its performances to that of the extended Kalman filter (EKF) using simulated and real-time dataset.
In the second part of the thesis, we have developed a two-class macroscopic model that is able to simulate the mean speed and mean density of traffic in the cases of free traffic and congested traffic, and also to predict the traffic state over time. The developed model was incorporated into the Interacting Multiple Models (IMM) filter, which uses two Extended Kalman Filter (EKF), one assuming a free traffic and the other one a congested, to estimate the traffic mean speed and density in a highway stretch. The IMM filter automatically combines the traffic parameters estimates provided by the EKF filters, by using the modes (regimes) probabilities that it calculates. These probabilities are exploited to simply classify the traffic into two classes without the need to use a dedicated classifier, such as the SVM, which compared to this classifier, reduces the computational load and simplifies the classification procedure, since no learning phase is required. The obtained classification results are satisfactory and are comparable to those obtained by using the SVM.
Directeur de thèse : KECHE Mokhtar Exemplaires
Code-barres Cote Support Localisation Section Disponibilité 1755 02-09-593 Version numérique et papier Bibliothèque Centrale Thèse de Doctorat Exclu du prêt Documents numériques
02-09-594.pdfAdobe Acrobat PDF ‘ Application du filtre de Kalman linéaire et non linéaire et ses dérivées à la poursuite d’une cible manoeuvrante / DAHMANI MOHAMMED
Titre : ‘ Application du filtre de Kalman linéaire et non linéaire et ses dérivées à la poursuite d’une cible manoeuvrante Type de document : document électronique Auteurs : DAHMANI MOHAMMED, Auteur Année de publication : 5 Avril 2012 Importance : 141 p. Accompagnement : CD Langues : Français (fre) Catégories : Electronique:Technique de communication moderne Mots-clés : le filtre kalman filter Résumé : Les systèmes de surveillance civils ou militaires utilisent plusieurs algorithmes
permettant d’effectuer la poursuite d’une cible. L’outil clef dans ces algorithmes est le
filtre de Kalman. L’objectif de ma thèse est de présenter et d’analyser les principaux
algorithmes permettant d’effectuer le filtrage linéaire (cas de poursuite dans le repère
cartésien), ou le filtrage non linéaire (cas de poursuite en utilisant des mesures
polaires). De nouvelles solutions algorithmiques pour une poursuite adaptative d’une
cible sont proposées.
Le cas de la poursuite d’une cible manouvrante a été étudié en utilisant la notion
de modèles multiples interagissant. Nous avons proposé un algorithme à base des
filtres à gains fixes (filtres αβ et filtreαβγ) en utilisant la même architecture que celle
du filtre IMM ( Inteacting Multiples Models). L’algorithme proposé nommé FastIMM
est facile à implémenter et peut être utilisé pour des applications de poursuite en temps
réel.
Nous avons également étudié l’application des filtres non linéaires récents tels
que l’UKF (Uncented Kalma Filter) et le CKF (Cubature Kalman Filter) à la poursuite
d’une cible avec des mesures polaires. Nous avons en particulier proposé l’utilisation
de l’intégration ‘Cubature’ pour débiaiser la mesure convertie. Le filtre obtenu a donné
des résultats satisfaisants comparables à celles du meilleur filtre existant : le filtre
‘unbiaised converted measurments’.Directeur de thèse : Keche Mokhtar ‘ Application du filtre de Kalman linéaire et non linéaire et ses dérivées à la poursuite d’une cible manoeuvrante [document électronique] / DAHMANI MOHAMMED, Auteur . - 5 Avril 2012 . - 141 p. + CD.
Langues : Français (fre)
Catégories : Electronique:Technique de communication moderne Mots-clés : le filtre kalman filter Résumé : Les systèmes de surveillance civils ou militaires utilisent plusieurs algorithmes
permettant d’effectuer la poursuite d’une cible. L’outil clef dans ces algorithmes est le
filtre de Kalman. L’objectif de ma thèse est de présenter et d’analyser les principaux
algorithmes permettant d’effectuer le filtrage linéaire (cas de poursuite dans le repère
cartésien), ou le filtrage non linéaire (cas de poursuite en utilisant des mesures
polaires). De nouvelles solutions algorithmiques pour une poursuite adaptative d’une
cible sont proposées.
Le cas de la poursuite d’une cible manouvrante a été étudié en utilisant la notion
de modèles multiples interagissant. Nous avons proposé un algorithme à base des
filtres à gains fixes (filtres αβ et filtreαβγ) en utilisant la même architecture que celle
du filtre IMM ( Inteacting Multiples Models). L’algorithme proposé nommé FastIMM
est facile à implémenter et peut être utilisé pour des applications de poursuite en temps
réel.
Nous avons également étudié l’application des filtres non linéaires récents tels
que l’UKF (Uncented Kalma Filter) et le CKF (Cubature Kalman Filter) à la poursuite
d’une cible avec des mesures polaires. Nous avons en particulier proposé l’utilisation
de l’intégration ‘Cubature’ pour débiaiser la mesure convertie. Le filtre obtenu a donné
des résultats satisfaisants comparables à celles du meilleur filtre existant : le filtre
‘unbiaised converted measurments’.Directeur de thèse : Keche Mokhtar Exemplaires
Code-barres Cote Support Localisation Section Disponibilité 2441 02-09-419 Version numérique et papier Bibliothèque Centrale Thèse de Doctorat Exclu du prêt Documents numériques
‘ Application du filtre de Kalman linéaire et non linéaire et ses dérivées à la poursuite d’une cible manoeuvranteAdobe Acrobat PDF Compression du Signal ECG et des Images Mèdicales par des Mèthodes Basèes sur la Transformèe en Ondelettes / BOUMEHED Meriem
Titre : Compression du Signal ECG et des Images Mèdicales par des Mèthodes Basèes sur la Transformèe en Ondelettes Type de document : texte imprimé Auteurs : BOUMEHED Meriem, Auteur Année de publication : 2006 Importance : 104 p. Langues : Français (fre) Catégories : Electronique:Technique de communication moderne Mots-clés : compression transformèe en ondelettes codage progressif EZW SPIHT ECG imagerie mèdicale. Résumé : les donnèes recueillier lors du monitorage des patients ou des explorations fonctionnelles en milieu hospitalier, sur des sportifs peuvent ètre stockèes, traitèes sur place ou acheminèes par voie de communication vers un centre d'exploitation distant l'augmentation continuelle du volume de ces donnèes pose des problèmes d'espace de stockage, de bande passante et de temps de transmission une technique de compression permet de rèsoudre de tels problèmes.
la compression consiste à chercher comment dècrire de manière la plus succinte possible l'information,en s'autorisant èventuellement à la dègrader ce traitement permet non seulement de rèduire le nombre d'èlèmente nècessaire pour la reprèsenter, mais ègalement de simplifier les traitements ultèrieurs en condensant l'information.
notre travail porte sur les aspects algorithmiques des techniques de compression basèes sur la transformèe en ondelettes adaptèes au signal èlectrocardiogramme (ECG) qu'est l'enregistrement des potentiels èlectriques èmis par le coeur lors de sa contraction et dècontraction et à l'imagerie mèdicale de type IRM (imagerie par rèsonance magnètique), et sur la validation de la qualitè diagnostique des donnèes compressèes.Directeur de thèse : Abdelaziz OUAMRI Compression du Signal ECG et des Images Mèdicales par des Mèthodes Basèes sur la Transformèe en Ondelettes [texte imprimé] / BOUMEHED Meriem, Auteur . - 2006 . - 104 p.
Langues : Français (fre)
Catégories : Electronique:Technique de communication moderne Mots-clés : compression transformèe en ondelettes codage progressif EZW SPIHT ECG imagerie mèdicale. Résumé : les donnèes recueillier lors du monitorage des patients ou des explorations fonctionnelles en milieu hospitalier, sur des sportifs peuvent ètre stockèes, traitèes sur place ou acheminèes par voie de communication vers un centre d'exploitation distant l'augmentation continuelle du volume de ces donnèes pose des problèmes d'espace de stockage, de bande passante et de temps de transmission une technique de compression permet de rèsoudre de tels problèmes.
la compression consiste à chercher comment dècrire de manière la plus succinte possible l'information,en s'autorisant èventuellement à la dègrader ce traitement permet non seulement de rèduire le nombre d'èlèmente nècessaire pour la reprèsenter, mais ègalement de simplifier les traitements ultèrieurs en condensant l'information.
notre travail porte sur les aspects algorithmiques des techniques de compression basèes sur la transformèe en ondelettes adaptèes au signal èlectrocardiogramme (ECG) qu'est l'enregistrement des potentiels èlectriques èmis par le coeur lors de sa contraction et dècontraction et à l'imagerie mèdicale de type IRM (imagerie par rèsonance magnètique), et sur la validation de la qualitè diagnostique des donnèes compressèes.Directeur de thèse : Abdelaziz OUAMRI Exemplaires
Code-barres Cote Support Localisation Section Disponibilité 2328 02-09-306 version papier Bibliothèque Centrale Mémoire de Magister Exclu du prêt Compression des signaux ECG par Quantification Vectorielle Adaptative Et Compensation de l’Erreur Résiduelle / SOUSSI Imène
Titre : Compression des signaux ECG par Quantification Vectorielle Adaptative Et Compensation de l’Erreur Résiduelle Type de document : document électronique Auteurs : SOUSSI Imène, Auteur Année de publication : 2017-2018 Importance : 152 P. Accompagnement : CD Langues : Français (fre) Catégories : Electronique:Technique de communication moderne Mots-clés : ECG SVD QV codebook adaptatif Compensation d’erreur codage résiduel MIT-BIH arrythmia database CR PRD
ECG SVD VQ adaptive codebook error compensation residual encoding MIT-BIH arrythmia database CR PRD.
ECG SVD VQ codebook التكيفي، تعويض الأخطاء، التشفير المتبقي، CR ،PRD ، قاعدة بيانات الدولية BIH-MIT .Résumé : Ces dernières années, l’évolution des technologies de stockage et de transmission ont rendu possible la manipulation d’un flux important de données, notamment les données médicales, d’où la nécessité de la compression. Le signal électrocardiographique (ECG), est un outil très efficace pour établir un diagnostique cardiovasculaire complet en plus d’une éventuelle échographie du cœur. Actuellement le suivi d’un patient peut se faire à distance au moyen d’un système de télémédecine, permettant la transmission de ses données médicales à partir de son domicile ou bien entre deux centres hospitaliers différents. A cet effet, la compression est devenue incontournable tant pour le stockage que pour la transmission. Dans ce cadre, le but de notre travail est de trouver une solution au problème de la compression des signaux ECG, qui est soumis à la contrainte du débit-distorsion. En effet, une méthode de compression efficace doit pouvoir atteindre des taux de compression assez élevés tout en assurant une bonne qualité des signaux reconstruits après décompression. Pour cela, nous avons proposé un schéma de compression basé sur la Décomposition en Valeurs Singulières (SVD), la proposition d’une nouvelle technique de Quantification Vectorielle (QV) adaptative et la compensation de l’erreur résiduelle. La SVD de la matrice de données construite à partir du signal ECG à compresser, permet de compacter l’information sur un nombre limité de composantes matricielles décorrélées dites dominantes, réalisant ainsi un effet de compression. La nouvelle technique de quantification vectorielle adaptative proposée permet de générer un codebook adaptatif, associé à chaque nouvelle compression d’un signal cardiaque. Ceci permet d’une part, de générer des codebooks adaptatifs précis et d’autre part, de compresser d’avantage l’information. Dans le but d’améliorer la précision des signaux ECG reconstruits après décompression, nous avons proposé une technique de compensation de l’erreur résiduelle, basée sur le codage résiduel en utilisant la SVD. En conséquence, la précision des signaux ECG reconstruits se trouve nettement améliorée, ce qui s’est traduit par la diminution des valeurs du PRD (Percent Root mean square Difference), qui permet de mesurer le taux de distorsion dans les signaux reconstruits. Après avoir réalisé l’opération de compression, nous nous sommes intéressés au codage des données compressées, nous avons pour cela adopté une méthode de codage adaptée aux spécifications de l’ECG. Enfin, la méthode de compression a été testée en utilisant des signaux réels de la base internationale des signaux ECG MIT-BIH (Massachusetts Institute of Technology-Beth Israel Hospital) arrythmia database. Les résultats de compression montrent l’efficacité de l’approche proposée, même dans le cas de signaux très irréguliers, et contenant des anomalies cardiaques tels que les blocs de branche et les extrasystoles. Généralement, des taux de compression CR (Compression Ratio) élevés ont été obtenus, un CR de l’ordre de 102.54 a été atteint pour un PRD de 1.02%.
In recent years, the evolution of storage and transmission technologies has made possible the handling of a large flow of data, especially medical data, hence the need of compression. The electrocardiographic signal (ECG), is a very efficient tool for establishing a complete cardiovascular diagnosis in addition to a possible ultrasound of the heart. Currently, a patient can be followed remotely by means of a telemedicine system that allows the transmission of his medical data from his home or between two different hospital centers. For this reason, compression has become unavoidable for both storage and transmission. In this context, the purpose of our work is to find a solution to the problem of ECG signal compression, which is subject to the rate-distortion constraint. Indeed, an efficient compression method must be able to achieve fairly high compression rates while ensuring a good quality of reconstructed signals after decompression. For this aim, we proposed a compression scheme based on the Singular Values Decomposition (SVD), a new proposed adaptive Vector Quantification (VQ) technique and a new technique for the residual error compensation. The SVD of the data matrix constructed from the ECG signal to be compressed, allows compacting the information on a limited number of so-called dominant decorrelated matrix components, and achieving a compression effect. The new adaptive vector quantization technique, allows generating an adaptive codebook, associated with each ECG signal compression. This permits, on one hand, to generate accurate adaptive codebooks and on the other hand, to compress more information. In order to improve the accuracy of the reconstructed ECG signals obtained after decompression, we have proposed a residual error compensation technique, based on residual encoding using the SVD. Consequently, the accuracy of the reconstructed ECG signals is improved, resulting in lower PRD (Percent Root Mean Square Difference) values, the PRD measures the distortion percent in the reconstructed signals. After carrying out the compression operation, we were interested in coding the compressed data. For this aim, we adopted a coding method adapted to the specifications of the ECG signal. Finally, the compression method was tested using real ECG signals from the international MIT-BIH (Massachusetts Institute of Technology-Beth Israel Hospital) arrythmia database. The compression results show the efficiency of the proposed approach, even in the case of irregular signals, and containing cardiac abnormalities, such as branch blocks and extrasystoles. Generally, high compression ratio (CR) values were obtained; a CR of 102.54 was reached for a PRD of 1.02%.
في السنوات الأخيرة، تطور تقنيات التخزين والنقل جعل من الممكن التعامل مع البيانات الكبيرة، وخاصة البيانات الطبية، وبالتالي الحاجة إلى الضغط. تعتبر إشارة تخطيط القلب الكهربائي(ECG) ، أداة فعالة جدًا لإنشاء تشخيص كامل لأمراض القلب والأوعية الدموية بالإضافة إلى الأشعة فوق الصوتية المحتملة للقلب. حاليا ، يمكن أن يتبع المريض نظام التطبيب عن بعد الذي يسمح بنقل حالته الطبية من مركزين إستشفائيين مختلفين. تحقيقا لهذه الغاية، أصبح الضغط لا مفر منه لكل من التخزين والنقل. في هذا السياق، فإن الغرض من عملنا هو إيجاد حل لمشكلة ضغط إشارات القلب، والتي تخضع لقيد تشويه- ضغط. في الواقع، يجب أن تكون طريقة الضغط الفعالة قادرة على تحقيق معدلات ضغط عالية إلى حد ما مع ضمان جودة جيدة للإشارات المعاد بناؤها بعد إزالة الضغط. لهذا الهدف ، نقترح مخطط ضغط قائم على تحليل قيم المفرد (SVD)، وتقنية جديدة تكيفية مقترحة لتكميم الناقلات (VQ) وتقنية جديدة لتعويض الخطأ المتبقي. تم تنفيذ طريقة الضغط المقترحة في ثلاث مراحل رئيسية. تتعلق الخطوة الأولى بتطبيق تحليل القيمة المفردة (SVD) على مصفوفة البيانات التي تم إنشاؤها من إشارة تخطيط القلب التي يجب ضغطها. وهذا يتيح ضغط المعلومات على ما يسمى بمكونات المصفوفات المهيمنة غير المرتبطة، وتحقيق تأثير الضغط. تتميز الخطوة الثانية بتطبيق تقنية تكميم ناقلات تكيفية جديدة (VQ)، والتي اقترحناها لتكميم الناقلات الفردية اليمنى لتحليل قيم المفرد لمصفوفة بيانات ECG، تولد تقنية تكميم ناقلات هذه كودًا تكيفيًا (codebook) مرتبطًا بكل ضغط جديد للإشارة القلبية. يسمح هذا، من ناحية ، بإنشاء كودًا تكيفيًا دقيقًا ومن ناحية أخرى ، لتحقيق المزيد من ضغط المعلومات. الخطوة الثالثة تهدف إلى تحسين دقة إشارات ECG التي تم الحصول عليها بعد إزالة الضغط، ولهذا الغرض ، قمنا باقتراح أسلوب لتعويض الخطأ المتبقي، على أساس التشفير المتبقي باستخدام SVD وبالتالي ، فإن التشويه الناتج عن الانضغاط ، والذي يمثله النسبة المئوية لجذرمتوسط الفرق(PRD) ، قد انخفض، مما يسمح بتحسين دقة الإشارات المعاد بناؤها. بعد إجراء عملية الانضغاط، كنا مهتمين بترميز البيانات المضغوطة والتي اعتمدنا من خلالها منهجية تشفير متوافقة مع مواصفات تخطيط القلب الكهربائي. وأخيرًا، تم إختبار الطريقة المقترحة باستعمال قاعدة البيانات الدولية(MIT-BIH) (معهد ماساتشوستس للتكنولوجيا - مستشفى بيث. تظهر نتائج الضغط فعالية النهج المقترح، حتى في حالة وجود إشارات غير منتظمة للغاية، وتحتوي على تشوهات في القلب، مثل كتل فرعية و extrasystoles. بشكل عام، تم الحصول على نسبة ضغط (CR) عالية حيث تم التوصل إلى نسبة ضغط 102.54 من أجل PRD يساوي 1.02 ٪.
Ces dernières années, l’évolution des technologies de stockage et de transmission ont rendu possible la manipulation d’un flux important de données, notamment les données médicales, d’où la nécessité de la compression. Le signal électrocardiographique (ECG), est un outil très efficace pour établir un diagnostique cardiovasculaire complet en plus d’une éventuelle échographie du cœur. Actuellement le suivi d’un patient peut se faire à distance au moyen d’un système de télémédecine, permettant la transmission de ses données médicales à partir de son domicile ou bien entre deux centres hospitaliers différents. A cet effet, la compression est devenue incontournable tant pour le stockage que pour la transmission. Dans ce cadre, le but de notre travail est de trouver une solution au problème de la compression des signaux ECG, qui est soumis à la contrainte du débit-distorsion. En effet, une méthode de compression efficace doit pouvoir atteindre des taux de compression assez élevés tout en assurant une bonne qualité des signaux reconstruits après décompression. Pour cela, nous avons proposé un schéma de compression basé sur la Décomposition en Valeurs Singulières (SVD), la proposition d’une nouvelle technique de Quantification Vectorielle (QV) adaptative et la compensation de l’erreur résiduelle. La SVD de la matrice de données construite à partir du signal ECG à compresser, permet de compacter l’information sur un nombre limité de composantes matricielles décorrélées dites dominantes, réalisant ainsi un effet de compression. La nouvelle technique de quantification vectorielle adaptative proposée permet de générer un codebook adaptatif, associé à chaque nouvelle compression d’un signal cardiaque. Ceci permet d’une part, de générer des codebooks adaptatifs précis et d’autre part, de compresser d’avantage l’information. Dans le but d’améliorer la précision des signaux ECG reconstruits après décompression, nous avons proposé une technique de compensation de l’erreur résiduelle, basée sur le codage résiduel en utilisant la SVD. En conséquence, la précision des signaux ECG reconstruits se trouve nettement améliorée, ce qui s’est traduit par la diminution des valeurs du PRD (Percent Root mean square Difference), qui permet de mesurer le taux de distorsion dans les signaux reconstruits. Après avoir réalisé l’opération de compression, nous nous sommes intéressés au codage des données compressées, nous avons pour cela adopté une méthode de codage adaptée aux spécifications de l’ECG. Enfin, la méthode de compression a été testée en utilisant des signaux réels de la base internationale des signaux ECG MIT-BIH (Massachusetts Institute of Technology-Beth Israel Hospital) arrythmia database. Les résultats de compression montrent l’efficacité de l’approche proposée, même dans le cas de signaux très irréguliers, et contenant des anomalies cardiaques tels que les blocs de branche et les extrasystoles. Généralement, des taux de compression CR (Compression Ratio) élevés ont été obtenus, un CR de l’ordre de 102.54 a été atteint pour un PRD de 1.02%.
Directeur de thèse : OUSLIM Mohamed Compression des signaux ECG par Quantification Vectorielle Adaptative Et Compensation de l’Erreur Résiduelle [document électronique] / SOUSSI Imène, Auteur . - 2017-2018 . - 152 P. + CD.
Langues : Français (fre)
Catégories : Electronique:Technique de communication moderne Mots-clés : ECG SVD QV codebook adaptatif Compensation d’erreur codage résiduel MIT-BIH arrythmia database CR PRD
ECG SVD VQ adaptive codebook error compensation residual encoding MIT-BIH arrythmia database CR PRD.
ECG SVD VQ codebook التكيفي، تعويض الأخطاء، التشفير المتبقي، CR ،PRD ، قاعدة بيانات الدولية BIH-MIT .Résumé : Ces dernières années, l’évolution des technologies de stockage et de transmission ont rendu possible la manipulation d’un flux important de données, notamment les données médicales, d’où la nécessité de la compression. Le signal électrocardiographique (ECG), est un outil très efficace pour établir un diagnostique cardiovasculaire complet en plus d’une éventuelle échographie du cœur. Actuellement le suivi d’un patient peut se faire à distance au moyen d’un système de télémédecine, permettant la transmission de ses données médicales à partir de son domicile ou bien entre deux centres hospitaliers différents. A cet effet, la compression est devenue incontournable tant pour le stockage que pour la transmission. Dans ce cadre, le but de notre travail est de trouver une solution au problème de la compression des signaux ECG, qui est soumis à la contrainte du débit-distorsion. En effet, une méthode de compression efficace doit pouvoir atteindre des taux de compression assez élevés tout en assurant une bonne qualité des signaux reconstruits après décompression. Pour cela, nous avons proposé un schéma de compression basé sur la Décomposition en Valeurs Singulières (SVD), la proposition d’une nouvelle technique de Quantification Vectorielle (QV) adaptative et la compensation de l’erreur résiduelle. La SVD de la matrice de données construite à partir du signal ECG à compresser, permet de compacter l’information sur un nombre limité de composantes matricielles décorrélées dites dominantes, réalisant ainsi un effet de compression. La nouvelle technique de quantification vectorielle adaptative proposée permet de générer un codebook adaptatif, associé à chaque nouvelle compression d’un signal cardiaque. Ceci permet d’une part, de générer des codebooks adaptatifs précis et d’autre part, de compresser d’avantage l’information. Dans le but d’améliorer la précision des signaux ECG reconstruits après décompression, nous avons proposé une technique de compensation de l’erreur résiduelle, basée sur le codage résiduel en utilisant la SVD. En conséquence, la précision des signaux ECG reconstruits se trouve nettement améliorée, ce qui s’est traduit par la diminution des valeurs du PRD (Percent Root mean square Difference), qui permet de mesurer le taux de distorsion dans les signaux reconstruits. Après avoir réalisé l’opération de compression, nous nous sommes intéressés au codage des données compressées, nous avons pour cela adopté une méthode de codage adaptée aux spécifications de l’ECG. Enfin, la méthode de compression a été testée en utilisant des signaux réels de la base internationale des signaux ECG MIT-BIH (Massachusetts Institute of Technology-Beth Israel Hospital) arrythmia database. Les résultats de compression montrent l’efficacité de l’approche proposée, même dans le cas de signaux très irréguliers, et contenant des anomalies cardiaques tels que les blocs de branche et les extrasystoles. Généralement, des taux de compression CR (Compression Ratio) élevés ont été obtenus, un CR de l’ordre de 102.54 a été atteint pour un PRD de 1.02%.
In recent years, the evolution of storage and transmission technologies has made possible the handling of a large flow of data, especially medical data, hence the need of compression. The electrocardiographic signal (ECG), is a very efficient tool for establishing a complete cardiovascular diagnosis in addition to a possible ultrasound of the heart. Currently, a patient can be followed remotely by means of a telemedicine system that allows the transmission of his medical data from his home or between two different hospital centers. For this reason, compression has become unavoidable for both storage and transmission. In this context, the purpose of our work is to find a solution to the problem of ECG signal compression, which is subject to the rate-distortion constraint. Indeed, an efficient compression method must be able to achieve fairly high compression rates while ensuring a good quality of reconstructed signals after decompression. For this aim, we proposed a compression scheme based on the Singular Values Decomposition (SVD), a new proposed adaptive Vector Quantification (VQ) technique and a new technique for the residual error compensation. The SVD of the data matrix constructed from the ECG signal to be compressed, allows compacting the information on a limited number of so-called dominant decorrelated matrix components, and achieving a compression effect. The new adaptive vector quantization technique, allows generating an adaptive codebook, associated with each ECG signal compression. This permits, on one hand, to generate accurate adaptive codebooks and on the other hand, to compress more information. In order to improve the accuracy of the reconstructed ECG signals obtained after decompression, we have proposed a residual error compensation technique, based on residual encoding using the SVD. Consequently, the accuracy of the reconstructed ECG signals is improved, resulting in lower PRD (Percent Root Mean Square Difference) values, the PRD measures the distortion percent in the reconstructed signals. After carrying out the compression operation, we were interested in coding the compressed data. For this aim, we adopted a coding method adapted to the specifications of the ECG signal. Finally, the compression method was tested using real ECG signals from the international MIT-BIH (Massachusetts Institute of Technology-Beth Israel Hospital) arrythmia database. The compression results show the efficiency of the proposed approach, even in the case of irregular signals, and containing cardiac abnormalities, such as branch blocks and extrasystoles. Generally, high compression ratio (CR) values were obtained; a CR of 102.54 was reached for a PRD of 1.02%.
في السنوات الأخيرة، تطور تقنيات التخزين والنقل جعل من الممكن التعامل مع البيانات الكبيرة، وخاصة البيانات الطبية، وبالتالي الحاجة إلى الضغط. تعتبر إشارة تخطيط القلب الكهربائي(ECG) ، أداة فعالة جدًا لإنشاء تشخيص كامل لأمراض القلب والأوعية الدموية بالإضافة إلى الأشعة فوق الصوتية المحتملة للقلب. حاليا ، يمكن أن يتبع المريض نظام التطبيب عن بعد الذي يسمح بنقل حالته الطبية من مركزين إستشفائيين مختلفين. تحقيقا لهذه الغاية، أصبح الضغط لا مفر منه لكل من التخزين والنقل. في هذا السياق، فإن الغرض من عملنا هو إيجاد حل لمشكلة ضغط إشارات القلب، والتي تخضع لقيد تشويه- ضغط. في الواقع، يجب أن تكون طريقة الضغط الفعالة قادرة على تحقيق معدلات ضغط عالية إلى حد ما مع ضمان جودة جيدة للإشارات المعاد بناؤها بعد إزالة الضغط. لهذا الهدف ، نقترح مخطط ضغط قائم على تحليل قيم المفرد (SVD)، وتقنية جديدة تكيفية مقترحة لتكميم الناقلات (VQ) وتقنية جديدة لتعويض الخطأ المتبقي. تم تنفيذ طريقة الضغط المقترحة في ثلاث مراحل رئيسية. تتعلق الخطوة الأولى بتطبيق تحليل القيمة المفردة (SVD) على مصفوفة البيانات التي تم إنشاؤها من إشارة تخطيط القلب التي يجب ضغطها. وهذا يتيح ضغط المعلومات على ما يسمى بمكونات المصفوفات المهيمنة غير المرتبطة، وتحقيق تأثير الضغط. تتميز الخطوة الثانية بتطبيق تقنية تكميم ناقلات تكيفية جديدة (VQ)، والتي اقترحناها لتكميم الناقلات الفردية اليمنى لتحليل قيم المفرد لمصفوفة بيانات ECG، تولد تقنية تكميم ناقلات هذه كودًا تكيفيًا (codebook) مرتبطًا بكل ضغط جديد للإشارة القلبية. يسمح هذا، من ناحية ، بإنشاء كودًا تكيفيًا دقيقًا ومن ناحية أخرى ، لتحقيق المزيد من ضغط المعلومات. الخطوة الثالثة تهدف إلى تحسين دقة إشارات ECG التي تم الحصول عليها بعد إزالة الضغط، ولهذا الغرض ، قمنا باقتراح أسلوب لتعويض الخطأ المتبقي، على أساس التشفير المتبقي باستخدام SVD وبالتالي ، فإن التشويه الناتج عن الانضغاط ، والذي يمثله النسبة المئوية لجذرمتوسط الفرق(PRD) ، قد انخفض، مما يسمح بتحسين دقة الإشارات المعاد بناؤها. بعد إجراء عملية الانضغاط، كنا مهتمين بترميز البيانات المضغوطة والتي اعتمدنا من خلالها منهجية تشفير متوافقة مع مواصفات تخطيط القلب الكهربائي. وأخيرًا، تم إختبار الطريقة المقترحة باستعمال قاعدة البيانات الدولية(MIT-BIH) (معهد ماساتشوستس للتكنولوجيا - مستشفى بيث. تظهر نتائج الضغط فعالية النهج المقترح، حتى في حالة وجود إشارات غير منتظمة للغاية، وتحتوي على تشوهات في القلب، مثل كتل فرعية و extrasystoles. بشكل عام، تم الحصول على نسبة ضغط (CR) عالية حيث تم التوصل إلى نسبة ضغط 102.54 من أجل PRD يساوي 1.02 ٪.
Ces dernières années, l’évolution des technologies de stockage et de transmission ont rendu possible la manipulation d’un flux important de données, notamment les données médicales, d’où la nécessité de la compression. Le signal électrocardiographique (ECG), est un outil très efficace pour établir un diagnostique cardiovasculaire complet en plus d’une éventuelle échographie du cœur. Actuellement le suivi d’un patient peut se faire à distance au moyen d’un système de télémédecine, permettant la transmission de ses données médicales à partir de son domicile ou bien entre deux centres hospitaliers différents. A cet effet, la compression est devenue incontournable tant pour le stockage que pour la transmission. Dans ce cadre, le but de notre travail est de trouver une solution au problème de la compression des signaux ECG, qui est soumis à la contrainte du débit-distorsion. En effet, une méthode de compression efficace doit pouvoir atteindre des taux de compression assez élevés tout en assurant une bonne qualité des signaux reconstruits après décompression. Pour cela, nous avons proposé un schéma de compression basé sur la Décomposition en Valeurs Singulières (SVD), la proposition d’une nouvelle technique de Quantification Vectorielle (QV) adaptative et la compensation de l’erreur résiduelle. La SVD de la matrice de données construite à partir du signal ECG à compresser, permet de compacter l’information sur un nombre limité de composantes matricielles décorrélées dites dominantes, réalisant ainsi un effet de compression. La nouvelle technique de quantification vectorielle adaptative proposée permet de générer un codebook adaptatif, associé à chaque nouvelle compression d’un signal cardiaque. Ceci permet d’une part, de générer des codebooks adaptatifs précis et d’autre part, de compresser d’avantage l’information. Dans le but d’améliorer la précision des signaux ECG reconstruits après décompression, nous avons proposé une technique de compensation de l’erreur résiduelle, basée sur le codage résiduel en utilisant la SVD. En conséquence, la précision des signaux ECG reconstruits se trouve nettement améliorée, ce qui s’est traduit par la diminution des valeurs du PRD (Percent Root mean square Difference), qui permet de mesurer le taux de distorsion dans les signaux reconstruits. Après avoir réalisé l’opération de compression, nous nous sommes intéressés au codage des données compressées, nous avons pour cela adopté une méthode de codage adaptée aux spécifications de l’ECG. Enfin, la méthode de compression a été testée en utilisant des signaux réels de la base internationale des signaux ECG MIT-BIH (Massachusetts Institute of Technology-Beth Israel Hospital) arrythmia database. Les résultats de compression montrent l’efficacité de l’approche proposée, même dans le cas de signaux très irréguliers, et contenant des anomalies cardiaques tels que les blocs de branche et les extrasystoles. Généralement, des taux de compression CR (Compression Ratio) élevés ont été obtenus, un CR de l’ordre de 102.54 a été atteint pour un PRD de 1.02%.
Directeur de thèse : OUSLIM Mohamed Exemplaires
Code-barres Cote Support Localisation Section Disponibilité 2593 02-09-569 Version numérique et papier Bibliothèque Centrale Thèse de Doctorat Exclu du prêt Documents numériques
02-09-569.pdfAdobe Acrobat PDF Compression des Signaux Physiologiques par les Mèthodes Paramètriques Application à l'Electrocardiographie ECG / FECHOUL Kadda Salim
Titre : Compression des Signaux Physiologiques par les Mèthodes Paramètriques Application à l'Electrocardiographie ECG Type de document : texte imprimé Auteurs : FECHOUL Kadda Salim, Auteur Année de publication : 2007 Importance : 163 p. Langues : Français (fre) Catégories : Electronique:Technique de communication moderne Mots-clés : mèthodes paramètriques compression des signaux des signaux compression sans perte quantification vectorielle mèthode de prony modèlisation signal d'èlectrocardiographie Résumé : ce mèmoire de thèse est consacrè à l'ètude de la compression des signaux physiologiques par les mèthodes paramètriques les applications visèes sont le stockage et la transmission de ces signaux les approches prèsentèes sont appliquèes sur les signaux d'èlectrocardiographie du coeur.
le mèmoire est organisè autour de sept princiqaux chapitres: le premier chapitre prèsente les mèthodes de compression en gènèrale et leur importance desns la compression des signaux èlèctrograhiques le deuxième chapitre est nommè compression sans perte, son but est la compression des signaux sans aucune dègradation, bien que cette dernière mèthode ne donne pas un taux de compression important mais son utilisation s'avère utile dans le cas d'un proposèe en utilisant les algorithmes gènètiques dans le sixième chapitre nous entamons une autre mèthode pour la compression appelèe mèthode de prony, basè sur la dècomposition du notre travil en dègageant les point essentiels, et en discutant les perspectives de recherche sur la compression des signaux èlèctrocardiographiques.
les algorithmes prèsentès dans ce mèmoire tiennent compte des spècificirtès des applications mèdicales, en particulier des signaux d'èlèctrocardiographie li ressort de cette thèse l'importance majeurs de la spècification de l'application pour le dèveloppement et l'èvaluation de performances d'un algorithme.
Directeur de thèse : Abdelaziz OUAMRI Compression des Signaux Physiologiques par les Mèthodes Paramètriques Application à l'Electrocardiographie ECG [texte imprimé] / FECHOUL Kadda Salim, Auteur . - 2007 . - 163 p.
Langues : Français (fre)
Catégories : Electronique:Technique de communication moderne Mots-clés : mèthodes paramètriques compression des signaux des signaux compression sans perte quantification vectorielle mèthode de prony modèlisation signal d'èlectrocardiographie Résumé : ce mèmoire de thèse est consacrè à l'ètude de la compression des signaux physiologiques par les mèthodes paramètriques les applications visèes sont le stockage et la transmission de ces signaux les approches prèsentèes sont appliquèes sur les signaux d'èlectrocardiographie du coeur.
le mèmoire est organisè autour de sept princiqaux chapitres: le premier chapitre prèsente les mèthodes de compression en gènèrale et leur importance desns la compression des signaux èlèctrograhiques le deuxième chapitre est nommè compression sans perte, son but est la compression des signaux sans aucune dègradation, bien que cette dernière mèthode ne donne pas un taux de compression important mais son utilisation s'avère utile dans le cas d'un proposèe en utilisant les algorithmes gènètiques dans le sixième chapitre nous entamons une autre mèthode pour la compression appelèe mèthode de prony, basè sur la dècomposition du notre travil en dègageant les point essentiels, et en discutant les perspectives de recherche sur la compression des signaux èlèctrocardiographiques.
les algorithmes prèsentès dans ce mèmoire tiennent compte des spècificirtès des applications mèdicales, en particulier des signaux d'èlèctrocardiographie li ressort de cette thèse l'importance majeurs de la spècification de l'application pour le dèveloppement et l'èvaluation de performances d'un algorithme.
Directeur de thèse : Abdelaziz OUAMRI Exemplaires
Code-barres Cote Support Localisation Section Disponibilité 2333 02-09-311 Version numérique et papier Bibliothèque Centrale Mémoire de Magister Exclu du prêt PermalinkContribution à l’optimisation d’un système intelligent de routage des sources d’énergies hybrides pour l’application à l’habitat. / DERROUAZIN Ahmed
PermalinkPermalinkDétection et reconnaissance de visages / Fatima zohra KADDOUR
PermalinkDétection d'une sous porteuse noyée dans une porteuse plus large / DAOUDI Abderrahmane
PermalinkDètection et Suivi de voie de Roulement par Vision / BOUMEDIENE Mohamed
PermalinkEstimation aveugle du canal par l’approche des sous espaces et Détection dans la communication UWB / BRIZINI Imad
PermalinkPermalinkètude et Implèmentation sur FPGA DE l'algorithme de chiffrement AES / SENOUCI Abdelkader
PermalinkEtude et Rèalisation de l'Algorithme RSA / OULD DAH Nè
Permalink
BUC USTOMB'Thèses
Service Thèse de la BUC met à votre votre disposition L'ensemble des thèses de doctorat et mémoires de magister soutenues à l'USTO MB
Adresse
BUC USTOMB'ThèsesBibliothèque centrale USTOMB
BP 1505 EL M'Naouer USTO ORAN
Algérie
(213)041627180
contact