• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 7
  • Tagged with
  • 15
  • 15
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Statistiques et réseaux de neurones pour un système de diagnostic : application au diagnostic de pannes automobiles

Poulard, Hervé 09 May 1996 (has links) (PDF)
Ce travail a été réalisé dans le cadre d'une convention CIFRE entre le LAAS-CNRS et la société ACTIA qui développe des outils d'aide au diagnostic de pannes automobiles. Le but était l'utilisation des réseaux de neurones artificiels pour la conception d'une nouvelle méthode de diagnostic de pannes automobiles sans modèle, ni information symbolique mais avec seulement des observations du système en bon et en mauvais fonctionnement. C'est donc une approche du diagnostic de système complexe par reconnaissance de formes. Après avoir mis au point le système d'acquisition, nous avons conçu une première maquette qui a démontré la faisabilité d'un tel système et l'intérêt des réseaux de neurones, mais qui a soulevé de nombreux problèmes. L'utilisation particulière des réseaux de neurones dans cette application a nécessité l'usage d'algorithmes de construction. Après une étude théorique des structures de l'hypercube qui n'a pas abouti à un algorithme de construction mais qui a fourni plusieurs résultats, nous avons développé une famille d'algorithmes pour la construction des réseaux de neurones binaires. La base de ces outils est une nouvelle méthode d'apprentissage d'unités à seuil très performante dénommée Barycentric Correction Procedure (BCP). L'aboutissement est un algorithme novateur car très général (entrées quelconques et sorties multiples), rapide et avec un bon pouvoir de généralisation. Nous avons finalement mis au point une nouvelle méthodologie de diagnostic, dans laquelle l'utilisation de méthodes statistiques et d'analyse de données en collaboration avec les réseaux neuronaux paru nécessaire. Cette méthodologie utilise donc des techniques très diverses : analyse en composantes principales, estimation de densité de probabilité, classification automatique, calcul d'enveloppes convexes, génération géométrique de bases d'apprentissage, construction de réseaux de neurones binaires, réseaux de neurones gaussiens et méthodes de diagnostic simples. Cette méthodologie a été appliquée avec succès au problème de la détection de pannes automobiles et a aussi montré des potentialités pour le diagnostic préventif. Elle est de plus assez générique pour avoir de nombreuses applications potentielles.
12

Fusion techniques for iris recognition in degraded sequences / Techniques de fusion pour la reconnaissance de personne par l’iris dans des séquences dégradées

Othman, Nadia 11 March 2016 (has links)
Parmi les diverses modalités biométriques qui permettent l'identification des personnes, l'iris est considéré comme très fiable, avec un taux d'erreur remarquablement faible. Toutefois, ce niveau élevé de performances est obtenu en contrôlant la qualité des images acquises et en imposant de fortes contraintes à la personne (être statique et à proximité de la caméra). Cependant, dans de nombreuses applications de sécurité comme les contrôles d'accès, ces contraintes ne sont plus adaptées. Les images résultantes souffrent alors de diverses dégradations (manque de résolution, artefacts...) qui affectent négativement les taux de reconnaissance. Pour contourner ce problème, il est possible d’exploiter la redondance de l’information découlant de la disponibilité de plusieurs images du même œil dans la séquence enregistrée. Cette thèse se concentre sur la façon de fusionner ces informations, afin d'améliorer les performances. Dans la littérature, diverses méthodes de fusion ont été proposées. Cependant, elles s’accordent sur le fait que la qualité des images utilisées dans la fusion est un facteur crucial pour sa réussite. Plusieurs facteurs de qualité doivent être pris en considération et différentes méthodes ont été proposées pour les quantifier. Ces mesures de qualité sont généralement combinées pour obtenir une valeur unique et globale. Cependant, il n'existe pas de méthode de combinaison universelle et des connaissances a priori doivent être utilisées, ce qui rend le problème non trivial. Pour faire face à ces limites, nous proposons une nouvelle manière de mesurer et d'intégrer des mesures de qualité dans un schéma de fusion d'images, basé sur une approche de super-résolution. Cette stratégie permet de remédier à deux problèmes courants en reconnaissance par l'iris: le manque de résolution et la présence d’artefacts dans les images d'iris. La première partie de la thèse consiste en l’élaboration d’une mesure de qualité pertinente pour quantifier la qualité d’image d’iris. Elle repose sur une mesure statistique locale de la texture de l’iris grâce à un modèle de mélange de Gaussienne. L'intérêt de notre mesure est 1) sa simplicité, 2) son calcul ne nécessite pas d'identifier a priori les types de dégradations, 3) son unicité, évitant ainsi l’estimation de plusieurs facteurs de qualité et un schéma de combinaison associé et 4) sa capacité à prendre en compte la qualité intrinsèque des images mais aussi, et surtout, les défauts liés à une mauvaise segmentation de la zone d’iris. Dans la deuxième partie de la thèse, nous proposons de nouvelles approches de fusion basées sur des mesures de qualité. Tout d’abord, notre métrique est utilisée comme une mesure de qualité globale de deux façons différentes: 1) comme outil de sélection pour détecter les meilleures images de la séquence et 2) comme facteur de pondération au niveau pixel dans le schéma de super-résolution pour donner plus d'importance aux images de bonnes qualités. Puis, profitant du caractère local de notre mesure de qualité, nous proposons un schéma de fusion original basé sur une pondération locale au niveau pixel, permettant ainsi de prendre en compte le fait que les dégradations peuvent varier d’une sous partie à une autre. Ainsi, les zones de bonne qualité contribueront davantage à la reconstruction de l'image fusionnée que les zones présentant des artéfacts. Par conséquent, l'image résultante sera de meilleure qualité et pourra donc permettre d'assurer de meilleures performances en reconnaissance. L'efficacité des approches proposées est démontrée sur plusieurs bases de données couramment utilisées: MBGC, Casia-Iris-Thousand et QFIRE à trois distances différentes. Nous étudions séparément l'amélioration apportée par la super-résolution, la qualité globale, puis locale dans le processus de fusion. Les résultats montrent une amélioration importante apportée par l'utilisation de la qualité globale, amélioration qui est encore augmentée en utilisant la qualité locale / Among the large number of biometric modalities, iris is considered as a very reliable biometrics with a remarkably low error rate. The excellent performance of iris recognition systems are obtained by controlling the quality of the captured images and by imposing certain constraints on users, such as standing at a close fixed distance from the camera. However, in many real-world applications such as control access and airport boarding these constraints are no longer suitable. In such non ideal conditions, the resulting iris images suffer from diverse degradations which have a negative impact on the recognition rate. One way to try to circumvent this bad situation is to use some redundancy arising from the availability of several images of the same eye in the recorded sequence. Therefore, this thesis focuses on how to fuse the information available in the sequence in order to improve the performance. In the literature, diverse schemes of fusion have been proposed. However, they agree on the fact that the quality of the used images in the fusion process is an important factor for its success in increasing the recognition rate. Therefore, researchers concentrated their efforts in the estimation of image quality to weight each image in the fusion process according to its quality. There are various iris quality factors to be considered and diverse methods have been proposed for quantifying these criteria. These quality measures are generally combined to one unique value: a global quality. However, there is no universal combination scheme to do so and some a priori knowledge has to be inserted, which is not a trivial task. To deal with these drawbacks, in this thesis we propose of a novel way of measuring and integrating quality measures in a super-resolution approach, aiming at improving the performance. This strategy can handle two types of issues for iris recognition: the lack of resolution and the presence of various artifacts in the captured iris images. The first part of the doctoral work consists in elaborating a relevant quality metric able to quantify locally the quality of the iris images. Our measure relies on a Gaussian Mixture Model estimation of clean iris texture distribution. The interest of our quality measure is 1) its simplicity, 2) its computation does not require identifying in advance the type of degradations that can occur in the iris image, 3) its uniqueness, avoiding thus the computation of several quality metrics and associated combination rule and 4) its ability to measure the intrinsic quality and to specially detect segmentation errors. In the second part of the thesis, we propose two novel quality-based fusion schemes. Firstly, we suggest using our quality metric as a global measure in the fusion process in two ways: as a selection tool for detecting the best images and as a weighting factor at the pixel-level in the super-resolution scheme. In the last case, the contribution of each image of the sequence in final fused image will only depend on its overall quality. Secondly, taking advantage of the localness of our quality measure, we propose an original fusion scheme based on a local weighting at the pixel-level, allowing us to take into account the fact that degradations can be different in diverse parts of the iris image. This means that regions free from occlusions will contribute more in the image reconstruction than regions with artefacts. Thus, the quality of the fused image will be optimized in order to improve the performance. The effectiveness of the proposed approaches is shown on several databases commonly used: MBGC, Casia-Iris-Thousand and QFIRE at three different distances: 5, 7 and 11 feet. We separately investigate the improvement brought by the super-resolution, the global quality and the local quality in the fusion process. In particular, the results show the important improvement brought by the use of the global quality, improvement that is even increased using the local quality
13

Reconstitution de la parole par imagerie ultrasonore et vidéo de l'appareil vocal : vers une communication parlée silencieuse

Hueber, Thomas 09 December 2009 (has links) (PDF)
L'objectif poursuivi dans ce travail de thèse est la réalisation d'un dispositif capable d'interpréter une parole normalement articulée mais non vocalisée, permettant ainsi la " communication parlée silencieuse ". Destiné, à terme, à être léger et portatif, ce dispositif pourrait être utilisé d'une part, par une personne ayant subi une laryngectomie (ablation du larynx suite à un cancer), et d'autre part, pour toute communication, soit dans un milieu où le silence est requis (transport en commun, opération militaire, etc.), soit dans un environnement extrêmement bruité. Le dispositif proposé combine deux systèmes d'imagerie pour capturer l'activité de l'appareil vocal pendant " l'articulation silencieuse " : l'imagerie ultrasonore, qui donne accès aux articulateurs internes de la cavité buccale (comme la langue), et la vidéo, utilisée pour capturer le mouvement des lèvres. Le problème traité dans cette étude est celui de la synthèse d'un signal de parole " acoustique ", uniquement à partir d'un flux de données " visuelles " (images ultrasonores et vidéo). Cette conversion qualifiée ici de " visuo-acoustique ", s'effectue par apprentissage artificiel et fait intervenir quatre étapes principales : l'acquisition des données audiovisuelles, leur caractérisation, l'inférence d'une cible acoustique à partir de l'observation du geste articulatoire et la synthèse du signal. Dans le cadre de la réalisation du dispositif expérimental d'acquisition des données, un système de positionnement de la sonde ultrasonore par rapport à la tête du locuteur, basé sur l'utilisation combinée de deux capteurs inertiaux a tout d'abord été conçu. Un système permettant l'enregistrement simultané des flux visuels et du flux acoustique, basé sur la synchronisation des capteurs ultrasonore, vidéo et audio par voie logicielle, a ensuite été développé. Deux bases de données associant observations articulatoires et réalisations acoustiques, contenant chacune environ une heure de parole (continue), en langue anglaise, ont été construites. Pour la caractérisation des images ultrasonores et vidéo, deux approches ont été mises en œuvre. La première est basée sur l'utilisation de la transformée en cosinus discrète, la seconde, sur l'analyse en composantes principales (approche EigenTongues/EigenLips). La première approche proposée pour l'inférence des paramètres acoustiques, qualifiée de " directe ", est basée sur la construction d'une " fonction de conversion " à l'aide d'un réseau de neurones et d'un modèle par mélange de gaussiennes. Dans une seconde approche, qualifiée cette fois " d'indirecte ", une étape de décodage des flux visuels au niveau phonétique est introduite en amont du processus de synthèse. Cette étape intermédiaire permet notamment l'introduction de connaissances linguistiques a priori sur la séquence observée. Elle s'appuie sur la modélisation des gestes articulatoires par des modèles de Markov cachés (MMC). Deux méthodes sont enfin proposées pour la synthèse du signal à partir de la suite phonétique décodée. La première est basée sur une approche par concaténation d'unités ; la seconde utilise la technique dite de " synthèse par MMC ". Pour permettre notamment la réalisation d'adaptations prosodiques, ces deux méthodes de synthèse s'appuient sur une description paramétrique du signal de parole du type "Harmonique plus Bruit" (HNM).
14

Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l’amélioration des performances de localisation / Modeling and use of GNSS pseudorange errors in transport environment to enhance the localization performances

Viandier, Nicolas 07 June 2011 (has links)
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l’environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l’atmosphère sont connues. En revanche, il est plus difficile de prévoir l’impact de l’environnement proche de l’antenne, composé d’obstacles urbains. L’axe poursuivit par le LEOST et le LAGIS consiste à appréhender l’environnement et à utiliser cette information en complément de l’information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l’erreur, plusieurs modèles d’erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d’état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L’évolution du modèle de bruit permet de s'adapter à l’environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles. / Today, the GNSS are largely present in the transport field. Currently, the scientific community aims to develop transport applications with a high accuracy, availability and integrity. These systems offer a continuous positioning service. Performances are defined by the system parameters but also by signal environment propagation. The atmosphere propagation characteristics are well known. However, it is more difficult to anticipate and analyze the impact of the propagation environment close to the antenna which can be composed, for instance, of urban obstacles or vegetation.Since several years, the LEOST and the LAGIS research axes are driven by the understanding of the propagation environment and its use as supplementary information to help the GNSS receiver to be more pertinent. This approach aims to reduce the number of sensors in the localisation system, and consequently reduces its complexity and cost. The work performed in this thesis is devoted to provide more realistic pseudorange error models and reception channel model. After, a step of observation error characterization, several pseudorange error models have been proposed. These models are the finite gaussian mixture model and the Dirichlet process mixture. The model parameters are then estimated jointly with the state vector containing position by using adapted filtering solution like the Rao-Blackwellized particle filter. The noise model evolution allows adapting to an urban environment and consequently providing a position more accurate.Each step of this work has been tested and evaluated on simulation data and real data.
15

Analyse de signaux d'arrêts cardiaques en cas d'intervention d'urgence avec défibrillateur automatisé : optimisation des temps de pause péri-choc et prédiction d'efficacité de défibrillation / Analysis of cardiac arrest signals in emergency response with automated defibrillator : Peri-shock pauses optimization and prediction of the efficiency of defibrillation

Ménétré, Sarah 02 November 2011 (has links)
L'arrêt cardiaque est principalement d'étiologie cardio-vasculaire. Dans le contexte actuel des arrêts cardiaques extrahospitaliers, 20 à 25% des victimes présentent une fibrillation ventriculaire. Environ 3 à 5% des personnes sont sauvées sans séquelle neurologique. La survie à un arrêt cardiaque extrahospitalier dépend d'une prise en charge précoce et rapide de la victime. Les premiers témoins actifs réalisant la réanimation cardio-pulmonaire combinée à l'utilisation d'un défibrillateur sont ainsi un maillon important pour sauver la victime.Notre objectif principal est d'améliorer le taux de survie à un arrêt cardiaque extrahospitalier. Une première voie d'investigation est de proposer un fonctionnement de défibrillateur optimal combinant judicieusement les différents modules de détection embarqués (détection de fibrillation ventriculaire, détection de massage cardiaque, détection d'interférences électromagnétiques) afin de réduire les temps de pause péri-choc durant la procédure de réanimation. En effet, pendant ces temps, dits « hands-off » en anglais, aucun geste de secours n'est administré au patient qui, lui, voit d'une part sa pression de perfusion coronarienne chuter, d'autre part la probabilité de succès des tentatives de défibrillation décroître. C'est pourquoi une deuxième voie d'investigation porte sur la prédiction de l'efficacité de choc. Dans ce contexte, nous proposons de combiner des paramètres de l'électrocardiogramme dans les domaines temporel, fréquentiel et de la dynamique non-linéaire. Un classifieur bayésien utilisant le modèle de mélange de gaussiennes a été appliqué aux vecteurs de paramètres les plus prédicteurs de l'issue de la défibrillation et l'algorithme Espérance-Maximisation a permis de mener à bien la procédure d'apprentissage des paramètres du modèle probabiliste représentant les distributions conditionnelles de classe.L'ensemble des méthodes proposées a permis d'atteindre des résultats prometteurs pour à la fois réduire les temps de pause péri-choc et prédire l'efficacité de défibrillation et ainsi espérer améliorer le taux de survie à un arrêt cardiaque / The cardiac arrest is mainly of cardiovascular etiology. In the actual context of out-of-hospital cardiac arrests, 20 to 25% of the victims present a ventricular fibrillation. About 3 to 5% of the victims are saved without neurological damage. The chance of surviving a cardiac arrest outside an hospital depends on the early and fast support of the victim. The first active witnesses performing cardiopulmonary resuscitation combined with the use of a defibrillator are an important link to save the victim.Our main objective is to improve survival rate in out-of-hospital cardiac arrest cases. A first way of investigation is to propose an optimal functioning of defibrillator combining wisely the different processes of detection embedded (ventricular fibrillation detection, chest compressions detection, electromagnetic interferences detection), in order to reduce the peri-shock pauses during the resuscitation procedure. In fact, during these pauses, known as "hands-off" pauses, no emergency action is provided to the patient, what is correlated to a drop of the coronary pression, but also to a decrease of the chance of successful defibrillation. That is the reason why, a second way of investigation is based on the prediction of the efficiency of defibrillation. In this context, we propose to use a combination of parameters extracted from electrocardiogram in time, frequency and non-linear dynamics domains. A bayesian classifier using a gaussian mixture model was applied to the vectors of parameters, which are the most predictor of the defibrillation outcome and the algorithm Expectation-Maximization allowed to learn the parameters of the probabilistic model representing the class conditional distributions.All of the proposed methods allowed to reach promising results for both reducing the peri-shock pauses and predicting the efficiency of defibrillation in hope to improve the survival rate in cardiac arrest cases

Page generated in 0.085 seconds