• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 114
  • 37
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 489
  • 215
  • 173
  • 132
  • 102
  • 49
  • 48
  • 43
  • 39
  • 38
  • 36
  • 34
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Développement de méthodes de synthèse pour la conception de filtres hyperfréquences compacts et optimisés en pertes / Development of synthesis method for the design of compact and optimized in losses microwave filter

Basti, Ahmed 25 September 2014 (has links)
Pour les systèmes de communication par satellite, des filtres avec de très bonnes performances électriques sont indispensables afin de rejeter les signaux indésirables dans de nombreuses parties de la chaîne de communication. Les technologies fort-Q peuvent répondre à cette exigence mais elles conduisent souvent à des dispositifs encombrants. D'autre part, les technologies compactes faible-Q souffrent généralement d'une dégradation des performances électriques en termes de pertes d'insertion, de sélectivité et de platitude. Pour répondre à une demande croissante concernant la réduction de la taille, il est essentiel de développer des filtres hyperfréquences compacts avec des performances électriques améliorées.Pour le filtre de réception, le défi est de concevoir un filtre passe-bande compact avec une réponse plate dans la bande passante et une forte réjection hors bande. Les pertes d'insertion ne sont pas cruciales et peuvent être compensées par un amplificateur en laissant ainsi un espace pour la conception de filtre à pertes. Un tel filtre accepte des pertes supplémentaires, qui peuvent être distribués dans le réseau afin de fournir une transmission plate dans la bande passante et une forte sélectivité hors bande.Dans le cadre de cette thèse, des nouvelles méthodes de synthèse de dispositifs de filtrage ont été étudiées et développées dans le but d’améliorer les performances tout en conservant un encombrement réduit. Ces méthodes ont été validées pour la conception de filtres de récepteur dans la charge utile de satellites de télécommunication dans le cadre d’une collaboration entre le laboratoire Xlim, le Centre National d’Etudes Spatiales et Thales Alenia Space. / For satellite communication systems, high performance filters are needed in order to reject unwanted signals in many parts of the communication chain. High quality factor (Q) technologies can meet this requirement, but they often lead to bulky devices. On the other hand, compact technologies are generally low Q and suffer from a degradation of electrical performances in terms of insertion loss, selectivity and flatness. To meet a growing demand concerning size reduction, it is essential to develop compact microwave filters with improved electrical performances.For a receive filter, the challenge is to design a compact bandpass filter with a flat response in the passband and a sharp transition in the passband edges. The insertion loss is not crucial and it can be compensated by the amplifier, leaving a room to the design of a lossy filter. Such a filter accepts additional losses, which can be distributed in the network in order to provide a flat transmission in the passband and a sharp selectivity.In this thesis, new synthesis methods for filtering devices have been studied and developed to improve performances while maintaining a small footprint. These methods have been validated for the design of filters for a receiver in payload satellites as part of collaboration between the Xlim laboratory, the France National Space Centre and Thales Alenia Space.
22

Analyse du mouvement humain à l'aide d'un système de capture de mouvement

Hachem, Sarah January 2015 (has links)
Les récentes recherches en robotique ont étendu l’utilisation des robots au-delà des environnements industriels traditionnels. Les robots humanoïdes sont bien adaptés pour effectuer des tâches accomplies par l’homme, en raison de leurs formes et leurs capacités de mouvements «humaines». En général, les robots humanoïdes ont un torse, une tête, deux bras et deux jambes. Ils ont été développés pour effectuer des tâches humaines telles que l’assistance personnelle, où ils devraient être en mesure d’aider les personnes âgées ou malades, ou effectuer des missions dangereuses, etc. C’est pourquoi les chercheurs ont besoin d’extraire des connaissances sur le mouvement humain grâce à l’observation continue du comportement humain. Ceci aidera les robots à être capables d’effectuer et d’accomplir des tâches en interagissant avec un humain. Le mouvement humain peut être analysé grâce à des systèmes de capture de mouvement, par exemple le système Vicon. L’objectif principal du projet de recherche est de développer des algorithmes afin qu’un robot soit capable d’interagir avec un partenaire humain en temps réel. Dans le présent travail, nous proposons et validons un algorithme probabiliste complet pour la prédiction du mouvement humain, nous montrerons que le modèle d’inférence peut anticiper vigoureusement les actions de l’être humain. Notre approche est basée sur un algorithme intégrant les paramètres des GMMs (Gaussian Mixture Models) dans un filtre de Kalman.
23

Conception et Réalisation de filtres RF passe-bas à structures périodiques et filtres Ultra Large Bande, semi-localisés en technologie planaire

Kaddour, Darine 11 July 2007 (has links) (PDF)
La technologie planaire constitue une technologie attrayante pour la réalisation de filtres, en terme de coût, de volume, ainsi que des possibilités d'intégration. Dans ce contexte, le développement de filtres planaires sélectifs et peu encombrants est à l'heure actuelle un domaine d'activité d'un intérêt fondamental. Les travaux présentés dans ce manuscrit s'inscrivent dans cet axe de recherche. Après un état de l'art sur les différentes familles de filtres planaires, une nouvelle topologie de filtre passe-bas compact, constituée d'une ligne de propagation périodiquement chargée par des capacités CMS, est développée. Une méthode rigoureuse de conception est développée et des démonstrateurs hybrides en technologie CPW à 1 GHz sont réalisés. Les mesures, en très bon accord avec les simulations, valident des propriétés intéressantes en terme de réjection, d'adaptation et de remontées parasites. La montée en fréquence est également explorée par la réalisation d'un filtre passe-bas en bande X. Les résultats montrent la nécessité d'une caractérisation fine des capacités. Ensuite, une méthode de caractérisation des capacités est mise en oeuvre. Il s'avère que l'insertion des capacités dans des filtres passe-bas à structure périodique constitue un moyen précis et fiable de modélisation. Une topologie de filtre passe-bande à Ultra Large Bande, basée sur une imbrication d'un filtre passe-haut à stubs dans un filtre passe-bas à lignes capacitivement chargées, est mise en place. Les mesures des prototypes en technologie micro-ruban, en bon accord avec les simulations, montrent des propriétés intéressantes de sélectivité, de miniaturisation et de rejet de lobes secondaires.
24

Segmentation et suivi de structures curvilinéaires en imagerie interventionnelle

Honnorat, Nicolas 17 January 2013 (has links) (PDF)
Cette thèse traite de la segmentation et du suivi de structures curvilinéaires. La méthodologie proposée est appliquée à la segmentation et au suivi des guide-fils durant les interventions d'angioplastie. Pendant ces opérations, les cardiologues s'assurent que le positionnement des différents outils est correct au moyen d'un système d'imagerie fluoroscopique temps-réel. Les images obtenues sont très bruitées et les guides sont, en conséquence, particulièrement difficiles à segmenter. Les contributions de cette thèse peuvent être regroupées en trois parties. La première est consacrée à la détection des guides, la seconde a leur segmentation et la dernière a leur suivi. La détection partielle des guide-fils est réalisée soit par la sélection d'un opérateur de filtrage approprié soit en utilisant des méthodes modernes d'apprentissage artificiel. Dans un premier temps, un système réalisant un Boosting asymétrique pour entraîner un détecteur de guides est présenté. Par la suite, une méthode renforçant la réponse d'un filtre orientable au moyen d'une variante efficace de vote tensoriel est décrite. Dans la seconde partie, une approche ascendante est proposée, qui consiste à regrouper des points sélectionnés par le détecteur de fil, à extraire des primitives des agrégats obtenus et a les lier. Deux procédures locales de regroupement des points sont étudiées : une reposant sur un clustering de graphe non supervisé suivi d'une extraction de segments de droites ; et l'autre reposant sur un modèle graphique puis une extraction d'axe central. Par la suite, deux méthodes de liaison des primitives sont étudiées : la première repose sur une approche de programmation linéaire, et la seconde sur une heuristique de recherche locale. Dans la dernière partie, des méthodes de recalage sont utilisées pour améliorer la segmentation et pour suivre les fils. Le suivi propos'e couple un suivi iconique avec un suivi géométrique contenant un modèle prédictif. Cette méthode utilise un modèle graphique déterminant à la fois une position du guide-fil (segmentation) et des correspondances (tracking). La solution optimale de ce modèle graphique décrit simultanément les déplacements du guide-fil et les appariements entre points d'intérêt qui en sont extraits, fournissant ainsi une estimation robuste des déformations du fil par rapport aux grands déplacements et au bruit.
25

L’assimilation de données multivariées par filtre de Kalman d’ensemble pour la prévision hydrologique

Bergeron, Jean January 2017 (has links)
Le potentiel de l’assimilation d’un type d’observation pour la prévision hydrologique a été démontré dans certaines études. Cependant, le potentiel de l’assimilation simultanée de plusieurs types d’observations a été peu validé, particulièrement pour les données comprenant une information sur la neige au sol. De plus, l’amplitude et la durée de l’impact de l’assimilation de données peuvent dépendre du type de données assimilé, ainsi que du contenu du vecteur d’état employé pour mettre à jour les variables ou les paramètres du modèle hydrologique. La présente thèse examine l’impact de l’assimilation de données multivariées en fonction du type de données assimilé et du contenu du vecteur d’état pour la prévision hydrologique à court terme (horizon de prévision jusqu’à 5 jours) et moyen terme (horizon de prévision entre 25 et 50 jours). Le filtre de Kalman d’ensemble est employé pour assimiler les observations de l’équivalent en eau de la neige à trois endroits sur le bassin versant de la rivière Nechako, ainsi que le débit à l’exutoire, dans le modèle hydrologique CEQUEAU. Les scénarios d’assimilation sont premièrement testés dans un cadre synthétique afin d’identifier les variables les plus susceptibles à l’assimilation des données pour la prévision hydrologique. La robustesse des scénarios d’assimilation de données est ensuite testée en introduisant un biais sur les précipitations solides. Finalement, les observations réelles sont assimilées pour vérifier l’impact réel des scénarios pour la prévision hydrologique. Les résultats montrent une amélioration variable des prévisions hydrologiques en fonction des scénarios selon plusieurs critères de performance mesurant l’exactitude, le biais et la représentativité de l’incertitude représentée par les prévisions d’ensemble. L’assimilation du débit pour la mise à jour des variables améliore principalement les prévisions à court terme, tandis que l’impact de la mise à jour de certains paramètres persiste à moyen terme. L’assimilation de l’équivalent en eau de la neige améliore les prévisions à court et moyen terme, principalement pendant la période de fonte de neige. Pour la plupart des scénarios, l’assimilation simultanée du débit et de l’équivalent en eau de la neige surpasse l’assimilation des données individuellement. Ces résultats sont cohérents entre les cadres synthétique et réel.
26

Quelques considérations sur le filtre de Kalman discret

Belattar, Hichem January 2017 (has links)
Le filtre de Kalman est un outil mathématique qui a pour principe d'estimer l'état d'un système dynamique à partir d'observations partielles et généralement bruitées. Il prend en entrée une suite d'observations telle que chaque observation soit reliée à un état inconnu précis de façon linéaire. Le but sera d'estimer ces états de manière optimale et récursive. Nous allons étudier dans ce mémoire la théorie du filtre de Kalman avec plusieurs types de bruits (gaussien, exponentiels, khi-deux). Nous développerons un nouveau type d'initialisation basé sur la théorie des moindres carrés. Enfin nous tenterons d'adapter le filtre de Kalman au cas où les moyennes des bruits du système dynamique sont inconnues.
27

Continuité de service des convertisseurs triphasés de puissance et prototypage "FPGA in the loop" : application au filtre actif parallèle / Continuity of service of three-phase power converters and “FPGA in the Loop” prototyping : application to shunt active filter

Karimi, Shahram 26 January 2009 (has links)
Les convertisseurs statique à structure tension sont des éléments essentiels de nombreux systèmes d'électronique de puissance tels que les variateurs de vitesse des machines alternatives, les alimentations sans interruption et les filtres actifs. Les défaillances d’un convertisseur, qu’elles proviennent d’un des composants de puissance commandables ou d’un des capteurs mis en œuvre, conduisent à la perte du contrôle des courants de phase. Ces défaillances peuvent provoquer de graves dysfonctionnements du système, voire conduire à sa mise hors tension. Par conséquent, afin d'empêcher la propagation de défauts aux autres composants et assurer la continuité de service en présence de défaut, des méthodes efficaces et rapides de détection et de compensation de défauts doivent être mises en œuvre. Dans ces travaux de thèse nous avons étudié un convertisseur triphasé à structure tension "fault tolerant". Ce convertisseur assure la continuité de service, en mode normal, en présence de défauts éventuels d’un semi-conducteur ou d’un capteur de courant. Dans ces travaux, nous avons choisi comme cas d’application le filtre actif parallèle (FAP) triphasé afin de valider la continuité de service du convertisseur "fault tolerant" lors de défauts. Les résultats expérimentaux montrent les performances et l’efficacité du convertisseur "fault tolerant" proposé. Pour réduire autant que possible le temps de détection du défaut, nous avons ciblé un composant numérique de type FPGA (Field Programmable Gate Array). Nous avons également proposé dans ce mémoire un nouveau flot de conception et de prototypage dit "FPGA in the loop" qui permet de réduire le temps de développement. / Voltage source converters (VSC) are essential components of many power electronics systems such as variable speed AC machines, uninterrupted power supplies and active power filters. A sudden failure in one of the used power switches or the current sensors decreases system performances and leads to disconnect the system. Moreover, if the fault is not quickly detected and compensated, it can lead to hard failure. Hence, to reduce the failure rate and to prevent unscheduled shutdown, effective and fast fault detection and compensation schemes must be implemented. In this thesis work we have studied a fault tolerant VSC. This converter provides the continuity of service in the presence of a semiconductor or a current sensor fault. In this work, we have chosen the shunt active power filter application to validate the studied fault tolerant VSC performances. The experimental results confirms the satisfactory performances and efficiency of the proposed fault tolerant VSC. To minimize the fault detection time, we targeted a FPGA (Field Programmable Gate Array) component. We also proposed in this thesis a new methodology to design and prototype so-called “FPGA in the Loop” that will reduce development time of the digital controllers.
28

Fusion de données tolérante aux défaillances : application à la surveillance de l’intégrité d’un système de localisation / Fault tolerant data fusion : application on integrity monitoring of a localization system

Al Hage, Joelle 17 October 2016 (has links)
L'intérêt des recherches dans le domaine de la fusion de données multi-capteurs est en plein essor en raison de la diversité de ses secteurs d'applications. Plus particulièrement, dans le domaine de la robotique et de la localisation, l'exploitation des différentes informations fournies par les capteurs constitue une étape primordiale afin d'assurer une estimation fiable de la position. Dans ce contexte de fusion de données multi-capteurs, nous nous attachons à traiter le diagnostic, menant à l'identification de la cause d'une défaillance, et la tolérance de l'approche proposée aux défauts de capteurs, peu abordés dans la littérature.Nous avons fait le choix de développer une approche basée sur un formalisme purement informationnel : filtre informationnel d'une part, et outils de la théorie de l'information d'autre part. Des résidus basés sur la divergence de Kullback-Leibler sont développés. Via des méthodes optimisées de seuillage, ces résidus conduisent à la détection et à l'exclusion de ces défauts capteurs. La théorie proposée est éprouvée sur deux applications de localisation. La première application concerne la localisation collaborative, tolérante aux défauts d'un système multi-robots. La seconde application traite de la localisation en milieu ouvert utilisant un couplage serré GNSS/odométrie tolérant aux défauts. / The interest of research in the multi-sensor data fusion field is growing because of its various applications sectors. Particularly, in the field of robotics and localization, the use of different sensors informations is a vital step to ensure a reliable position estimation. In this context of multi-sensor data fusion, we consider the diagnosis, leading to the identification of the cause of a failure, and the sensors faults tolerance aspect, discussed in limited work in the literature. We chose to develop an approach based on a purely informational formalism: information filter on the one hand and tools of the information theory on the other. Residuals based on the Kullback-Leibler divergence are developed. These residuals allow to detect and to exclude the faulty sensors through optimized thresholding methods. This theory is tested in two applications. The first application is the fault tolerant collaborative localization of a multi-robot system. The second application is the localization in outdoor environments using a tightly coupled GNSS/odometer with a fault tolerant aspect.
29

Fusion multi-capteurs tolérante aux fautes pour un niveau d'intégrité élevé du suivi de la personne / High integrity personal tracking using fault tolerant multi-sensor data fusion

Daher, Mohamad 13 December 2017 (has links)
Environ un tiers des personnes âgées vivant à domicile souffrent d'une chute chaque année. Les chutes les plus graves se produisent lorsque la personne est seule et incapable de se lever, ce qui entraîne un grand nombre de personnes âgées admis au service de gériatrique et un taux de mortalité malheureusement élevé. Le système PAL (Personally Assisted Living) apparaît comme une des solutions de ce problème. Ce système d’intelligence ambiante permet aux personnes âgées de vivre dans un environnement intelligent et pro-actif. Le travail de cette thèse s’inscrit dans le cadre de suivi des personnes âgées avec un maintien à domicile, la reconnaissance quotidienne des activités et le système automatique de détection des chutes à l'aide d'un ensemble de capteurs non intrusifs qui accorde l'intimité et le confort aux personnes âgées. En outre, une méthode de fusion tolérante aux fautes est proposée en utilisant un formalisme purement informationnel: filtre informationnel d’une part, et outils de la théorie de l’information d’autre part. Des résidus basés sur la divergence de Kullback-Leibler sont utilisés. Via un seuillage adéquat, ces résidus conduisent à la détection et à l’exclusion des défauts capteurs. Les algorithmes proposés ont été validés avec plusieurs scénarii différents contenant les différentes activités: marcher, s’asseoir, debout, se coucher et tomber. Les performances des méthodes développées ont montré une sensibilité supérieure à 94% pour la détection de chutes de personnes et plus de 92% pour la discrimination entre les différentes ADL (Activités de la vie quotidienne). / About one third of home-dwelling older people suffer a fall each year. The most painful falls occur when the person is alone and unable to get up, resulting in huge number of elders which are associated with institutionalization and high morbidity-mortality rate. The PAL (Personally Assisted Living) system appears to be one of the solutions of this problem. This ambient intelligence system allows elderly people to live in an intelligent and pro-active environment. This thesis describes the ongoing work of in-home elder tracking, activities daily living recognition, and automatic fall detection system using a set of non-intrusive sensors that grants privacy and comfort to the elders. In addition, a fault-tolerant fusion method is proposed using a purely informational formalism: information filter on the one hand, and information theory tools on the other hand. Residues based on the Kullback-Leibler divergence are used. Using an appropriate thresholding, these residues lead to the detection and the exclusion of sensors faults. The proposed algorithms were validated with many different scenarios containing the different activities: walking, sitting, standing, lying down, and falling. The performances of the developed methods showed a sensitivity of more than 94% for the fall detection of persons and more than 92% for the discrimination between the different ADLs (Activities of the daily life).
30

Réseaux de neurones pour le traitement automatique du langage: conception et réalisatin de filtres d'informations

Stricker, Mathieu 12 1900 (has links) (PDF)
En raison de l'augmentation constante du volume d'information accessible électroniquement, la conception et la mise en uvre d'outils efficaces, permettant notamment à l'utilisateur de n'avoir accès qu'à l'information qu'il juge pertinente, devient une nécessité absolue. Comme la plupart de ces outils sont destinés à être utilisés dans un cadre professionnel, les exigences de fiabilité et de convivialité sont très importantes; les problèmes à résoudre pour satisfaire ces exigences sont nombreux et difficiles. L'accès à cette information pertinente peut se faire en fournissant à un utilisateur des documents pertinents ou en lui proposant des passages de documents pertinents (ou des réponses à des questions). Le premier cas relève du domaine de la recherche de textes et le second du domaine de l'extraction d'informations. C'est dans le domaine très actif de la recherche de textes que s'est situé notre travail, réalisé dans le cadre d'une collaboration entre Informatique CDC, filiale de la Caisse des Dépôts et Consignations, et le Laboratoire d'Électronique de l'ESPCI. Le but de nos travaux a été de développer un modèle fondé sur l'apprentissage numérique pour la catégorisation de textes ou, plus précisément, pour ce qui correspond à la tâche de routing dans le découpage de la conférence TREC (Text REtrieval Conference). L'approche que nous avons conçue nous a permis d'obtenir un résultat très satisfaisant: nous avons remporté la tâche de "routing" de la compétition TREC 9, devançant notamment Microsoft. Le point essentiel de notre approche est l'utilisation d'un classifieur qui est un réseau de neurones dont l'architecture prend en considération le contexte local des mots. La mise en uvre d'une méthode de sélection des entrées nous a permis de réduire à une vingtaine le nombre de descripteurs de chaque texte; néanmoins, le nombre de paramètres reste élevé eu égard au nombre d'exemples disponibles (notamment lors de la compétition TREC 9). Il a donc été nécessaire de mettre en uvre une méthode de régularisation pour obtenir des résultats significatifs à l'issue des apprentissages. Nos résultats ont été validés d'une part grâce au corpus Reuters-21578 qui est souvent utilisé par la communauté de la catégorisation de textes, et d'autre part, par la participation aux sous-tâches de routing de TREC-8 et TREC-9, qui ont permis d'effectuer des comparaisons chiffrées avec d'autres approches. Nos travaux ont été intégrés dans l'application ExoWeb développée à la Caisse des Dépôts, pour y ajouter des fonctionnalités opérationnelles originales. Cette application offrait, sur l'intranet du groupe, un service de catégorisation de dépêches AFP en temps réel; cette catégorisation s'effectuait grâce à des modèles à bases de règles. La première fonctionnalité nouvelle résultant de nos travaux est un outil qui permet à l'administrateur du système de surveiller automatiquement le vieillissement de filtres construits sur des modèles à base de règles. L'idée de cette application est de fabriquer une "copie" d'un filtre à base de règles avec un filtre utilisant un réseau de neurones. Comme le réseau de neurones produit une probabilité de pertinence et non une réponse binaire, il est possible d'attirer l'attention de l'administrateur sur les documents pour lesquels les filtres et les réseaux de neurones fournissent des réponses divergentes: documents considérés comme pertinents par la méthode à base de règles, mais obtenant une probabilité proche de zéro avec le réseau de neurones, et documents considérés comme non pertinents avec le premier et obtenant une probabilité de pertinence proche de un avec le second. Nous avons également proposé les bases d'une deuxième application, qui permet à un utilisateur de fabriquer lui-même un filtre à sa convenance avec un travail minimum. Pour réaliser cette application, il est nécessaire que l'utilisateur fournisse une base de documents pertinents. Cela peut se faire grâce à l'utilisation d'un moteur de recherche conjointement avec un réseau de neurones ou uniquement grâce au moteur de recherche.

Page generated in 0.0791 seconds