Spelling suggestions: "subject:"filtragem""
111 |
Développement d'un système passif de suivi 3D du mouvement humain par filtrage particulaireSaboune, Jamal 05 February 2008 (has links) (PDF)
Les chutes des personnes âgées à domicile présentent un problème important à cause de leur fréquence et de leurs conséquences médicales, psychologiques et économiques. Pour cela, l'idée d'une prévention des chutes s'avère nécessaire pour réduire leur nombre et leurs conséquences indésirables. Cette idée constitue la motivation principale des projets ANR PARAChute et Predica dont le but est de détecter une dérive vers la chute chez les personnes âgées à domicile. Ce travail de thèse s'inscrit dans le cadre de ce projet et a comme objectif de concevoir un système d'analyse de la marche qui devrait s'intégrer dans la méthode à proposer pour évaluer un risque de chute chez la personne âgée. Une étude des approches déjà adoptées pour évaluer l'équilibre dynamique d'une personne nous a permis d'identifier un certain nombre de paramètres et de tests validés comme étant pertinents pour la détection d'un risque de chute. Or, ces approches s'appuient sur des tests cliniques effectués par les gériatres ou sur l'utilisation de capteurs portables encombrants d'où la nécessité de développer un nouvel outil autonome et non encombrant pour extraire ces paramètres. Notre solution a été de concevoir un système de suivi 3D complet du mouvement humain, capable de nous fournir les positions de quelques points clé du corps durant la marche et à partir desquelles nous pouvons évaluer les paramètres recherchés. Le système de suivi développé utilise des images vidéo obtenues à l'aide d'un caméscope numérique grand public et ne nécessite pas l'intervention d'un opérateur ou l'usage de marqueurs portables. N'utilisant aucun modèle temporel de marche notre méthode est générique et simple. Elle est fondée sur un modèle 3D virtuel humanoïde et sur un nouvel algorithme de filtrage particulaire que nous avons développé dans le but d'estimer la configuration la plus probable de ce modèle vis à vis de l'image vidéo du corps réel. En raison de la nature non gaussienne et multimodale des densités de probabilité impliquées, l'usage d'une approche particulaire était nécessaire. L'algorithme développé, appelé 'Interval Particle Filtering' (IPF), réorganise l'espace de recherche des configurations probables du modèle virtuel d'une façon déterministe, efficace et optimisée. Dans le but de réduire la complexité de cet algorithme, une version factorisée utilisant les réseaux bayésiens dynamiques a été ensuite proposée. Cette version améliorée profite de la Rapport de thèse de Jamal Saboune 1 Résumé modélisation de la marche en une chaîne cinématique pour factoriser la construction du vecteur d'état et la fonction d'observation. En terme de reconstruction 3D, les résultats obtenus à l'aide de notre système de suivi sont assez satisfaisants. La comparaison des valeurs des paramètres recherchés, calculées à partir des positions 3D fournies par un système de référence et par l'algorithme (IPF), montre une erreur moyenne de mesure de 5%. Une étude du suivi longitudinal chez les personnes âgées sera alors nécessaire pour choisir les paramètres qui permettent de déceler une évolution vers un risque de chute chez les personnes âgées.
|
112 |
Reconstruction 3D de bâtiments en interférométrie RSO haute résolution: approche par gestion d'hypothèsesCellier, François 01 1900 (has links) (PDF)
Cette thèse présente une méthode de reconstruction 3D de bâtiments à empreinte à angles droits et à toit plat par morceaux, à partir d'images interférométriques RSO (RADAR à synthèse d'ouverture) haute résolution en bande X provenant du capteur RAMSES (ONERA). De part l'acquisition en visée latérale et la nature électromagnétique de l'onde RADAR, les images RSO sont très différentes des images optiques et difficilement interprétables. C'est pourquoi, une analyse géométrique et phénoménologique des images RSO est tout d'abord effectuée. Cette analyse permet de comprendre l'origine des primitives utilisées lors de la reconstruction. Pour réduire le chatoiement, les images RSO sont tout d'abord filtrées. Le filtre non paramétrique mean shift est introduit en imagerie RSO et étendu à l'image de cohérence. L'extraction des primitives est ensuite effectuée grâce à des algorithmes basés sur la transformée de Hough. La méthode de reconstruction utilise la gestion d'hypothèses car l'ensemble des primitives extraites ne suffit généralement pas à décrire le bâtiment complètement. Pour cela le bâtiment est décomposé de façon hiérarchique par un ensemble d'éléments (façade, toit etc.). La gestion d'hypothèses permet de générer l'ensemble des hypothèses de bâtiments à partir des primitives extraites. Ensuite, les hypothèses générées sont validées ou rejetées par la détection des incompatibilités géométriques et interférométriques. Enfin, un classement des hypothèses validées est effectué. En perspective, les contributions apportées dans cette thèse sont mises en avant en montrant leur adaptabilité à d'autres données (polarimétrie, meilleure résolution).
|
113 |
Traitement numérique du signal acoustique pour une aide aux malentendantsFillon, Thomas 12 1900 (has links) (PDF)
Pour un malentendant, le déficit auditif peut représenter un handicap majeur tant du point de vue physique que du point de vue social. Pour cette raison, la réhabilitation auditive constitue un champ d'application particulièrement important du traitement du signal audio et ses enjeux dépassent le seul contexte technologique. C'est dans ce cadre, et en particulier dans celui de la réhabilitation auditive par port de prothèses externes, que se situe ce travail de thèse. L'audition étant un sens particulièrement performant et complexe, compenser les pertes auditives des malentendants est une tâche difficile et délicate. En outre, les appareils sont conçus à partir d'éléments miniaturisés de pointe, notamment les micro-processeurs, ce qui impose des contraintes de fonctionnement très strictes. Au cours de nos recherches, nous avons travaillé sur la réalisation d'un module de rehaussement du signal de parole utilisant une technique d'atténuation spectrale à court-terme mise au point par Ephraïm et Malah. A l'issue de ce travail, nous avons proposé d'adapter cette méthode en réalisant l'analyse spectrale selon une échelle en fréquence conforme à notre perception auditive, l'échelle ERB (Equivalent Rectangular Bandwith) qui modélise la résolution fréquentielle des filtres auditifs. Dans un deuxième temps, nous avons étudié le problème de retour acoustique entre les transducteurs de la prothèse. Ce retour acoustique est source d'instabilité pour le système et aboutit fréquemment à la production d'un effet Larsen. Ce type de désagrément est extrêmement gênant et contraint l'audioprothésiste à limiter le gain d'amplification de la prothèse. De ce fait, la réhabilitation auditive ne peut pas être optimale. Pour pallier ce problème, nous proposons d'utiliser une méthode de filtrage adaptatif multi-délais basée sur le LMS (Least Mean Square) et réalisée dans le domaine de la transformée de Hartley. Du fait du retour acoustique, une prothèse auditive est un système électro-acoustique en boucle fermée. Les conditions d'application sont donc contraires aux hypothèses de convergence du LMS. Pour assurer la convergence de l'algorithme de descente de gradient, nous proposons une nouvelle méthode de définition du pas d'adaptation. Afin de vérifier le bon fonctionnement de la méthode proposée dans des conditions réalistes, nous avons mis en place une plate-forme de test en temps-réel basée sur un prototype de prothèses.
|
114 |
Fusion de données hétérogènes pour la perception de l'homme par un robot mobileGerma, Thierry 24 September 2010 (has links) (PDF)
Ces travaux de thèse s'inscrivent dans le cadre du projet européen CommRob impliquant des partenaires académiques et industriels. Le but du projet est la conception d'un robot compagnon évoluant en milieu structuré, dynamique et fortement encombré par la présence d'autres agents partageant l'espace (autres robots, humains). Dans ce cadre, notre contribution porte plus spécifiquement sur la perception multimodale des usagers du robot (utilisateur et passants). La perception multimodale porte sur le développement et l'intégration de fonctions perceptuelles pour la détection, l'identification de personnes et l'analyse spatio-temporelle de leurs déplacements afin de communiquer avec le robot. La détection proximale des usagers du robot s'appuie sur une perception multimodale couplant des données hétérogènes issues de différents capteurs. Les humains détectés puis reconnus sont alors suivis dans le flot vidéo délivré par une caméra embarquée afin d'en interpréter leurs déplacements. Une première contribution réside dans la mise en place de fonctions de détection et d'identification de personnes depuis un robot mobile. Une deuxième contribution concerne l'analyse spatio-temporelle de ces percepts pour le suivi de l'utilisateur dans un premier temps, de l'ensemble des personnes situées aux alentours du robot dans un deuxième temps. Enfin, dans le sens des exigences de la robotique, la thèse comporte deux volets : un volet formel et algorithmique qui tire pertinence et validation d'un fort volet expérimental et intégratif. Ces développements s'appuient sur notre plateforme Rackham et celle mise en oeuvre durant le projet CommRob.
|
115 |
Réduction de modèle par identification en convection forcée pour des systèmes soumis à des conditions aux limites thermiques instationnaires : application à l'écoulement le long d'une marche avec contrôle thermique par retour d'étatRouizi, Yassine 24 June 2010 (has links) (PDF)
Les travaux numériques décrits dans ce mémoire portent sur la réduction de modèle dans le domaine de la thermique et de la mécanique des fluides. Ces modèles réduits étant rapides en temps d'exécution, ils permettent la mise en place d'algorithmes de contrôle optimal. La construction des modèles réduits est réalisée à partir de la Méthode d'Identification Modale (MIM) développée au laboratoire depuis de nombreuses années. Cette méthode s'appuie sur la représentation d'état sous forme modale : le modèle réduit est identifié à travers la minimisation d'une fonctionnelle comprenant les paramètres du modèle et basée sur l'écart entre les réponses du modèle détaillé et celles du modèle réduit. Une application est proposée sur un écoulement le long d'une marche descendante, avec un flux de chauffage intervenant en amont de la marche. On montre comment on peut réduire de façon importante les temps de simulation, tout en gardant une très bonne précision. Sur cette application, nous proposons également une approche combinant la théorie de la commande optimale avec les modèles réduits obtenus par la MIM. Cette approche est utilisée pour trouver une loi de commande en flux permettant de maintenir un profil de température proche d'une consigne dans l'écoulement en aval de la marche.
|
116 |
COCoFil2 : Un nouveau système de filtrage collaboratif basé sur le modèle des espaces de communautésNguyen, An-Te 23 November 2006 (has links) (PDF)
Face au problème de la surcharge d'information, le filtrage collaboratif a pour principe d'exploiter les évaluations que des utilisateurs ont faites de certains documents, afin de recommander ces mêmes documents à d'autres utilisateurs proches de lui, et sans qu'il soit nécessaire d'analyser le contenu des documents. C'est ainsi qu'émerge la notion de communauté, définie comme un groupe de personnes qui partagent en général les mêmes centres d'intérêt. De notre point de vue, la problématique du filtrage collaboratif consiste à gérer de façon intelligente des communautés puisque, selon son principe de base, la qualité des recommandations dépend fondamentalement de la qualité des communautés formées par le système.<br />Le premier aspect de la gestion des communautés à étudier est la capacité des utilisateurs à percevoir des communautés. D'une part, la perception des communautés permet d'améliorer la confiance des utilisateurs dans les recommandations générées à partir de ces communautés, et par conséquent de les motiver à fournir des évaluations sur lesquelles appuyer la formation des communautés pour le filtrage collaboratif. D'autre part, cette capacité autorise les utilisateurs à explorer d'autres communautés potentiellement intéressantes.<br />Le second aspect à prendre en compte est les informations sur lesquelles appuyer la formation des communautés. On voit dans la réalité qu'une personne reçoit souvent toutes sortes de recommandations intéressantes de ses proches, de ses collègues de travail, etc. Nous émettons donc l'hypothèse que la multiplicité des critères pour former des communautés, incluant profession, centres d'intérêt, historique des évaluations, etc., peut être exploitée pour enrichir les recommandations générées pour un utilisateur.<br />Enfin, les communautés d'un utilisateur évoluent au cours du temps. En raison de la multiplicité des critères, la qualité du positionnement des utilisateurs au sein des communautés est conditionnée par la qualité des valeurs données pour chaque utilisateur à chaque critère. Certains critères demandent beaucoup d'efforts de la part des utilisateurs, et peuvent être coûteux également pour le système, d'où des difficultés à positionner les utilisateurs dans des communautés.<br />Ainsi, pour la gestion des communautés dans un système de filtrage collaboratif, nous proposons le modèle des espaces de communautés qui présente les caractéristiques suivantes : gestion des communautés explicites, formation multiple des communautés selon divers critères et stratégie de positionnement des utilisateurs au sein des communautés.<br />L'intégration de notre modèle des espaces de communautés dans un système de filtrage collaboratif permet donc d'améliorer l'exploitation des communautés formées à partir des critères disponibles dans les profils des utilisateurs. Nous présentons la plateforme du filtrage collaboratif COCoFil2 comme la mise en œuvre du modèle proposé ainsi que nos travaux de validation sur un jeu de données réelles.
|
117 |
Quelques applications des processus de diffusion: filtrage/statistique - contrôle - homogénéisationCampillo, Fabien 13 December 2004 (has links) (PDF)
Ce document se décompose en trois axes: – Le premier s'attache à différents problèmes de filtrage et de statistique pour des processus de diffusion partiellement observés. – Le deuxième traite d'un problème de contrôle stochastique de type ergodique. il s'agit de calculer des lois de commande pour des amortisseurs semi–actifs (contrat avec Renault). – Le dernier traite de quelques problèmes d'homogénéisation pour des processus aléatoires en milieux hétérogène. Il s'agissait à l'origine d'un contrat avec l'IFP pour le développement de méthodes de Monte Carlo pour le calcul de coefficients effectifs.
|
118 |
MODELISATION DES GRANDS SYSTEMES ELECTRIQUES INTERCONNECTES : APPLICATION A L'ANALYSE DE SECURITE DANS UN ENVIRONNEMENT COMPETITIFAlcheikh-Hamoud, Khaled 06 April 2010 (has links) (PDF)
La restructuration du secteur de l'énergie électrique et la dérégulation du marché de l'électrécité, les contraintes environnementales et dans certains cas des investissements insuffisants dans les infrastructures des systèmes électriques forment actuellement les principaux facteurs qui poussent les opérateurs des systèmes électriques à faire fonctionner ces derniers dans des conditions opérationnelles contraignantes, à savoir de plus en plus près de leurs limites de stabilité. En effet, afin de pouvoir exploiter leurs réseaux électriques avec des marges de sécurité réduites sans détérioration significative de la sûreté de fonctionnement, les gestionnaires des réseaux de transport (GRTs) ont récemment adopté un nouvel outil pour se prémunir contre le risque des pannes généralisées (blackouts) des réseaux électriques. Il s'agit de l'analyse en ligne de sécurité. A l'heure actuelle, en l'absence d'un coordinateur de sécurité central ou d'échanges complets de données en ligne entre tous les GRTs, l'analyse en ligne de sécurité des grands systèmes électriques interconnectés se fait d'une manière décentralisée au niveau du GRT de chaque zone de réglage. Le problème majeur de l'analyse décentralisée des systèmes interconnectés réside dans le fait que chaque GRT n'est pas capable d'évaluer la vulnérabilité de son système à l'égard des contingences externes originaires des zones de réglage voisines. Dans cette thèse, nous proposons comme solution à ce problème un nouveau cadre de coopération et de coordination entre les GRTs. Dans ce cadre, les GRTs s'échangent en ligne et hors ligne les données nécessaires permettant à chacun d'entre eux premièrement d'évaluer l'impact de ses contingences externes sur la sécurité de sa zone, deuxièmement de concevoir, en utilisant des techniques d'apprentissage automatique, des filtres qu'il utilise ensuite en ligne pour le filtrage rapide de ses contingences externes de sorte que seules les contingences externes potentiellement dangereuses soient sélectionnées pour une analyse détaillée en ligne.
|
119 |
Un système de types pour la programmation par réécriture embarquéeTavares, Cláudia 02 March 2012 (has links) (PDF)
Dans le domaine de l'ingénierie du logiciel, les systèmes de types sont souvent considérés pour la prévention de l'occurrence de termes dénués de sens par rapport à une spécification des types. Dans le cadre de l'extension d'un langage de programmation avec des caractéristiques dédiées, le typage de ces dernières doit être compatible avec les caractéristiques du langage hôte. Cette thèse se situe dans le contexte de la réécriture de termes embarquée dans la programmation orientée objet. Elle vise à développer un système de types avec sous-typage pour le support du filtrage de motifs associatif sur des termes algébriques construits sur des opérateurs variadiques. Ce travail s'appuie sur le langage de réécriture Tom qui fournit des constructions de filtrage de motifs et des stratégies de réécriture à des langages généralistes comme Java. Nous décrivons l'évaluation de code Tom à travers la définition de la sémantique opérationnelle de ce langage en tant qu'élément essentiel de la preuve de la sûreté du système de types. Celui-ci inclut la vérification de types ainsi que l'inférence de types à base de contraintes. Le langage de contraintes est composé d'une part, de contraintes d'égalité, résolues par unification, d'autre part, de contraintes de sous-typage, résolues par la combinaison de phases de simplification, de génération d'une solution et de ramassage de miettes. Le système de types a été intégré au langage Tom, ce qui permet une plus forte expressivité et plus de sûreté a fin d'assurer que les transformations décrites par des règles de réécriture préservent le type des termes.
|
120 |
Méthodes probabilistes basées sur les mots visuels pour la reconnaissance de lieux sémantiques par un robot mobile.Dubois, Mathieu 20 February 2012 (has links) (PDF)
Les êtres humains définissent naturellement leur espace quotidien en unités discrètes. Par exemple, nous sommes capables d'identifier le lieu où nous sommes (e.g. le bureau 205) et sa catégorie (i.e. un bureau), sur la base de leur seule apparence visuelle. Les travaux récents en reconnaissance de lieux sémantiques, visent à doter les robots de capacités similaires. Ces unités, appelées "lieux sémantiques", sont caractérisées par une extension spatiale et une unité fonctionnelle, ce qui distingue ce domaine des travaux habituels en cartographie. Nous présentons nos travaux dans le domaine de la reconnaissance de lieux sémantiques. Ces derniers ont plusieurs originalités par rapport à l'état de l'art. Premièrement, ils combinent la caractérisation globale d'une image, intéressante car elle permet de s'affranchir des variations locales de l'apparence des lieux, et les méthodes basées sur les mots visuels, qui reposent sur la classification non-supervisée de descripteurs locaux. Deuxièmement, et de manière intimement reliée, ils tirent parti du flux d'images fourni par le robot en utilisant des méthodes bayésiennes d'intégration temporelle. Dans un premier modèle, nous ne tenons pas compte de l'ordre des images. Le mécanisme d'intégration est donc particulièrement simple mais montre des difficultés à repérer les changements de lieux. Nous élaborons donc plusieurs mécanismes de détection des transitions entre lieux qui ne nécessitent pas d'apprentissage supplémentaire. Une deuxième version enrichit le formalisme classique du filtrage bayésien en utilisant l'ordre local d'apparition des images. Nous comparons nos méthodes à l'état de l'art sur des tâches de reconnaissance d'instances et de catégorisation, en utilisant plusieurs bases de données. Nous étudions l'influence des paramètres sur les performances et comparons les différents types de codage employés sur une même base.Ces expériences montrent que nos méthodes sont supérieures à l'état de l'art, en particulier sur les tâches de catégorisation.
|
Page generated in 0.0507 seconds