Spelling suggestions: "subject:"filtrage"" "subject:"filtrage""
1 |
Réseaux de neurones pour le traitement automatique du langage: conception et réalisatin de filtres d'informationsStricker, Mathieu 12 1900 (has links) (PDF)
En raison de l'augmentation constante du volume d'information accessible électroniquement, la conception et la mise en uvre d'outils efficaces, permettant notamment à l'utilisateur de n'avoir accès qu'à l'information qu'il juge pertinente, devient une nécessité absolue. Comme la plupart de ces outils sont destinés à être utilisés dans un cadre professionnel, les exigences de fiabilité et de convivialité sont très importantes; les problèmes à résoudre pour satisfaire ces exigences sont nombreux et difficiles. L'accès à cette information pertinente peut se faire en fournissant à un utilisateur des documents pertinents ou en lui proposant des passages de documents pertinents (ou des réponses à des questions). Le premier cas relève du domaine de la recherche de textes et le second du domaine de l'extraction d'informations. C'est dans le domaine très actif de la recherche de textes que s'est situé notre travail, réalisé dans le cadre d'une collaboration entre Informatique CDC, filiale de la Caisse des Dépôts et Consignations, et le Laboratoire d'Électronique de l'ESPCI. Le but de nos travaux a été de développer un modèle fondé sur l'apprentissage numérique pour la catégorisation de textes ou, plus précisément, pour ce qui correspond à la tâche de routing dans le découpage de la conférence TREC (Text REtrieval Conference). L'approche que nous avons conçue nous a permis d'obtenir un résultat très satisfaisant: nous avons remporté la tâche de "routing" de la compétition TREC 9, devançant notamment Microsoft. Le point essentiel de notre approche est l'utilisation d'un classifieur qui est un réseau de neurones dont l'architecture prend en considération le contexte local des mots. La mise en uvre d'une méthode de sélection des entrées nous a permis de réduire à une vingtaine le nombre de descripteurs de chaque texte; néanmoins, le nombre de paramètres reste élevé eu égard au nombre d'exemples disponibles (notamment lors de la compétition TREC 9). Il a donc été nécessaire de mettre en uvre une méthode de régularisation pour obtenir des résultats significatifs à l'issue des apprentissages. Nos résultats ont été validés d'une part grâce au corpus Reuters-21578 qui est souvent utilisé par la communauté de la catégorisation de textes, et d'autre part, par la participation aux sous-tâches de routing de TREC-8 et TREC-9, qui ont permis d'effectuer des comparaisons chiffrées avec d'autres approches. Nos travaux ont été intégrés dans l'application ExoWeb développée à la Caisse des Dépôts, pour y ajouter des fonctionnalités opérationnelles originales. Cette application offrait, sur l'intranet du groupe, un service de catégorisation de dépêches AFP en temps réel; cette catégorisation s'effectuait grâce à des modèles à bases de règles. La première fonctionnalité nouvelle résultant de nos travaux est un outil qui permet à l'administrateur du système de surveiller automatiquement le vieillissement de filtres construits sur des modèles à base de règles. L'idée de cette application est de fabriquer une "copie" d'un filtre à base de règles avec un filtre utilisant un réseau de neurones. Comme le réseau de neurones produit une probabilité de pertinence et non une réponse binaire, il est possible d'attirer l'attention de l'administrateur sur les documents pour lesquels les filtres et les réseaux de neurones fournissent des réponses divergentes: documents considérés comme pertinents par la méthode à base de règles, mais obtenant une probabilité proche de zéro avec le réseau de neurones, et documents considérés comme non pertinents avec le premier et obtenant une probabilité de pertinence proche de un avec le second. Nous avons également proposé les bases d'une deuxième application, qui permet à un utilisateur de fabriquer lui-même un filtre à sa convenance avec un travail minimum. Pour réaliser cette application, il est nécessaire que l'utilisateur fournisse une base de documents pertinents. Cela peut se faire grâce à l'utilisation d'un moteur de recherche conjointement avec un réseau de neurones ou uniquement grâce au moteur de recherche.
|
2 |
Développement d'une nouvelle algorithmie de localisation adaptée à l'ensemble des mobiles suivis par le système ARGOSLopez, Remy 15 July 2013 (has links) (PDF)
Depuis 1978, le système ARGOS assure à l'échelle mondiale la collecte de données et la localisation de plateformes pour des applications liées au suivi d'animaux, à l'océanographie et à la sécurité maritime. La localisation exploite le décalage Doppler affectant la fréquence de porteuse des messages émis par les plateformes et réceptionnés par des satellites dédiés. Au cours des vingt dernières années, les puissances d'émission des plateformes se sont réduites pour des conditions d'utilisation toujours plus extrêmes, augmentant le nombre de localisations de moindre qualité. Paradoxalement, les utilisateurs ont cherché à identifier des comportements à des échelles de plus en plus petites. L'objectif de ce projet est de développer un algorithme de localisation plus performant dans le contexte actuel afin de remplacer le traitement temps réel historique basé sur un ajustement par moindres carrés. Un service hors ligne, permettant de déterminer des localisations encore plus précises, est proposé dans un second temps. Le problème est reformulé comme l'estimation de l'état d'un système dynamique stochastique, tenant compte d'un ensemble de modèles de déplacement admissibles pour les plateformes. La détermination exacte de la loi a posteriori de l'état présente alors une complexité exponentiellement croissante avec le temps. Le filtre "Interacting Multiple Model" (IMM) est devenu l'outil standard pour approximer en temps réel la loi a posteriori avec un coût de calcul constant. Pour des applications hors ligne, de nombreuses solutions sous-optimales de lissage multi-modèle ont aussi été proposées. La première contribution méthodologique de ce travail présente l'extension du cadre initial de l'IMM à un ensemble de modèles hétérogènes, c.-à-d. dont les vecteurs d'état sont de tailles et de sémantiques différentes. En outre, nous proposons une nouvelle méthode pour le lissage multi-modèle qui offre une complexité réduite et de meilleures performances que les solutions existantes. L'algorithme de localisation ARGOS a été réécrit en y incorporant le filtre IMM en tant que traitement temps réel et le lisseur multi-modèle comme service hors ligne. Une étude, menée sur un panel de 200 plateformes munies d'un récepteur GPS utilisé comme vérité terrain, montre que ces stratégies améliorent significativement la précision de localisation quand peu de messages sont reçus. En outre, elles délivrent en moyenne 30% de localisations supplémentaires et permettent de caractériser systématiquement l'erreur de positionnement.
|
3 |
Acoustique longue portée pour transmission et localisation de signaux / Long-range acoustics for the transmission and localization of signalsOllivier, Benjamin 06 December 2016 (has links)
Le positionnement d'objets sous-marins représente un enjeu stratégique pour des applications militaires, industrielles et scientifiques. Les systèmes de positionnement reposent sur des signaux de type SONAR « Sound Navigation and Ranging ». Plusieurs émetteurs synchrones avec des temps d'émission connus sont alors considérés, l'objectif étant que la position d'un récepteur se fasse en fonction des positions des émetteurs. Nous avons la main mise sur la détection des signaux en réception d'une part, et sur le choix des formes d'ondes à l'émission d'autre part. La méthode de détection, basée sur le filtrage adapté, se veut robuste aux différentes perturbations engendrées par le canal de propagation (pertes par transmission, multi-trajets) et par le système lui-même (environnement multi-émetteurs). De plus, la détection restreinte à une somme de tests d'hypothèses binaires, nécessite un fonctionnement en temps réel. A l'émission, les formes d'ondes doivent permettre d'identifier indépendamment les émetteurs les uns des autres. Ainsi les travaux portent essentiellement sur les modulations FHSS, les paramètres de construction de ces signaux étant alors choisis de sorte à optimiser la méthode de détection étudiée. Enfin, l'implémentation des algorithmes issus de ces travaux sur des systèmes embarqués a permis leur validation sur des données enregistrées, puis en conditions réelles. Ces essais ont été réalisés avec l'entreprise ALSEAMAR, dans le cadre de la thèse CIFRE-DGA. / There is an increasing interest in underwater positioning system in industry (off-shore, military, and biology). In order to localize a receiver relative to a grid of transmitters, thanks to the knowledge of positions and transmission time, it needs to detect each signal and estimate the TOA (Time Of Arrival). Thus, a range between a transmitter and receiver can be deduced by estimation of TOA. When receiver knows three ranges at least, it can deduce its position by triangulation. This work takes into account signal detection, and waveform choice. Detection method, based on matched filter, needs to be robust face to propagation channel (transmission loss, multi-paths) and to the system (multi-users environment). Moreover, the detection structure, being a combination of binary hypothesis testing, must work in real time. In a CDMA context which requires to distinguish each transmitter, the FHSS (Frequency Hopped Spread Spectrum) modulation, allocating one code per user, is adapted. FHSS signals performance, depending of the number of frequency shifts N and the time-bandwidth product, are analyzed from detection criterion point of view. Moreover, detection method and adapted signal is tested in a shallow water environment.The research was supported by ALSEAMAR and DGA-MRIS scholarship.
|
Page generated in 0.0437 seconds