• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 128
  • 40
  • 2
  • Tagged with
  • 565
  • 176
  • 166
  • 141
  • 105
  • 101
  • 87
  • 80
  • 77
  • 72
  • 68
  • 60
  • 58
  • 56
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Étude des concepts de filtrage robuste aux méconnaissances de modèles et aux pertes de mesures. Application aux systèmes de navigation

Sircoulomb, Vincent Ragot, José Chafouk, Houcine January 2008 (has links) (PDF)
Thèse de doctorat : Automatique et traitement du signal : INPL : 2008. / Titre provenant de l'écran-titre.
142

Filtrage, segmentation et suivi d'images échographiques : applications cliniques

Dahdouh, Sonia 23 September 2011 (has links) (PDF)
La réalisation des néphrolithotomies percutanées est essentiellement conditionnée par la qualité dela ponction calicièle préalable. En effet, en cas d'échec de celle-ci, l'intervention ne peut avoir lieu.Réalisée le plus souvent sous échographie, sa qualité est fortement conditionnée par celle du retouréchographique, considéré comme essentiel par la deuxième consultation internationale sur la lithiase pour limiter les saignements consécutifs à l'intervention.L'imagerie échographique est largement plébiscitée en raison de son faible coût, de l'innocuité del'examen, liée à son caractère non invasif, de sa portabilité ainsi que de son excellente résolutiontemporelle ; elle possède toutefois une très faible résolution spatiale et souffre de nombreux artefacts tels que la mauvaise résolution des images, un fort bruit apparent et une forte dépendance àl'opérateur.L'objectif de cette thèse est de concevoir une méthode de filtrage des données échographiques ainsiqu'une méthode de segmentation et de suivi du rein sur des séquences ultrasonores, dans le butd'améliorer les conditions d'exécution d'interventions chirurgicales telles que les néphrolithotomiespercutanées.Le filtrage des données, soumis et publié dans SPIE 2010, est réalisé en exploitant le mode deformation des images : le signal radiofréquence est filtré directement, avant même la formation del'image 2D finale. Pour ce faire, nous utilisons une méthode basée sur les ondelettes, en seuillantdirectement les coefficients d'ondelettes aux différentes échelles à partir d'un algorithme de typesplit and merge appliqué avant reconstruction de l'image 2D.La méthode de suivi développée (une étude préliminaire a été publiée dans SPIE 2009), exploiteun premier contour fourni par le praticien pour déterminer, en utilisant des informations purementlocales, la position du contour sur l'image suivante de la séquence. L'image est transformée pourne plus être qu'un ensemble de vignettes caractérisées par leurs critères de texture et une premièresegmentation basée région est effectuée sur cette image des vignettes. Cette première étape effectuée, le contour de l'image précédente de la séquence est utilisé comme initialisation afin de recalculer le contour de l'image courante sur l'image des vignettes segmentée. L'utilisation d'informations locales nous a permis de développer une méthode facilement parallélisable, ce qui permettra de travailler dans une optique temps réel.La validation de la méthode de filtrage a été réalisée sur des signaux radiofréquence simulés. Laméthode a été comparée à différents algorithmes de l'état de l'art en terme de ratio signal sur bruitet de calcul de USDSAI. Les résultats ont montré la qualité de la méthode proposée comparativement aux autres. La méthode de segmentation, quant-à elle, a été validée sans filtrage préalable, sur des séquences 2D réelles pour un temps d'exécution sans optimisation, inférieur à la minute pour des images 512*512.
143

Classification de courriels au moyen de diverses méthodes d'apprentissage et conception d'un outil de préparation des données textuelles basé sur la programmation modulaire : PDTPM

Ziri, Oussama 01 1900 (has links) (PDF)
Les technologies numériques de l'information et de la communication sont de plus en plus utilisées. Certes, ces technologies offrent des moyens de communication pratiques, mais elles soulèvent des préoccupations concernant la protection de la vie privée et le respect en ligne. Les utilisations malveillantes des courriels ne cessent de croître et la quantité de spams a rendu pratiquement impossible d'analyser les courriels manuellement. Vu ces problématiques, le besoin de techniques automatisées, capables d'analyser des données est devenu primordial. Plusieurs applications se basant sur l'apprentissage automatique se sont établies pour analyser des données textuelles de grand volume. Les techniques du « Text Mining » analysent des données textuelles en utilisant des méthodes d'apprentissage automatique afin d'extraire les principales tendances. Cependant, les techniques de « Text Mining » ne sont capables d'être utilisées que si les données sont déjà préparées et bien structurées. Cette recherche a deux objectifs : 1) Concevoir un outil original de préparation de données qui offre et regroupe des fonctionnalités primordiales dans l'étape de préparation de données textuelles. Nous n'avons pas trouvé ces fonctionnalités dans d'autres outils de préparation de données (Sato, Alceste, WordStat, NLTK) ce qui a créé un besoin de concevoir notre logiciel. Nous l'avons appelé outil de Préparation de Données Textuelles basé sur la Programmation Modulaire, PDTPM. 2) Application des méthodes d'apprentissage automatiques dédiées au « Text Mining » pour classifier un ensemble de courriels et détecter les spams. Pour le premier objectif, après avoir étudié le processus de préparation de données, l'étude propose un outil de Préparation de Données Textuelles. Cette plateforme permet de considérer en entrée un ensemble de données textuelles brutes et de générer en sortie ces données sous une forme bien structurée qui consiste en une matrice de données documents-mots. En ce qui concerne le deuxième objectif de notre recherche, nous explorons des courriels d'une base de données publique, Lingspam, pour les classifier au moyen de méthodes d'apprentissage automatique en spams et courriels légitimes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : text mining, apprentissage automatique, préparation des données textuelles, détection de spams, filtrage de courriels.
144

Analyse de texture et lissage optimal des images thermographiques par satellite

Albuisson, Michel 06 January 1976 (has links) (PDF)
Des satellites d'observation de la terre acquièrent des images de températures des corps visibles depuis l'espace. L'étude de ces images requiert un traitement et ce travail analyse différentes méthodes statistiques, tant descriptives qu'analytiques, susceptibles d'aider dans l'interprétation et éventuellement l'amélioration des images. Les données traitées sont tout d'abord présentées et nous montrons comment des méthodes de type descriptif, comme les histogrammes, peuvent aider à la visualisation des images et offrir une classification simple des images. La texture de ces images est ensuite étudiée en utilisant le concept de fonction aléatoire à support dans R2 et par le biais de l'analyse des données, nous avons construit une méthode de segmentation d'images en zones de texture homogènes. Cette méthode est utilisée pour bâtir un algorithme de lissage du bruit de fond affectant les images. Cet algorithme est de type moyenne mobile optimale et est adaptatif car prenant en compte la texture locale. Tous les algorithmes exposés ont fait l'objet d'une implémentation sur calculateur et plusieurs exemples d'application sont proposés.
145

Detection of thin, curvilinear structures : Advances, Algorihms and Implementations

Dokládal, Petr 01 July 2013 (has links) (PDF)
L'habilitation à diriger des recherches est une occasion de s'arrêter et prendre un moment pour faire le point sur le passé et de réfléchir sur l'avenir de sa carrière. Dans cette optique, ce mémoire est une rétrospective des douze dernières année de ma carrière, des années que j'ai passées au Centre de Morphologie Mathématique de Mines-ParisTech, où j'ai mené mes travaux de recherche. Dans ce mémoire, j'ai répertorié ces travaux autour de deux axes principaux. Le premier axe, méthodologique, fait état des avancées méthodologique de la détection d'objets fins. Le second axe - algorithmique - répertorie des algorithmes originaux, et mises en pratiques efficaces, toujours présentés dans le contexte de détection d'objets fins. Dans le cadre du premier axe, on répertorie trois contributions principales : - une approche morphologique variant dans l'espace, contrôlée par une analyse locale des structures, nommée approche morpho-hessienne. - ouverture parcimonieuses par chemins - est une variante parcimonieuse des ouvertures par chemin, obtenue en découplant la recherche des chemins et leur filtrage. Cette approche permet non seulement de définir des opérateurs nouveaux, mais également de baisser de manière significative la complexité et, par conséquent, le temps de calcul. - amincissement par attributs - basés sur un attribut original - le diamètre géométrique, permettent l'extraction d'éléments fins de manière très efficace. Dans le cadre du second axe - algorithmique - on répertorie des algorithmes originaux, et mises en pratiques efficaces, toujours présentés dans le contexte de détection d'objets fins. Dans ce volet, nous retrouvons: - un algorithme de dilatation 1-D et - deux algorithmes différents d'ouverture morphologique 1-D. Ces trois algorithmes présentes des propriétés intéressantes pour une mise en œuvre efficace. Dans le volet de mises en pratique efficaces nous retrouvons des réalisations pour des applications de traitement d'images travaillant sous fortes contraintes temps réel: - plusieurs réalisation matérielle (FPGA), et - une réalisation GPU, ont permis de valider l'efficacité calculatoire de ces algorithmes. Entre autre, nous avons pu proposer une première réalisation de processeur morphologique à taille de voisinage arbitrairement large. La taille du voisinage (même très grande) n'introduit ni de difficulté de réalisation, ni d'impact négatif sur l'efficacité de calcul. Un chapitre entier est consacré à la partie applicative, faisant état des collaborations industrielles. La section principale est consacrée aux applications industrielles, du domaine de sciences de matériaux, et plus particulièrement l'inspection ou le contrôle. Le deuxième section vient du domaine médical et biomédical. Enfin, une troisième section, plus courte, est consacrée aux applications spéciales ou embarquées. Ce mémoire est annexé par une sélection de mes principales publications scientifiques permettant de retrouver aisément les références bibliographiques les plus importantes de ce mémoire.
146

Pistage de cibles manoeuvrantes en radar passif par filtrage à particules gaussiennes

Jishy, Khalil 22 March 2011 (has links) (PDF)
Cette thèse porte sur l'application des techniques de filtrage statistiques au radar passif. L'objectif de cette thèse est d'adapter les méthodes à somme de gaussiennes et les méthodes particulaires pour la détection et/ou la poursuite dans un contexte multi-cible. Nous nous intéressons aux problématiques liées à des cibles fortement manoeuvrantes à rapport signal sur bruit pouvant être très faible. En guise d'application, la radio FM et la télévision numérique DVB-T seront exploitées comme sources d'opportunité par le système de localisation passive. Dans un premier temps, cette thèse récapitule l'état de l'art dans le domaine du radar passif, du filtrage statistique et des approches conventionnelles de pistage radar à base de données seuillées. Dans un deuxième temps, cette thèse explore l'apport du filtrage particulaire en radar passif. Avec une modélisation convenable du problème de poursuite d'une cible sous la forme d'un système dynamique non-linéaire, nous montrons comment le filtrage particulaire, appliqué sur les sorties bruitées (non-seuillées) du corrélateur, améliore les performances en terme de poursuite par rapport aux approches conventionnelles. Une extension au cas multi-cible est également traitée. L'ingrédient essentiel de l'algorithme proposé est l'intégration d'un système de synchronisation de l'instant d'échantillonnage du corrélateur (et le cas échéant de la fréquence de corrélation) qui permet à l'algorithme particulaire de compenser automatiquement la dynamique des cibles. Dans un troisième temps, nous exposons un nouveau système de détection/poursuite multi cible basé sur le filtrage bayésien avec la méthodologie "track-before-detect". Ce système est implémenté par une approximation à base de somme de gaussiennes ou une approximation à base de filtrage particulaire. Nous proposons également une technique d'annulation successive d'interférence qui permet de gérer la présence de lobes secondaires importants. Des simulations utilisant un signal radio FM, ont permis de confirmer le potentiel du système de détection/poursuite proposé.
147

Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles

Dubarry, Cyrille 09 October 2012 (has links) (PDF)
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles
148

Beamforming et détection pour signaux non circulaires et/ou non gaussiens (algorithmes et performance)

Oukaci, Abdelkader 30 November 2010 (has links) (PDF)
Cette thèse est consacrée à l'exploitation des propriétés de non circularité et de non gaussianité des signaux en traitement d'antennes.Dans une première partie de cette thèse, nous nous intéressons au contexte de la formation de voies (beamforming) pour la réception d'un signal utile inconnu, dont le vecteur directionnel est connu, corrompu par un bruit potentiellement non circulaire et/ou non gaussien. Dans des études récentes, un beamformer MVDR (Minimum Variance Distortionless Response) linéaire au sens large WL (Widely Linear) exploitant la non circularité au second ordre (SO) des interférences a été introduit et analysé. Cependant, ce beamformer demeure sous optimal pour la réception d'un signal utile non circulaire au SO, du moment où il n'exploite pas la non circularité de ce dernier. C'est ainsi, que notre contribution a porté principalement sur l'introduction, l'étude de performances et la mise en \oe uvre d'un beamformer MVDR WL. Ce dernier, basé sur une décomposition orthogonale originale du signal utile introduisant une contrainte supplémentaire, prend en considération la non circularité du signal utile et celle des interférences. L'étude des performances de ce beamformer a montré que ce dernier améliore toujours les performances en présence de signaux non circulaires. Dans le même contexte et pour la réception de signaux non gaussiens, nous avons introduit et étudié un beamformer MVDR non linéaire de Volterra. Ce beamformer dont les contraintes s'adaptent à la non circularité des brouilleurs, a été étudié à l'ordre trois sous sa forme équivalente GSC. Cette structure, dite complète, prend en compte conjointement des propriétés de non circularité et de non gaussianité des brouilleurs. L'analyse des performances en gains en SINR de ce récepteur est donnée pour la réception d'un signal réel corrompu par des brouilleurs non gaussiens et non circulaires d'ordre deux et quatre. Cette analyse a montré que la prise en considération de ces propriétés améliore toujours les performances. Dans une deuxième partie nous nous intéressons au contexte de détection selon deux volets: Le premier volet consiste en la détection d'un signal utile réel connu de paramètres inconnus, noyé dans un bruit total potentiellement non circulaire au SO et de matrice de covariance inconnue. Ainsi, suivant une approche basée sur le test de rapport de vraisemblance généralisé GLRT (Generalized Likelihood Ratio Test), de nouveaux récepteurs pour la détection d'un signal réel connu avec différents ensembles de paramètres inconnus ont été récemment introduits. Néanmoins, les performances de ces récepteurs, n'ont été que partiellement étudiées. Notre contribution a porté sur l'étude des distributions exactes et asymptotiques des statistiques associées au LRT et au GLRT sous H_0 et H_1. Cette étude a permis de donner les expressions théoriques exactes des probabilités de détection et de fausse alarme des récepteurs LRT, et celles asymptotiques pour certains récepteurs GLRT. Nous avons aussi complété cette analyse par des simulations Monte-Carlo en courbes ROC (Receiver Operating Characterisics) pour l'ensemble des détecteurs GLRT. Le deuxième volet, consiste en la détection de non circularité au SO de signaux aléatoires mono et multidimensionnels complexes. Nous avons donné la distribution asymptotique du GLR de non circularité sous H_0 et H_1 dérivé sous l'hypothèse de distribution gaussienne mais utilisée sous une distribution arbitraire non nécessairement gaussienne des données. Ces données considérées sont indépendantes, mais non nécessairement identiquement distribuées, ce qui permet de traiter des situations pratiques où les données non circulaires sont perturbées par un résidu de fréquence et un bruit additif gaussien circulaire. Cette analyse a été aussi complétée par des courbes ROC.
149

C.A.M.E.L.E.O. : a cultural adaptation methodology for E-learning environment optimization

Razaki, Ryad Adebola January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
150

Une architecture semi-supervisée et adaptative pour le filtrage d'alarmes dans les systèmes de détection d'intrusions sur les réseaux

Faour, Ahmad 19 July 2007 (has links) (PDF)
Nous étudions les limites actuelles des systèmes de traitement des alarmes générées par les systèmes de détection d'intrusion (NIDS) dans les réseaux et proposons une nouvelle approche automatique qui améliore le mécanisme de filtrage. Nos principales contributions se résument ainsi : 1. Proposition d'une architecture de filtrage : nous avons proposé une architecture de filtrage des alarmes qui analyse les journaux d'alertes d'un NIDS et essaye de filtrer les faux positifs. 2. Etude de l'évolutivité de cette architecture : dans cette phase, nous étudions l'aspect dynamique de l'architecture proposée. L'exploitation de l'architecture en temps réel pose plusieurs défis sur l'adaptation de cette architecture par rapport aux changements qui peuvent arriver au cours du temps. Nous avons distingué trois problème à résoudre : (1) adaptation de l'architecture vis à vis de l'évolution du réseau surveillé : intégration des nouvelles machines, des nouveaux routeurs, etc., (2) adaptation de l'architecture vis à vis de l'apparition de nouveaux types d'attaques et (3) adaptation de l'architecture avec l'apparition ou le glissement des comportements types. Pour résoudre ces problèmes, nous utilisons la notion de rejet en distance proposée en reconnaissance des formes et les tests d'hypothèses statistiques . Toutes nos propositions sont implémentées et ont donné lieu à des expérimentations que nous décrivons tout au long du document. Ces expériences utilisent des alarmes générées par SNORT, un système de détection des intrusions basé-réseau qui surveille le réseau du Rectorat de Rouen et qui est déployé dans un environnement opérationnel. Ce point est important pour la validation de notre architecture puisque elle utilise des alarmes issues d'un environnement réel plutôt qu'un environnement simulé ou de laboratoires qui peuvent avoir des limitations significatives.

Page generated in 0.0536 seconds