• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Détection et classification des signaux non stationnaires par utilisation des ondelettes. Application aux signaux électromyographiques utérins

Chendeb, Marwa 14 March 2006 (has links) (PDF)
L'objectif de ce travail est de contribuer au développement de méthodes de choix de la meilleure base à partir d'une décomposition en paquets d'ondelettes pour la détection et la classification. Le cadre applicatif global est le choix de la meilleure base pour la détection d'événements dans le signal EMG utérin, utilisé pour la prévention des accouchements prématurés. Deux approches de modélisation sont utilisées pour mettre en évidence le contenu fréquentiel des événements. La première est fondée sur la décomposition discrète en ondelettes, la deuxième sur la décomposition en paquets d'ondelettes. La distance de Kullback Leibler est utilisée comme un critère du choix de la meilleure base pour la détection. La détection est effectuée sur les coefficients des paquets sélectionnés. Un décalage est généré différemment sur chaque paquet d'où la nécessité de redéfinir les vraies valeurs des instants de changement et d'appliquer une procédure de fusion pour avoir ensuite un seul instant de détection correspondant au signal original. Le choix des paquets les plus discriminants pour la classification est traité. Les événements détectés sont identifiés "physiologiquement" en utilisant les méthodes de K Plus Proches Voisins, la distance de Mahalanobis, les réseaux de neurones et les Machines à Vecteurs Support. Plus de 85% des événements ont été bien classifiés.
232

Diagnostic des systèmes embarqués en réseau. Application à un mini drone hélicoptère

Berbra, Cédric 12 November 2009 (has links) (PDF)
Les systèmes commandés en réseau sont des systèmes où le réseau est utilisé comme moyen de communication dans la boucle de commande. En conséquence, la qualité de commande (QoC) ou de la supervision de ces systèmes est directemenet liée à celle du réseau. Ce travail de doctorat aborde plusieurs problèmes. Le premier consiste à mettre au point un système de diagnostic performant permettant de détecter et localiser un défaut survenant sur un capteur particulier, une centrale d'attitude, embarqué dans un quadrotor. Le deuxième concerne la mise en oeuvre du système en réseau. Il faut tenir compte du réseau et de sa qualité de service (QoS) dans les algorithmes de commande et de diagnostic. Ensuite pour garantir les performances du système, il faut modifier la QoS du réseau. La réalisation d'une plateforme expérimentale a permis de valider les solutions proposées.
233

Analyse automatique de la qualité des images issues de détecteurs plats à rayons X

Le Meur, Yann 07 April 2009 (has links) (PDF)
Durant les dix dernières années, l'imagerie médicale a profité pleinement de l'essor technologique des techniques d'imagerie numérique. Dans le domaine de la radiographie X, les nouveaux détecteurs, possédant un encombrement réduit et une meilleure sensibilité, détrônent progressivement les anciennes techniques à film ou à tube. Cette thèse, préparée en partenariat avec l'entreprise Trixell, leader mondial des détecteurs plats pour radiographie médicale, traite du contrôle qualité des images issues de ces détecteurs. L'exigence du domaine médical impose un contrôle strict des défauts pouvant apparaître sur les images. Cette thèse est donc axée sur la conception d'une chaîne complète d'analyse de la qualité des images issues des détecteurs numériques. Un éclairage particulier est donné à la détection des défauts, parfois peu visibles, à l'aide de techniques de détection adaptées à notre contexte de défauts spatialement corrélés dans un fort bruit de fond.
234

Réalisation d'une plateforme biopuce sans marquage basée sur la lithographie douce

Lalo, Helene 16 March 2009 (has links) (PDF)
L'amélioration des biopuces et de leurs lecteurs est un enjeu crucial dans l'industrie actuelle qui réclame des méthodes d'analyses moléculaires plus sensibles et moins onéreuses. Dans ce but, plusieurs points doivent être revus : sensibilité du lecteur, densité des puces, marquage en fluorescence des biomolécules. Nous avons mis en place et développé différentes techniques de dépôt de molécules basées sur la lithographie douce ainsi qu'une technique de détection d'interaction biologique par diffraction afin de créer une plateforme biopuce complète, sans marquage et à bas coût. A travers ce mémoire de thèse, la structuration de diverses molécules à l'échelle nanométrique sur un substrat sera étudiée : structuration de dendrimères, de polymères à empreintes moléculaires (MIP), d'ADN. Nous verrons des techniques pour structurer des couches à l'échelle nanométrique par lithographie douce, mais sans avoir recours préalablement à la lithographie électronique pour créer les moules. De même, nous étudierons le " macrotimbre " qui permet le dépôt de plusieurs molécules différentes en une seule étape (multiplexage) par lithographie douce. Une technique de détection par diffraction de la lumière sera développée afin de passer outre l'étape de marquage qui porte le risque d'endommager la molécule et donc de dénaturer ses fonctions. Ce travail se place dans le cadre d'un projet de développement industriel en partenariat avec la société INNOPSYS et dont l'objectif est de démocratiser l'analyse biopuce en une solution financièrement accessible aux hôpitaux et aux laboratoires d'analyses et non plus seulement aux seuls organismes de recherche.
235

Diagnostic de fonctionnement par analyse en composantes principales : application à une station de traitement des eaux usées

Tharrault, Yvon 11 December 2008 (has links) (PDF)
L'objectif de cette thèse était de valider l'ensemble des informations délivrées par les capteurs utiles à la commande d'une station de traitement des eaux usées. Pour cela, nous avons utilisé l'analyse en composantes principales (ACP) pour effectuer la détection et localisation de défauts de capteurs de la station de traitement des eaux usées. Afin de construire un modèle ACP, nous avons eu recours à une matrice de données constituée de l'ensemble des mesures disponibles (obtenues lors du fonctionnement normal de la station de traitement des eaux usées) dans l'installation. Cependant, afin d'appliquer l'ACP, nous avons rencontré plusieurs difficultés :<br /><br />1. Présence dans les données de valeurs aberrantes (valeurs obtenues durant des périodes de démarrage, d'arrêt, de fonctionnement dégradé, erreurs de mesure, ...) perturbant la construction d'un modèle ACP.<br />2. Présence de défauts multiples, ce qui entraîne une explosion combinatoire des scénarii de défauts à considérer.<br /><br />Afin de résoudre le premier point, nous nous sommes intéressé aux variantes robustes de l'ACP. L'estimateur robuste MCD (Minimum Covariance Determinant), méthode de référence pour ses performances, nécessite un temps de calcul important, et une connaissance a priori de la quantité de valeurs aberrantes présente dans les données (inconnue). C'est la raison pour laquelle nous avons proposé une nouvelle méthode robuste, basée sur l'utilisation de MM-estimateur, nommée MMRPCA (MM-estimator Robust Principal Component Analysis). Concernant le point 2, une méthode d'analyse du modèle en terme de capacité de détection et de localisation a été appliquée afin de réduire le nombre de défauts à considérer. Les différentes méthodes développées ont été menées avec succès afin de valider les mesures issues des différents capteurs de la station d'épuration des eaux usées.
236

Détection d'homologies lointaines à faibles identités de séquences : Application aux protéines de la signalisation des dommages de l'ADN

MEYER, Vincent 26 January 2007 (has links) (PDF)
L'objectif de mon doctorat est de développer une méthode d'analyse des séquences protéiques permettant de cribler, le plus efficacement possible, les alignements non significatifs produits par le logiciel PSI-BLAST afin d'identifier des relations d'homologies lointaines. La stratégie développée repose sur deux étapes de criblage, une première s'appuyant sur les prédictions de structures secondaires, une seconde tirant profit du développement récent de méthodes de comparaison profil/profil performantes. La méthode développée a été initialement calibrée sur une base de données de séquences particulière. Cette base rassemble des séquences de domaines dont les structures sont connues permettant ainsi de contrôler l'existence effective d'homologues lointains. Cette phase a permis d'établir les seuils de détection optimaux permettant une utilisation semi-automatique du programme. Dans une seconde phase, la méthode a été testée sur un ensemble de 100 protéines impliquées dans la signalisation et la réparation des dommages de l'ADN. Au travers de différents exemples, nous montrons les potentialités du programme développé pour des recherches d'homologies lointaines à grande échelle. En particulier, mon étude suggère une nouvelle hypothèse pour comprendre l'origine d'une maladie rare, le syndrome de Nijmejen, provoqué par une mutation dans la protéine Nbs1.
237

Détection d'intrusions comportementale par diversification de COTS : application au cas des serveurs web

Majorczyk, Frédéric 03 December 2008 (has links) (PDF)
L'informatique et en particulier l'Internet jouent un rôle grandissant dans notre société. Un grand nombre d'applications critiques d'un point de vue de leur sécurité sont déployées dans divers domaines comme le domaine militaire, la santé, le commerce électronique, etc. La sécurité des systèmes informatiques devient alors une problématique essentielle tant pour les individus que pour les entreprises ou les états. Il est donc important de définir une politique de sécurité pour ces systèmes et de veiller à son respect. Néanmoins les mécanismes de sécurité préventifs mis en place ne sont pas incontournables. Il est nécessaire de mettre en œuvre des outils permettant de détecter toute violation de la politique de sécurité, c'est-à-dire toute intrusion. Ces outils sont appelés des systèmes de détection d'intrusions ou IDS. Souvent en collaboration avec les IDS, il est possible de mettre en place des outils et techniques de tolérance aux intrusions. Ces outils et techniques ont pour objectif que les intrusions affectant un composant du système n'entrainent pas de violations de la politique de sécurité du système global.<br />Notre travail s'inscrit dans le domaine de la détection d'intrusions, de manière essentielle, et permet une certaine tolérance aux intrusions. Contrairement aux méthodes de détection classiques en détection comportementale pour lesquelles il est nécessaire de définir et construire un modèle de référence du comportement de l'entité surveillée, nous avons suivi une méthode issue de la sureté de fonctionnement fondée sur la programmation N-versions pour laquelle le modèle de référence est implicite et est constitué par les autres logiciels constituant l'architecture. Nous proposons l'utilisation de COTS en remplacement des versions spécifiquement développées car développer N-versions est couteux et est réservé à des systèmes critiques du point de vue de la sécurité-innocuité. D'autres travaux et projets ont proposé des architectures fondées sur ces idées. Nos contributions se situent à différents niveaux. Nous avons pris en compte dans notre modèle général de détection d'intrusions les spécificités liées à l'utilisation de COTS en lieu et place de versions spécifiquement développées et proposé deux solutions pour parer aux problèmes induits par ces spécificités. Nous avons proposé deux approches de détection d'intrusions fondées sur cette architecture : l'une suivant une approche de type boite noire et l'autre suivant une approche de type boite grise. Notre méthode de type boite grise peut, en outre, aider l'administrateur de sécurité à effectuer un premier diagnostic des alertes. Nous avons réalisé une implémentation de ces deux approches dans le cadre des serveurs web et avons évalué pratiquement la pertinence et de la fiabilité de ces deux IDS.
238

Diagnostic et surveillance des processus complexes par réseaux bayésiens

Verron, Sylvain 13 December 2007 (has links) (PDF)
Cette thèse porte sur la surveillance (détection et diagnostic) des procédés multivariés par réseaux bayésiens. Ceci permet l'unification dans le même outil, un réseau bayésien, de plusieurs méthodes dédiées à la surveillance des procédés, telles que les cartes de contrôles multivariées, l'analyse discriminante ou bien la méthode MYT. Le premier chapitre expose les différents points clés de la surveillance des procédés, en étudiant les diverses approches permettant de réaliser celle-ci. Des méthodes de surveillance supervisées et non-supervisées sont présentées et une étude de différents classifieurs pour la surveillance est effectuée. Le choix d'un classifieur se porte alors sur les réseaux bayésiens. Le second chapitre est l'objet d'une présentation plus approfondie des réseaux bayésiens et des extensions possibles et intéressantes de ce genre d'outil dans le contexte de la surveillance des procédés. Puis, un état de l'art des méthodes de surveillance ou de diagnostic basées sur les réseaux bayésiens est étudié. Le troisième chapitre expose les contributions apportées au domaine de la surveillance des procédés par réseaux bayésiens. Les contributions apportées se répartissent en trois parties : détection, diagnostic supervisé et diagnostic nonsupervisé. En s'appuyant sur ces contributions, la structure complète d'un réseau bayésien dédié à la surveillance des procédés est proposée. Le dernier chapitre présente une application de la méthode proposée sur un exemple classique : le procédé Tennessee Eastman. Les performances du réseau en terme de détection et de diagnostic sont évaluées. Finalement, les conclusions et perspectives de l'approche proposée sont émises.
239

Outils de traitement d'images adaptés au traitement d'images omnidirectionnelles

Bigot-Marchand, Stéphanie 15 October 2008 (has links) (PDF)
Cette thèse est consacrée au développement d'outils de traitement adaptés aux images omnidirectionnelles grâce à la "sphère équivalente". En effet, l'utilisation directe de méthodes classiques (c'est-à-dire appropriées aux images réelles) sur des images omnidirectionnelles introduit des erreurs car elle ne prend pas en considération les distorsions introduites par le miroir. Projeter les images omnidirectionnelles sur cette sphère offre l'avantage de pouvoir effectuer les différents traitements sur un espace plus uniforme. Dans un premier temps, nous rappelons le principe de la vision omnidirectionnelle, puis nous nous attardons sur un capteur en particulier, celui composé d'une caméra observant un miroir parabolique. Nous donnons ensuite les éléments de démonstration pour justifier l'existence de la "sphère équivalente". Dans un second temps, nous présentons différents outils mathématiques (harmoniques sphériques, convolution sphérique...) nécessaires au développement de nos méthodes sphériques. Nous proposons ensuite la construction de plusieurs traitements bas-niveaux adaptés aux images sphériques : débruitage et détection de contours. Ces différentes méthodes ont fait l'objet de tests afin de déterminer leurs avantages par rapport aux "méthodes classiques" de traitements d'images omnidirectionnelles. Ces comparaisons ont mis en évidence l'avantage de ces "méthodes sphériques" qui offrent un traitement uniforme sur toute l'image.
240

CONTRIBUTION A L'ETUDE DE LA DIVERSITE GENETIQUE BACTERIENNE ET A LA CARACTERISATION DE BACTERIES PRESENTES DANS DES PRELEVEMENTS ATMOSPHERIQUES

Prieur, Agnès 04 September 2001 (has links) (PDF)
La détection, voire l'identification, de bactéries dans l'air trouve une large application dans le domaine civil (diagnostic médical, surveillance de la qualité des aliments, de l'eau, de l'air ou du sol,...) et militaire (défense biologique). L'objectif principal de cette thèse a été, d'une part, d'étudier la diversité génétique de Bacillus anthracis et, d'autre part, d'analyser la composition bactérienne de prélèvements atmosphériques. L'identification précise de souches de B. anthracis (étude de la diversité de cette espèce bactérienne) repose, d'une part, sur une approche par typage de répétitions en tandem et, d'autre part, sur une approche par typage de mutations ponctuelles. Les résultats obtenus par ces deux méthodes indépendantes sont en accord. Cependant, les répétitions en tandem apportent une bien meilleure résolution. L'étude de la composition bactérienne de l'air participe à la validation d'un système de détection. Celui-ci doit être capable de caractériser en moins d'une heure, la présence de quelques bactéries par litre d'air de l'environnement. Le protocole développé ici permet de détecter 1 pg d'ADN pur en moins de deux heures, sans faire appel à une étape d'amplification génique. L'analyse du bruit de fond atmosphérique tire parti de ce protocole, à l'exception de quelques modifications qui permettent d'analyser un plus grand nombre d'échantillons. Les résultats de quatre collectes soulignent que le bruit de fond atmosphérique peut varier de demi-heure en demi-heure. Le seuil de sensibilité de la méthode est d'environ 100 bactéries par litre d'air.

Page generated in 0.0988 seconds