• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Protocole de diffusion fiable pour réseaux locaux à diffusion

Khider, Amar 19 May 1983 (has links) (PDF)
Dans cette thèse, nous tentons, dans le cadre des réseaux locaux à diffusion, d'allier la performance des techniques de diffusion à la fiabilité des techniques de transport bi-points. A la suite d'une brève synthèse sur les réseaux locaux, nous présentons un protocole de conversation permettant d'utiliser la proprieté de diffusion dans les protocoles d'applications réparties. La définition des services offerts à l'utilisateur par ce protocole est suivie de l'étude et de la comparaison de deux approches de détection et de récupération des erreurs. Les autres mécanismes mis en oeuvre pour assurer ces services sont décrits. Une comparaison du protocole de conversation avec le protocole de connexion bi-points est effectuée et les algorithmes proposés sont simulés. Des éléments d'implémentation d'une station de transport à diffusion fiable sont présentés.
242

Détection de l'hybridation de l'ADN sur réseaux de transistors à effet de champ avec fixation polylysine

Gentil, Cédric 26 May 2005 (has links) (PDF)
Ce manuscrit présente l'étude d'une nouvelle méthode de détection électronique différentielle de l'hybridation entre nucléotides, utilisant des réseaux de transistors à effet de champ et une fixation des ADN sondes de type polylysine. Les structures employées sont des réseaux d'EOSFETs, possédant une interface du type électrolyte/oxyde/semi-conducteur (EOS), qui peuvent être immergés dans un électrolyte de mesure dans lequel est plongée une électrode de référence. <br />La première partie de ce travail détaille les expériences nous ayant permis de montrer le faisabilité d'une détection électronique d'abord de polylysine, puis d'ADN sur une réseau d'EOSFETs. Des micro- ou macro-gouttelettes de solutions contenant ces bio-polymères chargés ont été déposées en des endroits prédéfinis sur les réseaux de capteurs. Ces dépots locaux induisent des variations des caractéristiques courant-tension des transistors exposés, pouvant être corrélées à un apport de charges soit positives dans le cas de la polylysine, soit négatives en ce qui concerne l'ADN. Le signal électronique est proportionnel au nombre moyen d'oligonucléotides de 20 bases par unité de surface, tant que celui-ci reste inférieur à 1000-10000 molécules par µm², avec une variation de 10 mV pour 100 à 1000 molécules déposées par µm². Une saturation du signal électronique est observée au delà. La détection de micro-dépots de faibles concentrations en bio-polymères est limitée par l'existence de signaux électroniques parasites observés avec des solutions servant aux dilutions. La variations des signaux électroniques en fonction de la concentration en sel a également été caractérisée.<br />L'utilisation d'un protocole d'hybridation sur fixation polylysine, sans étape de blocage visant à limiter l'adsorption non spécifique de cibles a conduit à la mise en évidence d'un signal différentiel de l'ordre de 5 mV lors d'hybridations et de mesures dans un électrolyte de KCl 20 mM. L'hybridation à haut sel et la détection à bas sel permettent d'obtenir des différences d'environ 15 mV. Aucun signal électronique significatif d'appariement n'a été observé en utilisant un bloqueur. La sensibilité de détection électronique de l'hybridation, estimée à 100-1000 double-brins de 20 paires de bases par µm² est proche de celle associée à la technique classique de fluorescence (0,5 à 80 double-brins par µm²).
243

Décomposition et détection de structures géométriques en imagerie

Gilles, Jérôme 22 June 2006 (has links) (PDF)
Dans cette thèse, nous nous intéressons aux méthodes permettant de décomposer une image en deux parties: l'une contenant les structures (ou objets) de l'image et l'autre les textures. Le point de départ de ces travaux est le modèle proposé par Yves Meyer en 1999 puis les travaux de Jean-François Aujol pour les aspects algorithmiques.<br />Après une étude théorique de ces approches, nous proposons une extension au cas des images bruitées nous permettant d'obtenir alors une décomposition en trois composantes: structures + textures + bruit.<br />Par ailleurs, nous proposons une méthode spécifique en vue d'évaluer les résultats obtenus à partir des différents alggorithmes. <br />Enfin, nous présentons quelques applications des ces méthodes de décomposition d'image, notamment un algorithme de détection de réseaux routiers en imagerie aérienne ou satellitaire. Cet algorithme combine décomposition d'image, détection d'alignements par la théorie de la Gestalt et modèle déformable.
244

Surveillance et diagnostic des phases transitoires des systèmes hybrides basés sur l'abstraction des dynamiques continues par réseau de Petri temporel flou

Rocha Loures, Eduardo 18 January 2006 (has links) (PDF)
Les systèmes de surveillance et de supervision jouent un rôle majeur pour la sécurité des installations industrielles et la disponibilité des équipements. Signaler le plus tôt possible à l'opérateur les écarts détectés par rapport au comportement nominal prévu est fondamental pour la mise en œuvre des actions préventives et correctives sur le procédé. Certains types d'installations tels que les procédés chimiques et de traitement par lots (batch systems) présentent une grande complexité pour la commande/surveillance en raison de leur caractère hybride (aspects continus et discrets étroitement liés), du nombre de variables mis en jeu et de la complexité de leurs relations. Cette complexité est accentuée par la nécessité de nombreux changements de modes opératoires qui conduisent à de nombreuses phases transitoires. <br />La surveillance de ces phases transitoires est délicate. Le nombre élevé de variables à considérer rend difficile l'interprétation du comportement du procédé. En cas de défaut, un diagnostic devient alors une tâche complexe. Les écarts, même marginaux, par rapport au comportement nominal souhaité doivent être surveillés de façon à avertir l'opérateur sur des évolutions non prévues qui peuvent aboutir à une défaillance. Les écarts marginaux peuvent indiquer un dysfonctionnement qui dégénère lentement ou encore une conduite inadéquate de l'opérateur ou du système de pilotage. <br />Pour faire face à la complexité, le système de commande/surveillance est hiérarchisé selon la hiérarchie procédurale proposée par la norme ISA88. Notre démarche de surveillance et diagnostic se situe à deux niveaux hauts de cette hiérarchie procédurale : i) au niveau d'une opération et plus particulièrement lors du transitoire du mode opératoire (MOt) où les relations d'influence entre les variables sont faiblement connues ou non connues, ii) au sein d'une phase où les relations d'influence sont connues dans un intervalle de temps appartenant à l'horizon du mode opératoire.<br />Concernant la complexité des relations des variables mises en jeu, il n'est pas toujours facile et forcément nécessaire une modélisation précise de la dynamique du procédé. Dans ce cas, les approches qualitatives permettent une représentation avec un degré d'abstraction plus en adéquation avec le niveau haut de surveillance considéré. <br />Pour cela, nous proposons une abstraction des dynamiques continues basée sur un raisonnement temporel et événementiel compatibles avec les niveaux de la hiérarchie de surveillance. Cette abstraction est basée sur un partitionnement temporel flou de la dynamique des variables importantes définissant ainsi un ensemble d'états qualitatifs. Des mécanismes de vérification et de rétablissement de cohérence temporelle entre les variables sont proposés de façon à décrire les relations dynamiques locales existantes. Pour son pouvoir de représentation et pour rester cohérent avec une approche hiérarchique basée réseau de Petri, les Réseaux de Petri Temporels Flous ont été choisis.
245

Comparaison Vecteurs-Images pour la détection des changements des bâtiments d'une base de données topographiques

JAMET, Olivier 01 December 1998 (has links) (PDF)
Cette thèse s'attache à l'étude de la détection des changements du thème bâti, par comparaison automatique d'une base de données à un couple de photographies aériennes, en vue d'éviter l'examen visuel par un opérateur d'une partie des scènes traitées. La démarche adoptée propose une comparaison géométrique de la base de données avec les extractions 3D issues de l'appariement d'un couple d'images récent, et tente d'en assurer la fiabilité par une modélisation de l'incertitude des données utilisées. L'extraction d'information 3D sur le couple d'images fait l'objet d'une approche formelle qui conduit à la proposition d'un algorithme original permettant la mise en concurrence de solutions contradictoires, et la qualification des points extraits en 3D par une probabilité qui reflète l'ambiguité de la décision. Cette probabilité est utilisée conjointement à une modélisation sommaire de l'incertitude des données topographiques pour construire des indicateurs de changement dans le cadre de la théorie des croyances de Dempster-Shafer. Les modèles proposés sont évalués par rapport à des données réelles, tant en ce qui concerne la modélisation de l'appariement elle-même, que l'ensemble de la modélisation de l'incertitude, dont l'apport à la détection des changements est étudié dans le cadre du contrôle de l'emprise planimétrique du bâti de la Base de Données Topographiques nationale française.
246

Contribution à l'utilisation pratique de l'évaluation dynamique pour la détection d'endommagements dans les ponts

Alvandi, Alireza 10 October 2003 (has links) (PDF)
La thèse présente une démarche complète de l'évaluation structurale des ponts par essais dynamiques. Les deux enjeux essentiels traités sont respectivement la réalisation d'essais dynamique sous charge d'exploitation et la détection et/ou la localisation d'endommagements. Le premier objectif necessite le développement de techniques d'identification modale appropriées tandis que le second requiert la mise en uvre de méthodes d'évaluation performantes, sensibles, fiables ne reposant pas sur un modèle numérique aux éléments finis souvent inexistant.<br />La première partie de ce mémoire est consacrée à la problèmatique de l'identification modale sous excitation ambiante dont la réalisation d'essais vibratoires, le choix de l'excitation et l'intérêt de recourir à des sources d'excitation ambiante. Cette partie détaille en particulier une version vectorielle du décrément aléatoire qui sera largement utilisée pour identifier les paramètres modaux (fréquences propres, déformées propres et coefficients d'amortissement) des structures étudiées dans la thèse. Sa mise en uvre permet, notamment de déterminer diverses statistiques sur les estimateurs modaux.<br />La deuxième partie présente quelques stratégies de détection et de localisation des endommagements les plus couramment utilisées ne nécessitant que la connaissance des paramètres modaux de la structure ; il s'agit en particulier des méthodes de flexibilité, de courbure de flexibilité et de courbure des déformées propres. Parallèllement, une méthode de l'indicateur d'endommagement, basée sur l'étude de rapports d'énergie de déformation entre deux séries de mesures, est présentée en détail et généralisée aux cas de poutres tridimensionnelles et de plaques minces. En effectuant des simulations de Monte-Carlo, la sensibilité de ces méthodes et leur fiabilité à détecter et localiser des endommagements ont été aussi évaluées au travers de l'étude des probabilités de fausse alarme et de détection.<br />Afin de répondre à la problématique de la mise en oeuvre pratique de l'évalaution dynamique comme méthode de diagnostic, l'ensemble des développements théoriques est appliqué à de nombreux exemples expérimentaux de poutres et de ponts.
247

Surveillance de procédés à base de méthodes de classification : conception d'un outil d'aide pour la détection et le diagnostic des défaillances

KEMPOWSKI, Tatiana 14 December 2004 (has links) (PDF)
Les travaux présentés se situent dans le domaine de l'aide à la décision pour la surveillance de systèmes complexes tels que les procédés chimiques. Pour de tels procédés il n'est pas toujours possible de disposer d'un modèle mathématique ou structurel du système considéré. De ce fait, d'autres types d'approches telles que les méthodes de classification, doivent être envisagées pour l'identification des états fonctionnels dans lesquels le système peut se trouver. Sur la base de telles méthodes notre travail présente une stratégie permettant de construire, à partir de données historiques et de données récupérées en ligne, un modèle discret (états/transitions) du comportement du processus et d'identifier des situations anormales issues des dysfonctionnements. Cette stratégie consiste à générer un premier modèle de référence, sous la forme d'un automate à états finis, du procédé à partir d'un apprentissage, supervisé ou non. Ce modèle est ensuite validé et complété par l'expert. La reconnaissance en ligne permet de suivre l'évolution temporelle des modes de fonctionnement déjà identifiés. Dans le cas où une transition amène à la non-reconnaissance d'un certain nombre d'éléments, c'est-à-dire à la détection d'une déviation par rapport à un comportement connu, l'objectif est de caractériser cette nouvelle situation. Pour cela, nous proposons de faire un nouvel apprentissage hors ligne prenant en compte ces éléments non reconnus. Les nouvelles classes créées permettent, toujours en interaction avec l'expert, de fixer la nature de la déviation observée. Dans le cas d'une défaillance, une analyse portant sur les descripteurs et le profil des classes permet l'isolation de la défaillance. Ces informations sont transmises à l'opérateur pour l'assister dans son diagnostic. Un outil d'aide à la décision pour la surveillance s'appuyant sur cette stratégie a été mis en place. Cet outil appelé SALSA repose sur la méthode LAMDA. Il s'agit d'une méthode de classification avec apprent issage et reconnaissance de formes qui permet l'analyse de données multi-variables et qui utilise des notions de la logique floue pour introduire le concept d'adéquation d'un élément à une classe. Dans le cadre du projet européen CHEM les principaux aspects de nos travaux et les résultats obtenus ont été illustrés sur des unités industrielles de nature différente.
248

Méthodologie pour le placement des capteurs à base de méthodes de classification en vue du diagnostic

ORANTES MOLINA, Antonio 07 October 2005 (has links) (PDF)
Les travaux présentés se situent dans le domaine de l'aide à la décision pour la surveillance et le diagnostic de systèmes complexes tels que les procédés chimiques. Notre travail a permis de concevoir une méthodologie permettant de placer les capteurs les plus pertinents sur un processus en vue de son diagnostic à partir des données d'historiques. Cette méthodologie est basée sur l'association de méthodes de mesure de la quantité d'information (entropie de Shannon) délivrée par des signaux issus d'un système et de la classification de données. A partir des données d'évolution temporelle des capteurs (constituant l'ensemble de tous les possibles) suite à des scénarii de défaillance (par exemple simulés sur un simulateur dynamique), il est possible d'identifier les capteurs les plus pertinents et d'obtenir un modèle de comportement du processus à un niveau d'abstraction tel qu'il soit utilisable pour le diagnostic. Une procédure pour une adaptation du modèle dans le cas de reconnaissance défauts inconnus a été aussi proposée. Des tests de faisabilité sur des cas concrets industriels ont été effectués en simulation tout d'abord en utilisant un simulateur dynamique de procédés mondialement distribué dans l'industrie : HYSYS puis sur un nouveau réacteur chimique développé par le Laboratoire de Génie Chimique de Toulouse. Ces travaux rentrent dans le cadre d'un projet financé par l'Institut pour une Culture de Sécurité Industrielle (ICSI).
249

Amas de galaxies et effet Sunyaev-Zel'dovich : observations et étude des effets de sélection des sondages

Melin, J.-B. 25 June 2004 (has links) (PDF)
L'effet Sunyaev-Zel'dovich (SZ) est le nom donné à la diffusion Compton inverse des photons du fond diffus cosmologique sur les électrons du gaz chaud à l'intérieur des amas de galaxies. Dès 2005, cet effet permettra la détection de nouveaux amas à grand redshift grâce à des sondages SZ en aveugle. Ce travail vise à évaluer les performances scientifiques de la nouvelle génération d'instruments destinée à réaliser ces sondages. Un des objectifs principaux est l'étude des effets de sélection de ces instruments. Cette étude a nécessité la simulation de cartes SZ réalistes (via un code semi-analytique incluant corrélations spatiales et cinétiques) et la mise au point d'un algorithme d'extraction rapide d'amas (reposant sur l'utilisation de filtres adaptés). Le code de simulation et l'algorithme d'extraction ont été appliqués sur des données millimétriques récentes pour l'observation d'émissions SZ d'amas et l'estimation d'une contribution d'amas non résolus au spectre des anisotropies primaires du fond diffus cosmologique.
250

Génération de résidus directionnels pour le diagnostic des systèmes linéaires stochastiques et la commande

Jamouli, Hicham 19 December 2003 (has links) (PDF)
Ce travail porte sur le diagnostic et la commande tolérante aux défauts des systèmes linéaires stochastiques. Il se décompose en deux parties: - la première phase du travail présenté porte sur la conception d'un filtre de détection robuste. Il a été défini afin que le résidu directionnel qui en résulte soit le plus insensible possible aux incertitudes de modèle et aux incertitudes stochastiques. L'approche développée diffère des approches classiques existant dans la littérature car le filtre de détection est synthétisé sur la base d'une inversion du système. Une fois paramétrées toutes les inverses à gauche du système (pour remonter à la source des défauts) grâce à l'étude de la structure des zéros infinis du système, les degrés de liberté restant à disposition sont utilisés pour minimiser la sensibilité du résidu généré aux différentes perturbations stochastiques. Cette approche a permis de définir le filtrage d'état optimal d'une partie réduite du vecteur d'état du système de dimension maximale. En d'autres termes, l'effet des défauts sur l'erreur d'estimation d'état du filtre a été réduite à son maximum sous la contrainte que suffisamment d'informations restent disponibles pour les détecter et les localiser dans l'espace de sortie. - la deuxième partie concerne l'intégration du filtre de détection dans une commande tolérante aux défauts. La structure deadbeat de l'espace de détection du filtre est à la base de la conception de deux lois de commande tolérantes aux défauts à réactivité maximale. La première est basée sur le filtre de détection à état augmenté et sur le principe de séparation bien connu dans le cadre LQG. La loi de commande a été obtenue par un rejet des modes non contrôlables. Cette approche a débouché sur une commande de type LTR (Left Transfer Recovery) obtenue par le calcul explicite de l'inverse à gauche du système. Tout comme la première approche, la deuxième loi de commande se fonde sur le filtre de détection mais se caractérise par la définition optimale d'une loi de commande additive. Son application à un benchmark défini dans le cadre du projet IFATIS (Intelligent Fault Tolerant Control in Integrated Systems) a permis de mettre en avant la forte réactivité de la commande face à l'apparition brutale d'un ou de plusieurs défauts sur le système. Il s'avère en effet que la commande mise en oeuvre permet d'annuler plus rapidement les effets néfastes engendrés par les défauts en comparaison d'une commande de type PI standard toujours plus lente à réagir.

Page generated in 0.0605 seconds