• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2778
  • 908
  • 407
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4152
  • 1301
  • 980
  • 903
  • 735
  • 732
  • 700
  • 633
  • 598
  • 578
  • 504
  • 393
  • 386
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1671

Sécurisation des smart cards par masquage de signal informationnel sur canal secondaire

Chaillan, Fabien 13 December 2006 (has links) (PDF)
Les cartes à puce, mondialement appelées Smart Cards, sont de véritables ordinateurs embarqués dont le but est d'effectuer des opérations de cryptographie et de stocker des données confidentielles, telles que des sommes d'argent, des informations biométriques, des droits d'accès. Il n'est donc pas étonnant que les pirates tentent de s'accaparer ces données, par des failles où la carte laisse fuir des informations capitales, appelées canaux secondaires. Le but de cette thèse est de concevoir des techniques de traitement du signal de masquage de signaux de consommation de courant. Un premier chapitre introductif présente l'univers de la carte à puce ainsi que les enjeux de sa sécurisation. Cela permet de fixer l'objectif à atteindre qui est de concevoir des techniques de masquage des signaux compatibles avec la technologie Smart Card. Le second chapitre présente l'étude et la caractérisation statistique d'un système dynamique chaotique servant à la genèse de nombres pseudo-aléatoires. Le chapitre suivant présente la méthode de masquage par décomposition des signaux, consistant à remplacer les échantillons du signal à masquer par les coefficients de son développement de Karhunen-Loève. Enfin, un dernier chapitre présente une autre technique de masquage des signaux où le modèle utilisé pour la consommation de courant est paramétrique. Le paramètre est estimé selon le critère du maximum de vraisemblance par une technique originale basée sur le couplage du filtrage adapté stochastique utilisé en détection avec l'algorithme Expectation-Maximization. Toutes les techniques sont validées à l'aide de signaux réels.
1672

Accurate 3D Shape and Displacement Measurement using a Scanning Electron Microscope

Cornille, Nicolas 20 June 2005 (has links) (PDF)
Avec le développement actuel des nano-technologies, la demande en matière d'étude du comportement des matériaux à des échelles micro ou nanoscopique ne cesse d'augmenter. Pour la mesure de forme ou de déformation tridimensionnelles à ces échelles de grandeur, l'acquisition d'images à partir d'un Microscope Électronique à Balayage (MEB) couplée à l'analyse par corrélation d'images numériques s'est avérée une technique intéressante. Cependant, un MEB est un outil conçu essentiellement pour de la visualisation et son utilisation pour des mesures tridimensionnelles précises pose un certain nombre de difficultés comme par exemple le calibrage du système et la correction des fortes distorsions (spatiales et temporelles) présentes dans les images. De plus, le MEB ne possède qu'un seul capteur et les informations tridimensionnelles souhaitées ne peuvent pas être obtenues par une approche classique de type stéréovision. Cependant, l'échantillon à analyser étant monté sur un support orientable, des images peuvent être acquises sous différents points de vue, ce qui permet une reconstruction tridimensionnelle en utilisant le principe de vidéogrammétrie pour retrouver à partir des seules images les mouvements inconnus du porte-échantillon.<br /><br />La thèse met l'accent sur la nouvelle technique de calibrage et de correction des distorsions développée car c'est une contribution majeure pour la précision de la mesure de forme et de déformations 3D aux échelles de grandeur étudiées. Elle prouve que, contrairement aux travaux précédents, la prise en compte de la dérive temporelle et des distorsions spatiales d'images est indispensable pour obtenir une précision de mesure suffisante. Les principes permettant la mesure de forme par vidéogrammétrie et le calcul de déformations 2D et 3D sont aussi présentés en détails. Dans le but de valider nos travaux et démontrer en particulier la précision de mesure obtenue, des résultats expérimentaux issus de différentes applications sont présentés tout au long de la thèse. Enfin, un logiciel rassemblant différentes applications de vision par ordinateur a été developpé.
1673

Transmission coopérative dans les réseaux sans-fil avec feedback distribué

De Kerret, Paul 17 December 2013 (has links) (PDF)
La coopération des transmetteurs dans les système multi-antennes a été reconnue comme un outil prometteur pour éviter ou aligner les interférence résultant d'une réutilisation agressive de la bande spectrale. Il est usuellement supposé que les estimées de canal sont parfaitement partagées entre tous les transmetteurs entrant en coopération, ce qui n'est pas adaptée à de nombreuses situations où des émetteurs éloignés visent à coopérer. C'est pourquoi nous étudions le cas de réseaux sans-fil où des transmetteurs émettent d'une manière coopérative bien qu'ils ne puissent échanger que d'une manière imparfaite l'information de canal obtenue localement. Ce partage imparfait de l'information de canal donne lieu à une configuration d'information de canal, dénotée comme " distribuée ", où chaque transmetteur reçoit une estimée du canal multi-utilisateurs qui lui est propre, à partir de laquelle il détermine ses paramètres de transmission. Nous étudions tout d'abord les conséquences de la configuration à information de canal distribuée sur le précodage. En particulier, nous mettons en évidence l'inefficacité des méthodes conventionnelles de précodage lorsque confrontées à une configuration à information de canal distribuée. Nous passons ensuite à un autre aspect de ce scenario, qui est la détermination de " qui doit savoir quoi ", lorsqu'il s'agit de l'information de canal disponible aux transmetteurs engagés dans la coopération. À l'opposé de la méthode gourmande en ressource qui consiste à allouer à chaque transmetteur la même information de canal, il est montrée comment une allocation non-uniforme de l'information de canal aux transmetteurs peut donner lieu à des gain importants, en fonction de la géométrie du réseau considéré.
1674

Indentification de système sous la contrainte de non-négativité - Applications dans filtrage adaptatif et analyse dimage hyperspectrale

Chen, Jie 28 January 2013 (has links) (PDF)
Dans de nombreux phénomènes de la vie réelle en raison des caractéristiques physiques inhérentes des systèmes, la non-négativité est une contrainte désirée et éventuellement imposée sur les paramètres à estimer. L'objectif de cette thèse est d'étudier les théories et algorithmes pour l'identification de système sous contraintes, en particulier la contrainte de non-négativité et celle de somme-à-un sur le vecteur de paramètres. La première partie de la thèse traite le problème de système d'identification en-ligne soumis la non-négativité. L'algorithme Non-negative Least-Mean-Square (NNLMS) et ses variantes sont proposés. Les comportements stochastiques de ces algorithmes dans des environnements non-stationnaires sont étudiés analytiquement. Enfin, l'extension de ces algorithmes nous permet de dériver un algorithme de type LMS avec la régularisation de norme L1 La deuxième partie de la thèse porte sur un problème d'identification système spécifique - démélange non-linéaire de spectres, avec la contrainte de non-négativité et celle de somme-à-un. Nous formulons un nouveau paradigme avec noyaux sous l'hypothèse que le mélange peut être décrite par un mélange linéaire de composantes spectrales, avec des fluctuations additives non-linéaires définies dans un espace de Hilbert à noyau reproduisant. Un algorithme basé sur l'apprentissage des noyaux, est proposé afin de déterminer les abondances de matériels purs sous les contraintes. Enfin, la corrélation spatiale entre pixels est utilisée comme information a priori pour améliorer la performance.
1675

Étude de la Dynamique des Ondes Spirales à l'Échelle Cellulaire par Modèles Expérimental et Numérique

Xu, Binbin 12 July 2012 (has links) (PDF)
Parmi les causes de décès d'origine cardiaque, les troubles du rythme occupent une place majeure, particulièrement les troubles auriculaires. Cette situation alarmante a motivé une recherche intense, mais qui est limitée par la disponibilité de modèles expérimentaux permettant de reproduire les mécanismes cellulaires de déclenchement et d'extensions de ces anomalies. Qu'ils surviennent sur un cœur sain ou pathologique, qu'ils soient bénins ou potentiellement dangereux (risque de mort subite), les troubles du rythme constituent un chapitre important de la cardiologie. Ils posent d'importants problèmes d'ordre diagnostique, pronostique, et thérapeutique. Ils peuvent se produire au niveau atrial (nœud auriculo-ventriculaire, plus tronc du faisceau de HIS avant sa division) ou ventriculaire (après la division du faisceau de HIS en ses deux branches droite et gauche), et ils obéissent à différents mécanismes, au premier rang desquels les réentrées et les hyperautomatismes. Cette thèse s'intéresse à l'étude et la modélisation des troubles du rythme cardiaque à l'échelle cellulaire. Ainsi la problématique de la thèse peut être résumée succinctement par ces quelques mots clés : système non-linéaire, modèles cardiaques, ondes spirales, défibrillation.... Une des questions qui a été soulevée est : comment optimiser le processus de défibrillation pour qu'il soit le moins contraignant pour le patient ? Nous avons commencé par nous intéresser à la défibrillation par stimulation électrique. La stimulation externe peut terminer la fibrillation mais peut aussi éventuellement générer de nouvelles ondes dans le tissu cardiaque. Ce dernier effet de stimulation semble inévitable, si l'énergie de stimulation dépasse certains seuils. Nous nous sommes posé alors une question: comment peut-on terminer la fibrillation en appliquant une stimulation sous le seuil pour éviter d'engendrer d'autres problèmes. Après quelques pistes de réflexion, nous nous sommes orientés vers une stratégie hybride de stimulation qui permet d'atteindre cet objectif. En parallèle de ces travaux, nous avons travaillé aussi sur un système expérimental à base de MEA (Multi Electrodes Array). Ce système nous permet d'acquérir des signaux de cellules cardiaques de rats nouveau-nés en culture in vitro. Etant donné que les données recueillies peuvent être bruitées et erronées, nous avons utilisé des ondelettes pour le débruitage et la méthode de décomposition par les valeurs singulières pour éliminer les mauvais signaux. Comme mentionné précédemment, la stimulation peut provoquer de nouvelles ondes dans le tissu, ceci a été observé expérimentalement sous forme d'ondes spirales. Les prochains travaux serviront à approfondir " la stimulation hybride " au niveau théorique. Ensuite en profitant de notre plateforme MEA, nous allons tester la stratégie de défibrillation par stimulation hybride au niveau expérimental.
1676

Filtrage anisotrope robuste régi par propagation de fronts : vers une segmentation automatique de volumes IRM

RAGOUBI HOR, Refka 17 April 2013 (has links) (PDF)
La segmentation fiable et précise des volumes anatomiques (normaux ou pathologiques) issus des systèmes d'imagerie reste un objectif important en traitement de l'information médicale car elle constitue le premier maillon de la chaîne d'analyse aboutissant à l'aide au diagnostic par l'étude de la morphologie des structures internes, à la détection et à la quantification de lésion. La segmentation est une étape délicate et difficile, en particulier pour les images IRM, pour lesquelles elle est principalement réalisée manuellement lorsqu'il y a des contraintes fortes de précision. Dans ce contexte, l'objectif de cette thèse est le filtrage des images IRM des structures osseuses articulaires du corps humain, en vue d'une aide efficace et précise à la segmentation. Une première contribution concerne le développement d'une méthode itérative de filtrage 3D anisotrope robuste. Elle permet de diffuser l'intensité des voxels selon leur appartenance à deux populations : forte diffusion pour les voxels situés à l'intérieur de régions homogènes afin de réduire le bruit, tout en empêchant cette diffusion de traverser les zones de transition (surfaces). Une comparaison rigoureuse de plusieurs fonctions d'arrêt de cette diffusion a été réalisée afin d'insérer, dans le modèle itératif, la fonction la plus pertinente. Le paramètre seuil partageant ces deux populations a été estimé de manière originale et efficace au regard de l'état de l'art. Ce schéma original de diffusion a été confronté aux méthodes de propagation de fronts. L'identification de ces deux modèles, actuellement dissociés dans la littérature, a permis de fusionner les deux approches en un schéma complet de diffusion anisotrope régie par propagation de fronts. Cette formulation a permis de contrer les désavantages de chacune des approches, à savoir i) la difficulté d'arrêter les schémas itératifs de diffusion, ii) la difficulté de mise en oeuvre des approches " level-sets " vis-à-vis des temps de calcul prohibitifs. Le schéma itératif proposé combine quatre termes liés à la diffusion, au contraste, aux données initiales et à la géométrie locale. En particulier, nous avons montré l'importance du "terme géométrique" qui remédie aux problèmes des discontinuités des contours après le filtrage. Une application sur données IRM d'articulations d'épaule, de hanche et de genou est présentée dans la partie test et validation. Les résultats sont quantifiés à l'aide de deux fonctions d'évaluation en contours et en régions. Elles démontrent une robustesse et une précision du modèle proposé dans l'élimination du bruit et la préservation des contours.
1677

Assimilation de mesures satellitaires dans des modèles numériques par méthodes de contrôle optimal

Van Den Berghe, François 11 December 1992 (has links) (PDF)
Nous nous intéressons aux méthodes permettant d'assimiler les données de télédétection. Il y a principalement deux types de technique : les méthodes séquentielles, issues du filtrage de Kalman et les méthodes variationnelles, basées sur les équations adjointes du contrôle optimal. Les méthodes variationnelles sont récentes et nous essayons de présenter leur intérêt pour la télédétection à l'aide de deux applications. Une première étude est menée sur un modèle numérique d'advection-diffusion. Elle montre la faisabilité numérique de la méthode : il est possible de minimiser une fonction de coût mesurant la distance entre la trajectoire du modèle et des observations réparties à la fois dans le temps et dans l'espace. La deuxième application est réalisée sur des observations effectuées par le diffusiomètre-vent embarqué à bord du satellite Seasat. Son objet est la cartographie des champs de vent à la surface des océans. Sur une période de douze heures, nous assimilons les observations dans un modèle numérique non linéaire, discrétisant l'équation de la vorticité sur un domaine rectangulaire couvrant à peu près tout l'océan Atlantique nord. Une comparaison entre les champs de vent, obtenus par l'assimilation variationnelle, et ceux produits par une assimilation séquentielle, met en évidence la propriété de rétro-propagation de l'information dans le temps que possèdent les équations adjointes. Il en résulte des analyses sensiblement meilleures, surtout en début de période d'assimilation, et une grande cohérence dynamique entre les champs analysés et le modèle numérique.
1678

Traitement d'images satellitaires appliqué à la cartographie numérique quantitative de la circulation océanique superficielle

Bianchi, Brigitte 22 April 1988 (has links) (PDF)
A partir d'une analyse diachronique de thermographies satellitaires, il est possible de calculer le courant à la surface de l'océan en faisant appel à l'équation de conservation de la chaleur, réduite à une équation d'advection instationnaire. Les thermographies sont issues des données des satellites de la série NOAA, équipés d'un capteur AVHRR. La résolution de l'équation passe par plusieurs étapes de traitement numérique. L'obtention des températures réelles de la mer requiert un étalonnage du capteur satellitaire ainsi qu'une correction des effets atmosphériques. Les thermographies sont rectifiées géométriquement afin de les rendre superposables. Elles sont ensuite filtrées afin d'éliminer les fréquences indésirables. La moyenne des deux thermographies fournira le gradient horizontal et leur différence, la dérivée temporelle. L'interpolation des isothermes en prenant appui sur une transformée en distance permettra d'augmenter le nombre de points de résolution de l'équation pour obtenir une meilleure cartographie du courant. Le champ de courant sera déterminé le long des isothermes interceptant un ensemble de points pour lesquels la fonction de courant est connue. La détermination automatique de la précision du modèle sera faite en parcourant de manière opposée la démarche utilisée pour calculer la fonction de courant. L'analyse d'un tourbillon issu du Gulf Stream et du courant dans le golfe du Lion illustre les différentes étapes de ce calcul du courant superficiel. Cette méthode de détermination du courant marin de surface est délicate à mettre en oeuvre car le nombre de points de résolution de l''équation est souvent très faible et il en résulte une cartographie du vecteur courant difficile à réaliser.
1679

Segmentation par contours actifs de séquences de vélocimétrie IRM Application aux artères carotides

Trebuchet, Guillaume 27 September 2013 (has links) (PDF)
La vélocimétrie par IRM est une modalité intéressante pour explorer des pathologies cardiovasculaires. La séquence d'IRM en contraste de phase a la particularité de fournir à la fois des informations anatomiques et des informations physiologiques, permettant ainsi de mesurer les propriétés géométriques des vaisseaux ainsi que leurs propriétés hémodynamiques. Le but de cette thèse est d'automatiser la segmentation des vaisseaux et les mesures de vélocimétrie, un traitement manuel étant inadapté à une exploitation de la vélocimétrie IRM à des fins diagnostiques en routine clinique. Les travaux menés ont conduit à proposer une méthode de segmentation basée sur les contours actifs guidés par une information région (approche " région "), contrairement aux approches classiques se focalisant uniquement sur les frontières inter-régions (approche " contour "). Cette approche " région " a été évaluée sur des données provenant d'un fantôme réalisé afin de disposer d'une référence objective. Une seconde évaluation a été réalisée sur une base de 28 carotides (14 patients) segmentées manuellement par un radiologue expert. Les résultats obtenus sur les données " fantôme " montrent que l'approche " contour " conduit à une erreur de mesure de l'aire de la lumière de la carotide segmentée et de la mesure du flux de respectivement 18.4 % et 3.6 %. Ces erreurs sont plus importantes que celles obtenues en utilisant l'approche proposée (respectivement 2.3 % et 0.7 %). Ce bénéfice apparaît encore bien supérieur sur la base de patients avec une sous-estimation des aires et débits sanguins de respectivement 40.5 % et 26.5 % pour l'approche " contour ", contre 14,7 et 6.4 % pour l'approche proposée.
1680

Apport de la fusion d'images satellitaires multicapteurs au niveau pixel en télédétection et photo-interprétation

Mangolini, Marc 15 November 1994 (has links) (PDF)
Le nombre croissant d'images de la Terre en provenance de capteurs satellitaires pose aux utilisateurs un problème d'exploitation, auquel la fusion de données semble pouvoir apporter des solutions. Ce travail illustre l'apport de la fusion de données en télédétection et en photo-interprétation, sur des données issues des capteurs SPOT, ERS-1, et Landsat, qui sont parmi les plus utilisés dans le domaine. Les spécificités et complémentarités de ces capteurs, de type optique (visible ou infrarouge) ou radar, ont été prises en compte pour réaliser une fusion dite hétérogène. Face à la grande diversité des méthodes de fusion de données, nous avons choisi de nous restreindre à la fusion au niveau pixel, c'est-à-dire proche du signal physique bidimensionnel, par opposition au niveau sémantique. Trois développements méthodologiques majeurs ont été réalisés. L'exploitation thématique des images satellitaires multispectrales se heurte souvent à une limitation de leur résolution spatiale. Afin d'y remédier, nous proposons une méthode, nommée ARSIS, qui utilise une image de meilleure résolution spatiale pour améliorer celle des images multispectrales, sans en modifier l'information spectrale. Les outils mathématiques mis en oeuvre sont l'analyse multirésolution, la transformée en ondelettes, et la modélisation des similitudes spectrales entre les images à fusionner. Des critères d'estimation de la qualité image des produits synthétisés ont été développés, pour pouvoir comparer la méthode ARSIS aux méthodes préexistantes, sur plusieurs scènes SPOT et Landsat. L'intérêt de la méthode ARSIS tient à sa richesse conceptuelle et à un réel gain en qualité spectrale par rapport aux autres méthodes. Nous avons également étudié quelques méthodes de représentation visuelle du volume de données, qui sont destinées à faciliter le travail de photo-interprétation et à améliorer la qualité de l'information extraite, mais aussi à concentrer l'important volume de données en un minimum d'images. Les méthodes de changement d'espace de représentation des données et l'utilisation de la couleur ont été expérimentées. Les critiques des photo-interprètes sur les produits réalisés ont mis en évidence la nécessité de prendre en compte les spécificités des capteurs pour la fusion de données hétérogènes. Nous avons donc développé une méthode de fusion hétérogène optique-radar, qui consiste à extraire les objets ponctuels à fort écho radar pour les représenter dans un contexte optique. Le troisième développement a porté sur la comparaison de différentes architectures de fusion, dont le rôle est de définir l'enchaînement des algorithmes qui constituent une méthode de fusion. L'application retenue est la classification automatique, très utilisée en télédétection, qui permet de comparer numériquement les performances des architectures grâce à l'utilisation d'une vérité terrain. Des architectures centralisée, décentralisée, et une architecture "mixte" sont présentées. Leurs avantages et inconvénients en ternes de contraintes opérationnelles, de souplesse d'utilisation, et de qualité de la classification sont discutés. Ces derniers sont illustrés par la comparaison des résultats de classification des différentes architectures, pour deux classificateurs et deux sites différents. Enfin, ce travail met clairement en évidence l'apport de la fusion en classification par rapport aux traitements monocapteurs.

Page generated in 0.11 seconds