• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Exploitation de la parcimonie pour la détection de cibles dans les images hyperspectrales / Exploitation of Sparsity for Hyperspectral Target Detection

Bitar, Ahmad 06 June 2018 (has links)
Le titre de cette thèse de doctorat est formé de trois mots clés: parcimonie, image hyperspectrale, et détection de cibles. La parcimonie signifie généralement « petit en nombre ou quantité, souvent répartie sur une grande zone ». Une image hyperspectrale est constituée d'une série d'images de la même scène spatiale, mais prises dans plusieurs dizaines de longueurs d'onde contiguës et très étroites, qui correspondent à autant de "couleurs". Lorsque la dimension spectrale est très grande, la détection de cibles devient délicate et caractérise une des applications les plus importantes pour les images hyperspectrales. Le but principal de cette thèse de doctorat est de répondre à la question « Comment et Pourquoi la parcimonie peut-elle être exploitée pour détecter de cibles dans les images hyperspectrales ? ». La réponse à cette question nous a permis de développer des méthodes de détection de cibles prenant en compte l'hétérogénéité de l'environnement, le fait que les objets d'intérêt sont situés dans des parties relativement réduites de l'image observée et enfin que l'estimation de la matrice de covariance d'un pixel d'une image hyperspectrale peut être compliquée car cette matrice appartient à un espace de grande dimension. Les méthodes proposées sont évaluées sur des données synthétiques ainsi que réelles, dont les résultats démontrent leur efficacité pour la détection de cibles dans les images hyperspectrales. / The title of this PhD thesis is formed by three keywords: sparsity, hyperspectral image, and target detection. Sparsity is a word that is used everywhere and in everyday life. It generally means « small in number or amount, often spread over a large area ». A hyperspectral image is a three dimensional data cube consisting of a series of images of the same spatial scene in a contiguous and multiple narrow spectral wavelength (color) bands. According to the high spectral dimensionality, target detection is not surprisingly one of the most important applications in hyperspectral imagery. The main objective of this PhD thesis is to answer the question « How and Why can sparsity be exploited for hyperspectral target detection? ». Answering this question has allowed us to develop different target detection methods that mainly take into consideration the heterogeneity of the environment, the fact that the total image area of all the targets is very small relative to the whole image, and the estimation challenge of the covariance matrix (surrounding the test pixel) in large dimensions. The proposed mehods are evaluated on both synthetic and real experiments, the results of which demonstrate their effectiveness for hyperspectral target detection.
62

Contributions statistiques à l'analyse de mégadonnées publiques / Statical contributions to the analysis of public big data

Sainct, Benoît 12 June 2018 (has links)
L'objectif de cette thèse est de proposer un ensemble d'outils méthodologiques pour répondre à deux problématiques : la prédiction de masse salariale des collectivités, et l'analyse de leurs données de fiscalité. Pour la première, les travaux s'articulent à nouveau autour de deux thèmes statistiques : la sélection de modèle de série temporelle, et l'analyse de données fonctionnelles. Du fait de la complexité des données et des fortes contraintes de temps de calcul, un rassemblement de l'information a été privilégié. Nous avons utilisé en particulier l'Analyse en Composantes Principales Fonctionnelle et un modèle de mélanges gaussiens pour faire de la classification non-supervisée des profils de rémunération. Ces méthodes ont été appliquées dans deux prototypes d'outils qui représentent l'une des réalisations de cette thèse. Pour la seconde problématique, le travail a été effectué en trois temps : d'abord, des méthodes novatrices de classification d'une variable cible ordinale ont été comparées sur des données publiques déjà analysées dans la littérature, notamment en exploitant des forêts aléatoires, des SVM et du gradient boosting. Ensuite, ces méthodes ont été adaptées à la détection d'anomalies dans un contexte ciblé, ordinal, non supervisé et non paramétrique, et leur efficacité a été principalement comparée sur des jeux de données synthétiques. C'est notre forêt aléatoire ordinale par séparation de classes qui semble présenter le meilleur résultat. Enfin, cette méthode a été appliquée sur des données réelles de bases fiscales, où les soucis de taille et de complexité des données sont plus importants. Destinée aux directions des collectivités territoriales, cette nouvelle approche de l'examen de leur base de données constitue le second aboutissement de ces travaux de thèse. / The aim of this thesis is to provide a set of methodological tools to answer two problems: the prediction of the payroll of local authorities, and the analysis of their tax data. For the first, the work revolves around two statistical themes: the selection of time series model, and the analysis of functional data. Because of the complexity of the data and the heavy computation time constraints, a clustering approach has been favored. In particular, we used Functional Principal Component Analysis and a model of Gaussian mixtures to achieve unsupervised classification. These methods have been applied in two prototypes of tools that represent one of the achievements of this thesis. For the second problem, the work was done in three stages: first, innovative methods for classifying an ordinal target variable were compared on public data, notably by exploiting random forests, SVM and gradient boosting. Then, these methods were adapted to outlier detection in a targeted, ordinal, unsupervised and non-parametric context, and their efficiency was mainly compared on synthetic datasets. It is our ordinal random forest by class separation that seems to have the best result. Finally, this method has been applied to real data of tax bases, where the concerns of size and complexity are more important. Aimed at local authorities directorates, this new approach to examining their database is the second outcome of this work.
63

Approche matricielle de l'imagerie optique des milieux diffusants / A matrix approach for optical imaging in highly scattering media

Badon, Amaury Axel 20 December 2016 (has links)
L’objectif des travaux présentés dans cette thèse est d’étudier la propagation de la lumière dans les milieux inhomogènes afin de repousser les limites actuelles de l’imagerie : les aberrations et la diffusion multiple. Dans une première partie, nous avons associé les outils et le formalisme initialement développés pour les ondes ultrasonores aux techniques propres à l’optique. Grâce à un dispositif expérimental innovant, nous avons enregistré les réponses d’un milieu complexe pour une collection de champs incidents, formant ainsi une matrice de réflexion. Une étude des corrélations spatiales de cette matrice permet alors de séparer les contributions de diffusion simple et multiple. Alors que la première permet de former une image seulement limitée par la diffraction d’un objet enfoui au sein du milieu, la seconde permet de caractériser les paramètres de transport de la lumière dans le milieu.La seconde partie de ma thèse s’est intéressée à la possibilité d’extraire une information cohérente à partir d’un champ aléatoire. Il a été démontré, en acoustique et en sismologie notamment, que la corrélation d’un champ incohérent mesuré en deux points permettait d’estimer la réponse impulsionnelle entre ces deux mêmes points. Dans ma thèse, nous avons étendu cette approche aux ondes optiques. En particulier nous avons démontré la mesure de réponses impulsionnelles entre des diffuseurs individuels à l’aide d’une simple lampe halogène et d’un montage interférométrique. A la suite de cette preuve de principe, nous avons réalisé des estimations de paramètres de transport pour des milieux fortement diffusants. / My thesis was devoted to the study of the propagation of optical waves in inhomogeneous media in an attempt to push back the fundamental limits of optical imaging: multiple scattering and aberrations. In a first part, we combined the tools and the formalism developed initially for acoustic waves with techniques peculiar to the field of optics. Thanks to a system that allows to both control and measure the optical field, we record the output responses of a scattering medium for a given set of input fields. This collection of input-output responses forms a matrix called the reflection matrix. We then exploit the spatial and temporal contents of this matrix to discriminate the ballistic and the multiple scattered light. The first contribution provides an image with a diffraction limited resolution of an object placed behind or embedded in a turbid medium, while the second contribution offers information on the transport of light in the diffusive regime.The second study was dedicated to the measurement of a coherent information from a totally incoherent source. It has been shown in acoustics and seismology that correlations of an In my thesis, we extended this property to optical waves. In particular, we demonstrated the measurement of an impulse response between individual scatterers with a femtosecond resolution using a simple halogen white light source. Following this proof of principle, the characterization of the transport properties of a medium was performed from a collection of impulse responses in the diffusive regime.
64

Détection du facteur d'encrassement par onde de coda ultrasonore lors de la contamination et le nettoyage d'un substrat solide / Detection of fouling factor by ultrasonic coda wave during contamination and cleaning of solid substrate

Chen, Bowei 10 July 2019 (has links)
L’encrassement des équipements a lieu dans de nombreux secteurs industriels. Parexemple, la contamination des surfaces de contact avec les aliments, provoquée par un encrassement, entrainent des pertes économiques considérables et augmentent les risques de santé publique. Le nettoyage de l’encrassement est généralement réalisé à l’aide de produits chimiques très polluants. Par conséquent, il est important de développer des dispositifs permettant de surveiller la formation/l’élimination des encrassements sur ces surfaces (sans perturber la production) afin de réduire les risques microbiologiques, les impacts environnementaux et économiques liés aux processus de nettoyage. Dans ce travail, on s’intéresse à la détection du facteur d’encrassement à l’aide d’une méthode ultrasonore non invasive, dite “interférométrie d’ondes de coda”, abrégée en anglais (CWI). Cette technique a été testée pour différents types d’applications (Nettoyage de cire, détection de la formation de biofilm et nettoyage de dépôts protéiques). Les résultats obtenus sont très prometteurs et montrent que la CWI est capable de déceler même un léger changement du facteur d’encrassement. En particulier, l’évolution du coefficient de décorrélation pour chaque application montre une bonne concordance avec l’état d’encrassement réel de la surface. Dans l’ensemble, ces travaux fournissent un ensemble de preuves montrant que la méthode CWI, est applicable au suivi du facteur d’encrassement de dépôts sur des surfaces solides. / Fouling of equipment occurs in many industrial sectors. For example, contamination of surfaces in contact with foodstuff, caused by fouling, causes considerable economic losses and increases public health risks. The cleaning of the fouled surface is generally carried out using highly polluting chemicals. Therefore, it is important to develop devices to monitor the formation / removal of fouling on these surfaces (without disrupting production) in order to reduce the microbiological risks and environmental/economic impacts associated with the cleaning processes. In this work, the detection of fouling factor using a noninvasive ultrasonic method, called "coda wave interferometry", abbreviated in English (CWI), was investigated. This technique has been tested for various types of applications (wax cleaning, biofilm formation detection and protein deposit cleaning). The results obtained are very promising and show that the CWI is able to detect even a slight change in the fouling factor. In particular, the evolution of the decorrelation coefficient for each application shows good agreement with the actual fouling factor. Overall, this work has provided evidence that the CWI method is applicable to the monitoring of fouling factor of solid surfaces.
65

Vision-based calibration, position control and force sensing for soft robots / Calibration basée sur la vision, contrôle de position et détection de force pour robots doux

Zhang, Zhongkai 10 January 2019 (has links)
La modélisation de robots souples est extrêmement difficile, à cause notamment du nombre théoriquement infini des degrés de liberté. Cette difficulté est accentuée lorsque les robots ont des configurations complexes. Ce problème de modélisation entraîne de nouveaux défis pour la calibration et la conception des commandes des robots, mais également de nouvelles opportunités avec de nouvelles stratégies de détection de force possibles. Cette thèse a pour objectif de proposer des solutions nouvelles et générales utilisant la modélisation et la vision. La thèse présente dans un premier temps un modèle cinématique à temps discret pour les robots souples reposant sur la méthode des éléments finis (FEM) en temps réel. Ensuite, une méthode de calibration basée sur la vision du système de capteur-robot et des actionneurs est étudiée. Deux contrôleurs de position en boucle fermée sont conçus. En outre, pour traiter le problème de la perte d'image, une stratégie de commande commutable est proposée en combinant à la fois le contrôleur à boucle ouverte et le contrôleur à boucle fermée. Deux méthodes (avec et sans marqueur(s)) de détection de force externe pour les robots déformables sont proposées. L'approche est basée sur la fusion de mesures basées sur la vision et le modèle par FEM. En utilisant les deux méthodes, il est possible d'estimer non seulement les intensités, mais également l'emplacement des forces externes. Enfin, nous proposons une application concrète : un robot cathéter dont la flexion à l'extrémité est piloté par des câbles. Le robot est contrôlé par une stratégie de contrôle découplée qui permet de contrôler l’insertion et la flexion indépendamment, tout en se basant sur un modèle FEM. / The modeling of soft robots which have, theoretically, infinite degrees of freedom, are extremely difficult especially when the robots have complex configurations. This difficulty of modeling leads to new challenges for the calibration and the control design of the robots, but also new opportunities with possible new force sensing strategies. This dissertation aims to provide new and general solutions using modeling and vision. The thesis at first presents a discrete-time kinematic model for soft robots based on the real-time Finite Element (FE) method. Then, a vision-based simultaneous calibration of sensor-robot system and actuators is investigated. Two closed-loop position controllers are designed. Besides, to deal with the problem of image feature loss, a switched control strategy is proposed by combining both the open-loop controller and the closed-loop controller. Using soft robot itself as a force sensor is available due to the deformable feature of soft structures. Two methods (marker-based and marker-free) of external force sensing for soft robots are proposed based on the fusion of vision-based measurements and FE model. Using both methods, not only the intensities but also the locations of the external forces can be estimated.As a specific application, a cable-driven continuum catheter robot through contacts is modeled based on FE method. Then, the robot is controlled by a decoupled control strategy which allows to control insertion and bending independently. Both the control inputs and the contact forces along the entire catheter can be computed by solving a quadratic programming (QP) problem with a linear complementarity constraint (QPCC).
66

Extraction de motifs séquentiels dans les flux de données

Marascu, Alice 14 September 2009 (has links) (PDF)
Ces dernières années ont vu apparaître de nombreuses applications traitant des données générées en continu et à de grandes vitesses. Ces données sont désormais connues sous le nom de flux de données. Leurs quantités de données potentiellement infinies ainsi que les contraintes qui en dérivent posent de nombreux problèmes de traitement. Parmi ces contraintes, citons par exemple l'impossibilité de bloquer un flux de données, ou encore le besoin de produire des résultats en temps réel. Néanmoins, les multiples domaines d'application de ces traitements (comme les transactions bancaires, l'usage du Web, la surveillance des réseaux, etc) ont suscité beaucoup d'intérêt tant dans les milieux industriels qu'académiques. Ces quantités potentiellement infinies de données interdisent tout espoir de stockage complet ; toutefois, on a besoin de pouvoir interroger l'historique des flux. Cela a conduit au compromis des « résumés » des flux de données et des résultats « approximatifs ». Aujourd'hui, un grand nombre de méthodes propose différents types de résumés des flux de données. Mais le développement incessant de la technologie et des applications afférentes demande un développement au moins équivalent des méthodes d'analyse et de résumé. De plus, l'extraction de motifs séquentiels y est encore peu étudiée: au commencement de cette thèse, il n'existait aucune méthode d'extraction de motifs séquentiels dans les flux de données. Motivés par ce contexte, nous nous sommes intéressés à une méthode qui résume les flux de données d'une manière efficace et fiable et qui permet principalement d'en extraire des motifs séquentiels. Dans cette thèse, nous proposons l'approche CLARA (CLAssification, Résumés et Anomalies). CLARA permet d'obtenir des clusters à partir d'un flux de séquences d'itemsets, de calculer et gérer des résumés de ces clusters et d'y détecter des anomalies. Les différentes contributions détaillées dans ce mémoire concernent: - La classification non supervisée de séquences d'itemsets sous forme de flux. A notre connaissance, cette technique est la première à permettre une telle classification. - Les résumés de flux de données à l'aide de l'extraction de motifs. Les résumés de CLARA sont composés de motifs séquentiels alignés représentant les clusters associés à leur historique dans le flux. L'ensemble de ces motifs permet de résumer le flux de manière fiable à un instant t. La gestion de l'historique de ces motifs est un point essentiel dans l'analyse des flux. CLARA introduit une nouvelle gestion de la granularité temporelle afin d'optimiser cet historique. - La détection d'anomalies. Cette détection, quand elle concerne les flux, doit être rapide et fiable. En particulier, les contraintes liées aux flux interdisent de consulter l'utilisateur final pour ajuster des paramètres (une anomalie détectée trop tard peut avoir de graves conséquences). Avec CLARA, cette détection est automatique et auto-adaptative. Nous proposerons également un cas d'étude sur des données réelles, réalisé en collaboration avec Orange Labs.
67

Contributions on detection and classification of internet traffic anomalies

Farraposo, Silvia 17 June 2009 (has links) (PDF)
Il est évident aujourd'hui que le trafic Internet est bien plus complexe et irrégulier qu'escompté, ce qui nuit grandement à un fonctionnement efficace des réseaux, ainsi qu'à la garantie de niveaux de performances et de qualité de service (QdS) satisfaisants. En particulier, le comportement du réseau est surtout mis à mal lorsque le trafic contient des anomalies importantes. Différentes raisons peuvent être à la source de ces anomalies, comme les attaques de déni de service (DoS), les foules subites ou les opérations de maintenance ou de gestion des réseaux. De fait, la détection des anomalies dans les réseaux et leurs trafics est devenue un des sujets de recherche les plus chauds du moment. L'objectif de cette thèse a donc été de développer de nouvelles méthodes originales pour détecter, classifier et identifier les anomalies du trafic. La méthode proposée repose notamment sur la recherche de déviations significatives dans les statistiques du trafic par rapport à un trafic normal. La thèse a ainsi conduit à la conception et au développement de l'algorithme NADA : Network Anomaly Detection Algorithm. L'originalité de NADA - et qui garantit son efficacité - repose sur l'analyse du trafic selon 3 axes conjointement : une analyse multi-critères (octets, paquets, flux, ...), multi-échelles et selon plusieurs niveaux d'agrégations. A la suite, la classification repose sur la définition de signatures pour les anomalies de trafic. L'utilisation des 3 axes d'analyse permettent de détecter les anomalies indépendamment des paramètres de trafic affectés (analyse multi-critères), leurs durées (analyse multi-échelles), et leurs intensités (analyse multi-niveaux d'agrégation). Les mécanismes de détection et de classification d'anomalies proposés dans cette thèse peuvent ainsi être utilisés dans différents domaines de l'ingénierie et des opérations réseaux comme la sécurité des réseaux, l'ingénierie du trafic ou des réseaux superposés, pour citer quelques exemples. Une contribu tion importante de la thèse a trait à la méthode de validation et d'évaluation utilisée pour NADA. NADA a ainsi été validé sur une base de trace de trafic contenant des anomalies documentées, puis évalué sur les principales traces de trafic disponibles. Les résultats obtenus sont de très bonne facture, notamment lorsqu'ils sont comparés avec ceux obtenus par d'autres outils de détection d'anomalies. De plus, la qualité des résultats est indépendante du type de trafic analysé et du type d'anomalie. Il a été en particulier montré que NADA était capable de détecter et classifier efficacement les anomalies de faible intensité, qui sont apparues comme des composantes essentielles des attaques DOS. NADA apporte donc une contribution intéressante en matière de sécurité réseau.
68

Détection d'intrusions paramétrée par la politique de sécurité grâce au contrôle collaboratif des flux d'informations au sein du système d'exploitation et des applications : mise en œuvre sous Linux pour les programmes Java

Hiet, Guillaume 19 December 2008 (has links) (PDF)
La sécurité informatique est un enjeu crucial. Elle consiste en premier lieu à définir une politique de sécurité puis à mettre en œuvre cette politique. Les approches préventives comme le contrôle d'accès sont essentielles mais insuffisantes. Il est donc nécessaire de recourir à la détection d'intrusions. En particulier, l'approche de détection d'intrusions paramétrée par la politique de sécurité nous paraît prometteuse. Une telle approche s'appuie uniquement sur un modèle de l'évolution de l'état du système et sur un modèle de la politique de sécurité. Nous nous intéressons dans cette thèse aux politiques de flux d'informations permettant d'assurer la confidentialité et l'intégrité des données. Nous souhaitons utiliser une approche de détection d'intrusions paramétrée par la politique de sécurité pour surveiller un système comprenant un OS et des logiciels COTS comprenant des applications web. Nous proposons un modèle de détection permettant de suivre les flux d'informations entre les conteneurs d'informations. Nous définissons une architecture générique de système de détection d'intrusions (IDS) permettant d'implémenter le modèle proposé. Cette architecture repose sur la collaboration entre plusieurs IDS effectuant le suivi des flux d'informations à différents niveaux de granularité. Nous présentons une implémentation de cette architecture reposant sur Blare, un IDS existant permettant de gérer les conteneurs d'informations de l'OS, et JBlare, une implémentation que nous avons réalisée pour suivre les flux d'informations au niveau des applications Java. Nous présentons également les résultats des expérimentations que nous avons menées en instrumentant des applications Java « réalistes ».
69

Détection des intrusions dans les systèmes d'information : la nécessaire prise en compte des caractéristiques du système surveillé

Mé, Ludovic 16 June 2003 (has links) (PDF)
Ce mémoire résume 10 ans de travail autour de l'étude des concepts à la base des systèmes de détection d'intrusions. Nous présentons en premier lieu les grandes caractéristiques des systèmes de détection d'intrusions : la source des données à analyser, l'approche de détection retenue, l'architecture de l'outil de détection d'intrusions, la granularité de l'analyse et le comportement en cas de détection. Nous positionnons alors nos travaux relativement à ces caractéristiques. Nous mettons ensuite en en avant parmi nos travaux en cours, ceux qui nous paraissent les plus à même d'apporter des réponses aux problèmes actuels de la détection d'intrusions. Ces travaux présentent une caractéristique commune : ils prennent en compte les caractéristiques du système surveillé : topologie, types de machine, logiciels installés, failles connues, politique de sécurité en vigueur. Nous présentons le travail fait dans le cadre de la thèse de Benjamin Morin autour de la corrélation des alertes issues des outils de détection d'intrusions, puis les travaux réalisés dans le cadre de la thèse de Jacob Zimmermann autour du contrôle d'accès tolérant aux intrusions. Comme il se doit, ce mémoire se conclu par la présentation de quelques perspectives de recherche.
70

Restauration de sources radioastronomiques en milieu radioélectrique hostile : Implantation de détecteurs temps réel sur des spectres dynamiques.

Dumez-Viou, Cedric 28 September 2007 (has links) (PDF)
L'étude de l'Univers est effectuée de façon quasi-exclusive grâce aux ondes électromagnétiques. La radioastronomie qui étudie la bande radio du spectre est couramment obligée d'observer hors de ses bandes protégées. Il faut donc pouvoir observer des sources dans des bandes où les émissions des systèmes de télécommunication sont souvent proches et donc très puissantes.<br /><br />Les travaux de cette thèse ont eu pour but de développer et d'implanter des méthodes temps réel de traitements numériques visant à atténuer les interférences ambiantes afin de restaurer les radiosources naturelles lors d'observation avec une antenne unique sans informations a priori.<br />Le cœur de ces traitements est basé sur l'estimation de la moyenne d'un échantillon suivant une loi du Khi-2 en présence de points aberrants.<br />Un récepteur numérique multi-instruments à grande dynamique élaboré à la station de radioastronomie de Nançay a servi de banc de test à ces divers algorithmes.<br /><br />La bande corrompue par Iridium est maintenant observable et les sources HI situées dans la bande allouée aux radars sont de nouveau<br />accessibles. Les observations du Soleil et de Jupiter effectuées en<br />bande décamétrique sont maintenant de bien meilleure qualité.<br />Un algorithme a été développé pour configurer le récepteur en tant que détecteur et enregistreur rapide d'évènements très brefs (<100 ms) en milieu parasité. Il est aujourd'hui utilisé pour l'enregistrement de structures fines Joviennes.

Page generated in 0.0808 seconds