• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1117
  • 547
  • 152
  • 3
  • Tagged with
  • 1795
  • 885
  • 376
  • 261
  • 257
  • 241
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 130
  • 128
  • 114
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Oriented filters for feature extraction in digital Images : Application to corners detection, Contours evaluation and color Steganalysis / Filtres orientés pour l'extraction de primitives dans les images : Application à la détection de coins, l'évaluation de contours, et à la stéganalyse d'images couleur

Abdulrahman, Hasan 17 November 2017 (has links)
L’interprétation du contenu de l’image est un objectif très important dans le traitement de l’image et la vision par ordinateur. Par conséquent, plusieurs chercheurs y sont intéressés. Une image contient des informations multiples qui peuvent être étudiés, telles que la couleur, les formes, les arêtes, les angles, la taille et l’orientation. En outre, les contours contiennent les structures les plus importantes de l’image. Afin d’extraire les caractéristiques du contour d’un objet, nous devons détecter les bords de cet objet. La détection de bords est un point clé dans plusieurs applications, telles que :la restauration, l’amélioration de l’image, la stéganographie, le filigrane, la récupération, la reconnaissance et la compression de l’image, etc. Toutefois, l’évaluation de la performance de la méthode de détection de bords reste un grand défi. Les images numériques sont parfois modifiées par une procédure légale ou illégale afin d’envoyer des données secrètes ou spéciales. Afin d’être moins visibles, la plupart des méthodes stéganographiques modifient les valeurs de pixels dans les bords/textures de parties de l’image. Par conséquent, il est important de détecter la présence de données cachées dans les images numériques. Cette thèse est divisée principalement en deux parties.La première partie discute l’évaluation des méthodes de détection des bords du filtrage, des contours et des angles. En effet, cinq contributions sont présentées dans cette partie : d’abord, nous avons proposé un nouveau plan de surveillance normalisée de mesure de la qualité. En second lieu, nous avons proposé une nouvelle technique pour évaluer les méthodes de détection des bords de filtrage impliquant le score minimal des mesures considérées. En plus, nous avons construit une nouvelle vérité terrain de la carte de bords étiquetée d’une manière semi-automatique pour des images réelles.En troisième lieu, nous avons proposé une nouvelle mesure prenant en compte les distances de faux points positifs pour évaluer un détecteur de bords d’une manière objective. Enfin, nous avons proposé une nouvelle approche de détection de bords qui combine la dérivée directionnelle et l’homogénéité des grains. Notre approche proposée est plus stable et robuste au bruit que dix autres méthodes célèbres de détection. La seconde partie discute la stéganalyse de l’image en couleurs, basée sur l’apprentissage automatique (machine learning). En effet, trois contributions sont présentées dans cette partie : d’abord, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur l’extraction de caractéristiques de couleurs à partir de corrélations entre les gradients de canaux rouge, vert et bleu. En fait, ces caractéristiques donnent le cosinus des angles entre les gradients. En second lieu, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur des mesures géométriques obtenues par le sinus et le cosinus des angles de gradients entre tous les canaux de couleurs. Enfin, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur une banque de filtres gaussiens orientables. Toutes les trois méthodes proposées présentent des résultats intéressants et prometteur en devançant l’état de l’art de la stéganalyse en couleurs. / Interpretation of image contents is very important objective in image processing and computer vision. Wherefore, it has received much attention of researchers. An image contains a lot of information which can be studied such as color, shapes, edges, corners, size, and orientation. Moreover, contours include the most important structures in the image. In order to extract features contour of an object, we must detect the edges of that object. Edge detection results, remains a key point and very important step in wide range of applications such as: image restoration, enhancement, steganography, watermarking, image retrieval, recognition, compression, and etc. An efficient boundary detection method should create a contour image containing edges at their correct locations with a minimum of misclassified pixels. However, the performance evaluationof the edge detection results is still a challenging problem. The digital images are sometimes modify by a legal or illegal data in order to send special or secret data. These changes modify slight coefficient values of the image. In order to be less visible, most of the steganography methods modify the pixel values in the edge/texture image areas. Therefore, it is important to detect the presence of hidden data in digital images. This thesis is divided mainly into two main parts. The first part, deals with filtering edge detection, contours evaluation and corners detection methods. More deeply, there are five contributions are presented in this part: first, proposed a new normalized supervised edge map quality measure. The strategy to normalize the evaluation enables to consider a score close to 0 as a good edge map, whereas a score 1 translates a poor segmentation. Second, proposed a new technique to evaluate filtering edge detection methods involving the minimum score of the considerate measures. Moreover, build a new ground truth edge map labelled in semi-automatic way in real images. Third, proposed a new measure takes into account the distances of false positive points to evaluate an edge detector in an objective way. Finally, proposed a new approach for corner detection based on the combination of directional derivative and homogeneity kernels. The proposed approach remains more stable and robust to noise than ten famous corner detection methods. The second part, deals with color image steganalysis, based on a machine learning classification. More deeply, there are three contributionsare presented in this part: first, proposed a new color image steganalysis method based on extract color features from correlations between the gradients of red, green and blue channels. Since these features give the cosine of angles between gradients. Second, proposed a new color steganalysis method based on geometric measures obtained by the sine and cosine of gradient angles between all the color channels. Finally, proposed a new approach for color image steganalysisbased on steerable Gaussian filters Bank.All the three proposed methods in this part, provide interesting and promising results by outperforming the state-of-art color image steganalysis.
122

Etude et validation de nouveaux biomarqueurs pour le diagnostic de la tuberculose pulmonaire / Study and validation of new biomarkers for the diagnosis of pulmonary tuberculosis

Akue Brust, Belinda 28 June 2011 (has links)
La tuberculose (TB) est une maladie infectieuse causée par M. tuberculosis. En 2009, la mortalité était élevée avec 1,7 millions de décès enregistrés dans le monde. La co-infection par le VIH, notamment en Afrique, et les tuberculoses à bacilles multi-résistants aux antibiotiques, rendent la maîtrise de la pandémie encore plus complexe. Les tests actuels de diagnostic présentent des lacunes notamment en terme de sensibilité pour la microscopie qui est le test le plus utilisé, ou en terme de praticité, en ce qui concerne la culture qui est le test de référence. Le développement de nouveaux tests pour le diagnostic de la TB active représente un enjeu majeur de nos sociétés modernes. Les tests immunologiques, en particulier les tests sérologiques actuellement disponibles, présentent une alternative aux tests bactériologiques couramment utilisés mais leurs performances restent faibles. Pour cela, il est indispensable de cibler de nouveaux biomarqueurs pour développer un test efficace, sensible, rapide et peu onéreux. C'est dans de cadre que s'inscrit ce travail de thèse.Nous rapportons dans ce mémoire, la recherche de marqueurs innovants dans le cadre de la mise au point d'un test de diagnostic de la tuberculose. Nous avons ciblé plusieurs marqueurs protéiques (OmpATb, LipY, Rv0183, Rv1984c et Rv3452) et un marqueur glycolipide, le tréhalose-6,6'-dimycolate (TDM). Parmi ces candidats, plusieurs présentent de réelles performances sur le plan diagnostique. Parallèlement à cette étude, nous avons mis au point une technique de séparation des différentes formes de TDM. La séparation des différentes formes de TDM devrait permettre de déterminer de façon précise les fonctions de ces composants majeurs de la paroi de M. tuberculosis et d'évaluer leur potentiel en terme de diagnostic.Mots clés : tuberculose, sérodiagnostic, détection antigène, détection anticorps, enzymes lipolytiques, glycolipide. / Tuberculosis (TB) is an infectious disease caused by M. tuberculosis. In 2009, mortality was high with 1,7 million of recorded deaths in the world. The co-infection by the HIV, in particular in Africa, and tuberculosis with multi-resistant bacilli to antibiotics, make the control of pandemia more complex. The current tests of diagnosis present gaps, in particular, in term of sensitivity for microscopy, which is currently the used test, or in term of praticity, for the culture which is considered as the gold standard.The development of new tests for the diagnosis of TB active represents a major challenge of our modern societies. The immunological tests, in particular the serologic tests available, can present an alternative to the currently bacteriological tests. However, their performances are not sufficient. That's why, it is essential to target new biomarkers which permit to establish an effective, sensitive, fast and cheap test. It is in this context that my study takes place.We report in this memory, the research of innovating markers for the development of a diagnostic test of tuberculosis. We targeted several protenic markers (OmpATb, LipY, Rv0183, Rv1984c and for Rv3452) and a glycolipid marker, the trehalose-6,6'-dimycolate (TDM). Among these candidates, several shown good performances for active TB diagnosis. In parallel to this study, a technique of separation of the various forms of TDM was developed. The separation of the various forms of TDM will permit to study their role on the biological activities and evaluate their potential in term of diagnosis.Key words: tuberculosis, serodiagnostic, antigen detection, antibody detection, lipolytic enzymes, glycolipid.
123

Simulations cosmologiques et astroparticules : formation de galaxies spirales : détection directe et indirecte de la matière noire / Cosmological simulations and astroparticles : formation of spiral galaxies : direct and indirect detection of dark matter.

Mollitor, Pol 10 December 2014 (has links)
Deux problématiques sont abordées dans cette thèse: la formation de galaxies spirales et la détection de la matière noire (MN).Nous étudions trois simulations cosmologiques hydrodynamiques de haute résolution zoomées sur des halos de propriétés similaires à celui de la Voie Lactée que nous réalisons avec le code à grille adaptative RAMSES. Nous analysons les distributions d'étoiles et de gaz et constatons qu'une de nos galaxies simulées possèdent des propriétés intéressantes par rapport à la Voie Lactée. Nous obtenons un disque stellaire étendu et une courbe de rotation plate avec la vitesse de rotation et la densité locale de MN en accord avec les observations. En ce qui concerne la distribution de MN, nous analysons l'interaction avec les baryons et nous montrons explicitement comment le profil de densité de MN est aplatie par les processus de feedback.Dans le cadre de cette simulation, nous étudions les incertitudes astrophysiques sur la détection directe en analysant les quantités importantes comme la densité locale de MN, sa distribution de vitesse et la vitesse d'échappement locale. De plus, nous considérons plusieurs sélections de distribution de MN et d'étoiles et estimons ainsi la variabilité du taux de détection.Dans le cadre cohérent de la simulation, nous calculons les signaux d'annihilation et de désintégration de MN en rayons gamma ainsi que le fond diffus, que nous modélisons en utilisant les explosions de supernovae comme sources de rayons cosmiques qui produisent les rayons gamma par spallation sur la distribution de gaz. Les configurations de la matière noire et des baryons induisent une situation défavorable à la détection indirecte de la MN. / The thesis tackles two topics: the formation of spiral galaxies and the detection of dark matter (DM).We study three high resolution cosmological hydrodynamical simulations of Milky Way-sized halos including a comparison with the corresponding DM-only runs performed with the code RAMSES. We analyze the stellar and gas distribution and find one of our simulated galaxies with interesting Milky Way like features with regard to several observational tests. We obtain an extended disk and a flat rotation curve with a circular velocity and a DM density in the solar neighborhood that are in agreement with observations. Following observational procedures, we rederive the stellar-to-halo mass ratio and obtain competitive values for this criterion. Concerning the DM distribution, we explicitly show the interaction with the baryons and show how the DM is first contracted by star formation and then cored by feedback processes.In the framework of the simulation, we analyze the astrophysical uncertainties relevant for direct detection by studying the involved quantities like the local DM density, the DM velocity distribution and the local escape velocity . Furthermore, we consider various selections of DM and star distributions and estimate the variability of the detection rate.Within the self-consistent framework of the simulation, we calculate the DM annihilation and decay gamma ray (GR) signals as well as the diffuse GR background, that we model using the supernovae explosions as cosmic ray sources which produce GRs by spallation on the gas distribution. The cored DM profile and the high central baryonic densities induce a challenging configuration for indirect DM detection.
124

Détection d'anomalies et de ruptures dans les séries temporelles. Applications à la gestion de production de l'électricité / Detection of outliers and changepoints in time series. Applications over the management of electricity production

Allab, Nedjmeddine 21 November 2016 (has links)
Continental est l'outil de référence utilisé par EDF pour la gestion d'électricité à long terme. il permet d'élaborer la stratégie d'exploitation du parc constitué de centrales réparties sur toute l'europe. l'outil simule sur chaque zone et chaque scénario plusieurs variables telles que la demande d'électricité, la quantité générée ainsi que les coûts associés. nos travaux de thèse ont pour objectif de fournir des méthodes d'analyse de ces données de production afin de faciliter leur étude et leur synthèse. nous récoltons un ensemble de problématiques auprès des utilisateurs de continental que nous tentons de résoudre à l'aide des technique de détection d'anomalies et de ruptures dans les séries temporelles. / Continental is the main tool that edf uses for the long-term management of electricity. It elaborates the strategy exploitation of the electrical parc made up by power plants distributed all over europe. the tool simulates for each zone and each scenario several variables, such as the electricity demand, the generated quantity as well as the related costs. our works aim to provide methods to analyse the data of electricity production in order to ease their discovery and synthesis. we get a set of problmatics from the users of continental that we tent to solve through techniques of outliers and changepoints detection in time series.
125

Modélisation de fonds complexes statiques et en mouvement : application à la détection d'événements rares dans les séries d'images / Modeling of static or moving complex backgrounds : application to rare event detection in image sequences

Davy, Axel 22 November 2019 (has links)
{La première partie de cette thèse est dédiée à la modélisation d'images ou de vidéos considérés comme des fonds sur lesquels on s'attache à détecter des anomalies. Notre analyse de la littérature de la détection d'anomalie sur une seule image nous a fait identifier cinq différentes familles d'hypothèses structurelles sur le fond. Nous proposons de nouveaux algorithmes pour les problèmes de détection d'anomalie sur seule image, de détection de petites cibles sur un fond en mouvement, de détection de changements sur des images satellitaires SAR (Synthetic Aperture Radar) et de détection de nuages dans des séquences d'images de satellite optique.Dans une seconde partie, nous étudions deux autres applications de la modélisation de fond. Pour le débruitage vidéo, nous cherchons pour chaque patch de la vidéo, des patchs similaires le long de la séquence vidéo, et fournissons à un réseau de neurones convolutif les pixels centraux de ces patchs. Le modèle de fond est caché dans les poids du réseau de neurones. Cette méthode s'avère être la plus performante des méthodes par réseau de neurones comparées. Nous étudions également la synthèse de texture à partir d'un exemple. Dans ce problème, des échantillons de texture doivent être générés à partir d'un seul exemple servant de référence. Notre étude distingue les familles d'algorithmes en fonction du type de modèle adopté. Dans le cas des méthodes par réseau de neurones, nous proposons une amélioration corrigeant les artefacts de bord.Dans une troisième partie, nous proposons des implémentations temps-réel GPU de l'interpolation B-spline et de plusieurs algorithmes de débruitage d'images et de vidéo: NL-means, BM3D et VBM3D. La rapidité des implémentations proposées permet leur utilisation dans des scénarios temps-réel, et elles sont en cours de transfert vers l'industrie. / The first part of this thesis is dedicated to the modeling of image or video backgrounds, applied to anomaly detection. In the case of anomaly detection on a single image, our analysis leads us to find five different families of structural assumptions on the background. We propose new algorithms for single-image anomaly detection, small target detection on moving background, change detection on satellite SAR (Synthetic Aperture Radar) images and cloud detection on a sequence of satellite optical images.In the second part, we study two further applications of background modeling. To perform video denoising we search, for every video patch, similar patches in the video sequence, and feed their central pixels to a convolutional neural network (CNN). The background model in this case is hidden in the CNN weights. In our experiments, the proposed method is the best performing of the compared CNN-based methods. We also study exemplar-based texture synthesis. In this problem texture samples have to be generated based on only one reference sample. Our survey classifies the families of algorithms for this task according to their model assumptions. In addition, we propose improvements to fix the border behavior issues that we pointed out in several deep learning based methods.In the third part, we propose real-time GPU implementations for B-spline interpolation and for several image and video denoising algorithms: NL-means, BM3D and VBM3D. The speed of the proposed implementations enables their use in real-time scenarios, and they are currently being transitioned to industry.
126

Similarités textuelles sémantiques translingues : vers la détection automatique du plagiat par traduction / Cross-lingual semantic textual similarity : towards automatic cross-language plagiarism detection

Ferrero, Jérémy 08 December 2017 (has links)
La mise à disposition massive de documents via Internet (pages Web, entrepôts de données,documents numériques, numérisés ou retranscrits, etc.) rend de plus en plus aisée la récupération d’idées. Malheureusement, ce phénomène s’accompagne d’une augmentation des cas de plagiat.En effet, s’approprier du contenu, peu importe sa forme, sans le consentement de son auteur (ou de ses ayants droit) et sans citer ses sources, dans le but de le présenter comme sa propre œuvre ou création est considéré comme plagiat. De plus, ces dernières années, l’expansion d’Internet a également facilité l’accès à des documents du monde entier (écrits dans des langues étrangères)et à des outils de traduction automatique de plus en plus performants, accentuant ainsi la progression d’un nouveau type de plagiat : le plagiat translingue. Ce plagiat implique l’emprunt d’un texte tout en le traduisant (manuellement ou automatiquement) de sa langue originale vers la langue du document dans lequel le plagiaire veut l’inclure. De nos jours, la prévention du plagiat commence à porter ses fruits, grâce notamment à des logiciels anti-plagiat performants qui reposent sur des techniques de comparaison monolingue déjà bien éprouvées. Néanmoins, ces derniers ne traitent pas encore de manière efficace les cas translingues. Cette thèse est née du besoin de Compilatio, une société d’édition de l’un de ces logiciels anti-plagiat, de mesurer des similarités textuelles sémantiques translingues (sous-tâche de la détection du plagiat). Après avoir défini le plagiat et les différents concepts abordés au cours de cette thèse, nous établissons un état de l’art des différentes approches de détection du plagiat translingue. Nousprésentons également les différents corpus déjà existants pour la détection du plagiat translingue et exposons les limites qu’ils peuvent rencontrer lors d’une évaluation de méthodes de détection du plagiat translingue. Nous présentons ensuite le corpus que nous avons constitué et qui ne possède pas la plupart des limites rencontrées par les différents corpus déjà existants. Nous menons,à l’aide de ce nouveau corpus, une évaluation de plusieurs méthodes de l’état de l’art et découvrons que ces dernières se comportent différemment en fonction de certaines caractéristiques des textes sur lesquelles elles opèrent. Ensuite, nous présentons des nouvelles méthodes de mesure de similarités textuelles sémantiques translingues basées sur des représentations continues de mots(word embeddings). Nous proposons également une notion de pondération morphosyntaxique et fréquentielle de mots, qui peut aussi bien être utilisée au sein d’un vecteur qu’au sein d’un sac de mots, et nous montrons que son introduction dans ces nouvelles méthodes augmente leurs performances respectives. Nous testons ensuite différents systèmes de fusion et combinaison entre différentes méthodes et étudions les performances, sur notre corpus, de ces méthodes et fusions en les comparant à celles des méthodes de l’état de l’art. Nous obtenons ainsi de meilleurs résultats que l’état de l’art dans la totalité des sous-corpus étudiés. Nous terminons en présentant et discutant les résultats de ces méthodes lors de notre participation à la tâche de similarité textuelle sémantique (STS) translingue de la campagne d’évaluation SemEval 2017, où nous nous sommes classés 1er à la sous-tâche correspondant le plus au scénario industriel de Compilatio. / The massive amount of documents through the Internet (e.g. web pages, data warehouses anddigital or transcribed texts) makes easier the recycling of ideas. Unfortunately, this phenomenonis accompanied by an increase of plagiarism cases. Indeed, claim ownership of content, withoutthe consent of its author and without crediting its source, and present it as new and original, isconsidered as plagiarism. In addition, the expansion of the Internet, which facilitates access todocuments throughout the world (written in foreign languages) as well as increasingly efficient(and freely available) machine translation tools, contribute to spread a new kind of plagiarism:cross-language plagiarism. Cross-language plagiarism means plagiarism by translation, i.e. a texthas been plagiarized while being translated (manually or automatically) from its original languageinto the language of the document in which the plagiarist wishes to include it. While prevention ofplagiarism is an active field of research and development, it covers mostly monolingual comparisontechniques. This thesis is a joint work between an academic laboratory (LIG) and Compilatio (asoftware publishing company of solutions for plagiarism detection), and proposes cross-lingualsemantic textual similarity measures, which is an important sub-task of cross-language plagiarismdetection.After defining the plagiarism and the different concepts discussed during this thesis, wepresent a state-of-the-art of the different cross-language plagiarism detection approaches. Wealso present the preexisting corpora for cross-language plagiarism detection and show their limits.Then we describe how we have gathered and built a new dataset, which does not contain mostof the limits encountered by the preexisting corpora. Using this new dataset, we conduct arigorous evaluation of several state-of-the-art methods and discover that they behave differentlyaccording to certain characteristics of the texts on which they operate. We next present newmethods for measuring cross-lingual semantic textual similarities based on word embeddings.We also propose a notion of morphosyntactic and frequency weighting of words, which can beused both within a vector and within a bag-of-words, and we show that its introduction inthe new methods increases their respective performance. Then we test different fusion systems(mostly based on linear regression). Our experiments show that we obtain better results thanthe state-of-the-art in all the sub-corpora studied. We conclude by presenting and discussingthe results of these methods obtained during our participation to the cross-lingual SemanticTextual Similarity (STS) task of SemEval-2017, where we ranked 1st on the sub-task that bestcorresponds to Compilatio’s use-case scenario.
127

Algorithms for the detection and localization of pedestrians and cyclists using new generation automotive radar systems / Algorithmes pour la détection et la localisation de piétons et de cyclistes en utilisant des systèmes radars automobiles de nouvelle générationedestrians and cyclists using new generation automotive radar systems

Abakar Issakha, Souleymane 11 December 2017 (has links)
En réponse au nombre toujours élevé de décès provoqués par les accidents routiers, l'industrie automobile a fait de la sécurité un sujet majeur de son activité global. Les radars automobiles qui étaient de simples capteurs pour véhicule de confort, sont devenus des éléments essentiels de la norme de sécurité routière. Le domaine de l’automobile est un domaine très exigent en terme de sécurité et les radars automobiles doivent avoir des performances de détection très élevées et doivent répondre à des nombreuses contraintes telles que la facilité de production et/ou le faible coût. Cette thèse concerne le développement d’algorithmes pour la détection et la localisation de piétons et de cyclistes pour des radars automobiles de nouvelle génération. Nous avons proposé une architecture de réseau d'antennes non uniforme optimale et des méthodes d'estimation spectrale à haute résolution permettant d’estimer avec précision la position angulaire des objets à partir de la direction d'arrivée (DoA) de leur réponse. Ces techniques sont adaptées à l'architecture du réseau d'antennes proposé et les performances sont évaluées à l'aide de données radar automobiles simulées et réelles acquises dans le cadre de scénarios spécifiques. Nous avons également proposé un détecteur de cible de collision, basé sur la décomposition en sous-espaces Doppler, dont l'objectif principal est d'identifier des cibles latérales dont les caractéristiques de trajectoire représentent potentiellement un danger de collision. Une méthode de calcul d'attribut de cible est également développée et un algorithme de classification est proposé pour discriminer les piétons, cyclistes et véhicules. Les différents algorithmes sont évalués et validés à l'aide de données radar automobiles réelles sur plusieurs scenarios. / In response to the persistently high number of deaths provoked by road crashes, the automotive industry has promoted safety as a major topic in their global activity. Automotive radars have been transformed from being simple sensors for comfort vehicle, to becoming essential elements of safety standard. The design of new generations automotive radars has to face various constraints and generally proposes a compromise between reliability, robustness, manufacturability, high-performance and low cost. The main objective of this PhD thesis is to design algorithms for the detection and localization of pedestrians and cyclists using new generation automotive radars. We propose an optimal non-uniform antenna array architecture and some high resolution spectral estimation methods to accurately estimate the position of objects from the direction of arrival (DOA) of their responses to the radar. These techniques are adapted to the proposed antenna array architecture and the performance is evaluated using both simulated and real automotive radar data, acquired in the frame of specific scenarios. We propose a collision target detector, based on the orthogonality of angle-Doppler subspaces, whose main goal is to identify lateral targets, whose trajectory features represent potentially a danger of collision. A target attribute calculation method is also developed and classification algorithm is proposed to classify pedestrian, cyclists and vehicles. This classification algorithm is evaluated and validated using real automotive radar data with several scenarios.
128

Development of nanomaterials for electrochemical detection applied in affinity biosensors for in-vitro analysis / Développement des nanomatériaux pour la détection électrochimique appliquée dans des biocapteurs d'affinités pour des analyses in vitro

Miodek, Anna 11 December 2013 (has links)
Le projet de ma thèse a consisté en la mise au point de biomatériaux capables d'agir en tant que capteurs moléculaires pour la construction de biocapteurs d'affinité tels que des immunocapteurs, aptacapteurs et capteurs d'ADN, basés sur la lecture électrochimique. Les biocapteurs électrochimiques deviennent une technique intéressante pour l'identification des biomolécules en raison de possibilités de miniaturisation, de faible coût et de la lecture directe des signaux électriques. Toutefois, le choix d'un transducteur, qui permet d'obtenir un signal électrochimique, est crucial dans la construction du biocapteur. Au cours de ma thèse, j'ai eu l'occasion de comparer l'efficacité de différents matériaux conductrices tels que les conducteurs polymères (polypyrrole), les nanotubes de carbone et des nanoparticules d'or. Pour obtenir une réponse électrochimique intense, j'ai associé ces plateformes avec un marqueur redox-ferrocène. Les biocapteurs ont été basés sur la détection directe, généralement avec un «signal off» (diminution de la réponse électrochimique lors de la détection). J'ai travaillé sur différents types de reconnaissance biologique comme anticorps/antigène, aptamer/protéine, sonde ADN/ADN cible. Ces biocapteurs sont particulièrement intéressants dans le domaine de la biologie et de la santé publique. Au début je me suis intéressée à la nouvelle protéine impliquée dans le virus de la grippe et démontrée son évolution dans le cycle viral avec l'objectif de développer de nouveaux médicaments pour cette maladie ainsi que de nouveaux outils de détection. J'ai construit ces biocapteurs basés sur polymère conductrice-polypyrrole associé avec le marqueur redox, ferrocène pour l'immobilisation des anticorps spécifique pour les protéines impliquées dans le virus de la grippe. De nouveaux biorécepteurs - aptamères et des techniques électrochimiques ont été ensuite développés pour concevoir un système sensible capable de détecter la protéine prion cellulaire au niveau pM dans les échantillons de plasma humaine. Les aptamères sont associés sur la plateforme composée de nanotubes de carbone, conjuguées avec des dendrimères poly(amidoamine) PAMAM. Les composites combinent les performances électriques de nanotubes mais permet simultanément l'attachement de nombreux biomolécules, en raison des nombreux groupes amines portant par des dendrimères. Puis j'étais aussi intéressé par la détection de l'ADN par le développement de biocapteurs à base de nanotubes de carbone pour deux maladies infectieuses telles que l'hépatite C avec des cibles d'ADN synthétiques et l'ADN de M. tuberculosis provenant d'échantillons PCR. Ces exemples ont été utilisés pour démontrer que le capteur d'ADN pourrait être généralisé à toutes les maladies infectieuses et utilisé dans le système «point of care». Des études précédentes ont consisté dans le dépôt de nanotubes de carbone sur la surface par adsorption et j'ai trouvé que c'était problématique en termes de reproductibilité. Alors, j'ai utilisé polypyrrole comme une matrice pour l'association des nanotubes de carbone. Cette méthode semble être la plus efficace et a permis de combiner les propriétés des nanotubes avec celles de polypyrrole conducteurs. Au cours de ma thèse, j'ai démontré que les capteurs électrochimiques d'affinité à base de polymères conducteurs et les nanomatériaux peuvent être appliqués dans différents domaines concernant les problèmes de santé. Ces biocapteurs sont prêts pour être intégrés dans les microsystèmes ainsi que dans les systèmes «point of care». / The project of my thesis consisted on the development of biomaterials that are able to act as molecular transducers for the construction of affinity biosensors such as immunosensors, aptasensors and DNA sensors, based on electrochemical reading. Electrochemical biosensors become an attractive technique for the identification of biomolecules due to miniaturization possibilities, low cost and direct lecture of electric signals. However the choice of a transducer, which allows obtaining electrochemical signal, is crucial in biosensor construction. During my thesis I had the opportunity to compare the efficacy of different conducting materials such as conducting polymers (polypyrrole), carbon nanotubes. To obtain an intense electrochemical response, I associated these platforms with a redox marker – ferrocene. The biosensors which I constructed were based on direct detection, usually with “signal off” (decrease in electrochemical response during detection). I worked on different types of biological recognition such as antibody/antigen, aptamer/protein, DNA probe/DNA target. These biosensors are especially attractive in the biological field and public health. First, I was interested in the new protein involved in Influenza virus and demonstrated its evolution in viral cycle with the objective to develop new drugs for this disease as well as new tools for detection. I constructed biosensors based on conducting polypyrrole which was studied extensively in our group. I used this polypyrrole matrix associated with redox marker, ferrocene for immobilization of antibody specific for protein involved in Influenza virus. By this approach I demonstrate that electrochemical biosensors can become effective tools in the daily laboratory work, especially useful for biologists who are often limited by commercially available methods. Then new bioreceptors - aptamers and electrochemical techniques have been developed to design a sensitive system able to detect cellular prion protein at pM level in plasma samples. Aptamers were associated on the platform composed of polypyrrole or carbon nanotubes conjugated with dendrimers poly(amidoamine) PAMAM. Composite combines the high electrical performance of transducers but simultaneously allows attachment of high number of biomolecules, due to numerous amine groups bearing by dendrimers. I was also interested in DNA detection and in the development of biosensors based on carbon nanotubes for two infectious diseases like hepatitis C with synthetic DNA targets and M. tuberculosis DNA from PCR samples. Such examples were used to demonstrate that DNA sensor could be generalised to all infectious diseases and used in point-of-care system. My previous studies consisted on the deposition of carbon nanotubes on the surface by adsorption and I found that it was problematic in terms of reproducibility, so important in biosensor construction. I used polypyrrole as a matrix for carbon nanotubes association. This method seems to be effective and allowed combination of nanotubes properties with those of conducting polypyrrole. During my thesis I demonstrated that electrochemical affinity sensors based on conducting polymers and nanomaterials can be applied in different fields concerning health problems. These biosensors are ready for integration in microsystems for application as analytical tools as well as in point-of-care systems.
129

Traitement des objets 3D et images par les méthodes numériques sur graphes / 3D object processing and Image processing by numerical methods

El Sayed, Abdul Rahman 24 October 2018 (has links)
La détection de peau consiste à détecter les pixels correspondant à une peau humaine dans une image couleur. Les visages constituent une catégorie de stimulus importante par la richesse des informations qu’ils véhiculent car avant de reconnaître n’importe quelle personne il est indispensable de localiser et reconnaître son visage. La plupart des applications liées à la sécurité et à la biométrie reposent sur la détection de régions de peau telles que la détection de visages, le filtrage d'objets 3D pour adultes et la reconnaissance de gestes. En outre, la détection de la saillance des mailles 3D est une phase de prétraitement importante pour de nombreuses applications de vision par ordinateur. La segmentation d'objets 3D basée sur des régions saillantes a été largement utilisée dans de nombreuses applications de vision par ordinateur telles que la correspondance de formes 3D, les alignements d'objets, le lissage de nuages de points 3D, la recherche des images sur le web, l’indexation des images par le contenu, la segmentation de la vidéo et la détection et la reconnaissance de visages. La détection de peau est une tâche très difficile pour différentes raisons liées en général à la variabilité de la forme et la couleur à détecter (teintes différentes d’une personne à une autre, orientation et tailles quelconques, conditions d’éclairage) et surtout pour les images issues du web capturées sous différentes conditions de lumière. Il existe plusieurs approches connues pour la détection de peau : les approches basées sur la géométrie et l’extraction de traits caractéristiques, les approches basées sur le mouvement (la soustraction de l’arrière-plan (SAP), différence entre deux images consécutives, calcul du flot optique) et les approches basées sur la couleur. Dans cette thèse, nous proposons des méthodes d'optimisation numérique pour la détection de régions de couleurs de peaux et de régions saillantes sur des maillages 3D et des nuages de points 3D en utilisant un graphe pondéré. En se basant sur ces méthodes, nous proposons des approches de détection de visage 3D à l'aide de la programmation linéaire et de fouille de données (Data Mining). En outre, nous avons adapté nos méthodes proposées pour résoudre le problème de la simplification des nuages de points 3D et de la correspondance des objets 3D. En plus, nous montrons la robustesse et l’efficacité de nos méthodes proposées à travers de différents résultats expérimentaux réalisés. Enfin, nous montrons la stabilité et la robustesse de nos méthodes par rapport au bruit. / Skin detection involves detecting pixels corresponding to human skin in a color image. The faces constitute a category of stimulus important by the wealth of information that they convey because before recognizing any person it is essential to locate and recognize his face. Most security and biometrics applications rely on the detection of skin regions such as face detection, 3D adult object filtering, and gesture recognition. In addition, saliency detection of 3D mesh is an important pretreatment phase for many computer vision applications. 3D segmentation based on salient regions has been widely used in many computer vision applications such as 3D shape matching, object alignments, 3D point-point smoothing, searching images on the web, image indexing by content, video segmentation and face detection and recognition. The detection of skin is a very difficult task for various reasons generally related to the variability of the shape and the color to be detected (different hues from one person to another, orientation and different sizes, lighting conditions) and especially for images from the web captured under different light conditions. There are several known approaches to skin detection: approaches based on geometry and feature extraction, motion-based approaches (background subtraction (SAP), difference between two consecutive images, optical flow calculation) and color-based approaches. In this thesis, we propose numerical optimization methods for the detection of skins color and salient regions on 3D meshes and 3D point clouds using a weighted graph. Based on these methods, we provide 3D face detection approaches using Linear Programming and Data Mining. In addition, we adapted our proposed methods to solve the problem of simplifying 3D point clouds and matching 3D objects. In addition, we show the robustness and efficiency of our proposed methods through different experimental results. Finally, we show the stability and robustness of our methods with respect to noise.
130

Systèmes OFDM ultra large bande :<br />Estimation de canal et détection améliorée prenant en compte les imprécisions d'estimation

Sadough, Seyed Mohammad Sajad 07 January 2008 (has links) (PDF)
Les travaux présentés dans cette thèse se situent dans le cadre de la transmission OFDM appliqué au contexte Ultra Large Bande. L'objectif principal va être l'estimation du canal de propagation et la conception de récepteurs en prenant en compte la connaissance non idéale du canal. On propose d'abord une approche semi-aveugle d'estimation du canal basée sur l'algorithme EM. Le canal est décrit au moyen de sa décomposition dans une base d'ondelettes, ce qui fournit une représentation parcimonieuse. La complexité de l'estimation est réduite grâce au fait que les coefficients d'ondelettes jugés non significatif sont écartés. Ensuite, on propose des structures de réception où la conception du détecteur prend en compte la présence des erreurs d'estimation de canal. La détection au sens maximum de vraisemblance (MV) est améliorée en modifiant sa métrique de détection pour le cas où le canal est estimé de manière imparfaite. La métrique MV améliorée ainsi obtenue nous permet de remettre en question le schéma de détection de type turbo maximum a posteriori (MAP) et l'adapter à la connaissance imparfaite du canal. En outre, le choix de l'étiquetage lors de l'attribution des bits aux symboles est également discuté. De plus, on dérive les débits de coupure atteignables (achievable outage rates) avec le détecteur MV améliorée ou un détecteur MV désadapté (utilisant les estimés de canal comme s'il s'agissait des vraies) qu'on comparera avec un détecteur théorique défini comme étant le meilleur récepteur possible en présence d'erreurs d'estimation de canal. Enfin, un récepteur itératif à complexité réduite basé sur un filtrage MMSE et l'annulation parallèle d'interférence (turbo-PIC) est introduit. L'idée de notre approche consiste à prendre en compte la connaissance imparfaite du canal dans la conception du filtre MMSE ainsi que dans la partie annulation d'interférence. Il est important de souligner que les améliorations proposées dans cette thèse ne résultent pas en une augmentation sensible de la complexité algorithmique au niveau du récepteur.

Page generated in 0.0888 seconds