• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Agents du bioterrorisme : détection in situ de gènes de résistance aux antibiotiques chez les spores de Bacillus sp

Laflamme, Christian. 13 April 2018 (has links)
L'introduction délibérée dans l'air de microorganismes pathogènes représente une menace. Parmi les armes bactériologiques les plus craintes, on retrouve les spores de Bacillus anthracis. La possibilité de faire face à des souches de B. anthracis, porteuses de résistances aux antibiotiques, est bien réelle. Le but du projet est de développer une méthode rapide de détection des résistances aux antibiotiques pour les spores de Bacillus sp. Cette méthode doit pouvoir être utilisée avec un système de détection permettant une analyse cellule par cellule. Les techniques de FISH (Fluorescent In Situ Hybridization) et de PCR in situ sont appropriées dans cette situation. Présentement, le seul protocole de perméabilisation des spores de Bacillus sp. pour la détection in situ nécessite trois jours. Les objectifs spécifiques de cette thèse étaient de (i) développer un protocole de perméabilisation rapide des spores permettant de faire du FISH et (ii) développer des méthodes in situ afin de détecter des séquences de gènes de résistance aux antibiotiques d'origines plasmidique et chromosomique. Deux approches ont été utilisées pour perméabiliser les spores soit la germination rapide et la perméabilisation directe. Ensuite, les techniques d'amplification enzymatique du signal FISH et de PCR in situ ont été mises au point pour les spores. Des souches simulantes nonpathogènes de B. anthracis, soit B. aetropheus et B. cereus ATCC 14579 ont été utilisées comme modèle pour les expériences. La germination rapide des spores permet une détection par FISH en moins de deux heures comparativement à la perméabilisation directe des spores qui permet une détection en moins d'une heure. Les techniques d'amplification enzymatique du signal FISH et le PCR in situ ont permis la détection du gène de résistance au chloramphénicole présent sur le plasmide à haute copie pC 194. Le PCR in situ a permis la détection du gène de résistance à l'érythromycine porté par le plasmide à faible copie pMTL ainsi que d'une mutation, d'origine chromosomique, responsable de la résistance à la rifampicine. Cette thèse démontre qu'il est possible de détecter, directement dans la spore de Bacillus sp., des gènes de résistance aux antibiotiques, même s'ils sont présents en faible nombre de copies.
112

Deep learning based semi-supervised video anomaly detection

Baradaran, Mohammad 16 January 2024 (has links)
Thèse ou mémoire avec insertion d'articles / La détection d'anomalies vidéo (DAV) est une tâche cruciale de vision par ordinateur pour diverses applications du monde réel telles que la vidéosurveillance, le contrôle qualité, etc. Avec la rareté des données d'anomalies étiquetées et la nature ouverte des définitions d'anomalies, il y a eu une croissance d'intérêt des chercheurs pour l'exploration de méthodes semi-supervisées de détection d'anomalies vidéo. Ces méthodes utilisent une tâche proxy pour ajuster un modèle sur des échantillons normaux, en tenant compte de leurs caractéristiques d'apparence et de mouvement. Les anomalies sont par conséquent détectées en mesurant l'écart des échantillons de test par rapport au modèle normal formé. Cette thèse est dédiée à l'avancement de ce domaine, englobant quatre composantes distinctes. Dans la partie initiale, nous menons une étude approfondie sur les méthodes DAV semi-supervisées de pointe existantes afin d'examiner leurs points forts et leurs défis. Pour compléter notre examen, nous effectuons également des expériences pour mieux comprendre les capacités et les limites des approches existantes. Les résultats de cette étude servent de source de motivation et mettent en lumière l'orientation de notre recherche. Cette étude est publiée sous la forme d'un article de synthèse (MTAP2023). Lors de l'analyse des méthodes existantes, il devient évident qu'elles ne tiennent pas suffisamment compte de la classe des objets lorsqu'il s'agit de détecter des anomalies d'apparence. Inspirés par ce besoin, nous proposons, dans la deuxième partie, une méthode DAV basée sur l'apprentissage en profondeur et sensible aux classes d'objets. C'est une méthode à deux flux qui modélise et détecte les anomalies de mouvement et d'apparence dans différentes branches. Dans la branche apparence, nous introduisons une approche basée sur la distillation des connaissances qui utilise une méthode de segmentation sémantique pré-entraînée (Mask-RCNN) pour former un réseau étudiant dédié à la segmentation sémantique avec des objets normaux. Par conséquent, en mesurant l'écart entre les sorties des réseaux enseignant et étudiant, nous dérivons un score d'anomalie pour la branche d'apparence. La branche de mouvement, d'autre part, traduit une image brute en sa carte de magnitude de flux optique correspondante, pour modéliser les mouvements normaux et détecter les anomalies associées. L'approche de modélisation de mouvement proposée atténue le risque de généralisation aux anomalies, améliorant ainsi la fiabilité et la précision du processus de détection. Les résultats de cette étude ont été publiés sous forme d'article de conférence (CRV 2022). Dans la troisième partie, nous proposons une méthode de détection d'anomalies vidéo basée sur l'apprentissage multi-tâches visant à tirer parti des avantages de la combinaison de plusieurs tâches proxy complémentaires pour améliorer les performances de détection d'anomalies. Différentes tâches complémentaires sont proposées en tenant compte de leurs capacités et insuffisances à détecter différents cas d'anomalies. De plus, nous proposons une nouvelle tâche proxy de prédiction de carte de segmentation sémantique future pour la détection d'anomalies vidéo qui bénéficie des capacités de prédiction de trames futures et de tâches de segmentation sémantique pour la détection d'anomalies de mouvement et d'apparence. De plus, pour améliorer encore la détection des anomalies de mouvement, nous intégrons la tâche de prédiction de l'amplitude du flux optique à partir d'une trame brute dans une autre branche. Finalement, pour relever les défis rencontrés dans notre méthode précédente, nous proposons plusieurs mécanismes d'attention pour engager des informations contextuelles dans la modélisation de mouvement, conduisant à une amélioration des performances. Les résultats de cette étude ont été publiés sous forme d'article de conférence (CVPRW 2023). Dans la dernière partie, nous relevons un autre défi dans la modélisation du mouvement. Tant dans nos méthodes proposées que dans d'autres méthodes existantes, les modèles de mouvement à long terme n'ont pas été efficacement pris en compte pour la détection d'anomalies vidéo. Pour remédier à cette limitation, nous proposons une nouvelle tâche proxy pour la détection d'anomalies vidéo : la prédiction vidéo future à partir d'une seule image. Cette méthode prend en compte les modèles de mouvement à long terme en plus des modèles à court terme pour la détection d'anomalies vidéo et relève le défi de la généralisation aux mouvements anormaux. Cette étude donne des résultats significatifs. Les résultats démontrent que la formulation de DAV comme une prédiction d'images plus éloignées dans le futur (au lieu de l'image suivante immédiate) entraîne une plus grande disparité entre les normales et les anomalies et donc une amélioration des performances. Les résultats de cette étude sont acceptés sous forme d'article de conférence (ISVC 2023). Nos résultats qualitatifs et quantitatifs ainsi que des études d'ablation sur des ensembles de données de référence tels que les ensembles de données ShanghaiTech, UCSD-Ped1 et UCSD-Ped2 démontrent le succès de chaque contribution de notre thèse dans la réalisation de leurs objectifs respectifs. / Video anomaly detection (VAD) is a crucial computer vision task for various real-world applications such as video surveillance, quality control, etc. With the scarcity of labeled anomaly data and the open-ended nature of anomaly definitions, there has been a growing interest among researchers in exploring semi-supervised methods for video anomaly detection. These methods employ a proxy-task to fit a model on normal samples, taking into account their appearance and motion features. Anomalies are consequently detected by measuring the deviation of test samples from the trained normal model. This thesis is dedicated to advancing this field, encompassing four distinct components. In the initial part, we conduct an in-depth study on existing state-of-the-art semi-supervised VAD methods to examine their strong points and challenges. To supplement our review, we also conduct experiments to gain deeper insights into the capabilities and limitations of existing approaches. The outcomes of this study serve as a source of motivation and highlights the direction of our research. This study is published as a review paper (MTAP2023). Upon analyzing the existing methods, it becomes apparent that they do not adequately consider the object class when it comes to detecting appearance anomalies. Inspired by this need, we propose, in the second part, a two-stream object class-aware deep learning based VAD method that models and detects motion and appearance anomalies in different network branches. In the appearance branch, we introduce a knowledge-distillation-based approach that utilizes a pre-trained semantic segmentation method (Mask-RCNN) to train a student network dedicated to semantic segmentation with normal objects. Consequently, by measuring the disparity between the outputs of the teacher and student networks, we derive an anomaly score for the appearance branch. Motion branch, on the other hand, translates a raw frame to its corresponding optical flow magnitude map, to model normal motions and detect related anomalies. The proposed motion modeling approach, mitigates the risk of generalization to anomalies, thus enhancing the reliability and precision of the detection process. Results of this study is published as a conference paper (CRV 2022). In the third part, we put forth a multi-task learning based video anomaly detection method aimed at leveraging the benefits of combining multiple complementary proxy-tasks to enhance anomaly detection performance. Different complementary tasks are suggested taking into ac count their abilities and shortcomings in detecting different anomaly cases. Moreover, we propose a novel proxy-task of future semantic segmentation map prediction for video anomaly detection which benefits from the abilities of future frame prediction and semantic segmentation tasks for motion and appearance anomaly detection. Additionally, to further enhance the detection of motion anomalies, we incorporate the task of optical flow magnitude prediction from a raw frame in another branch. Finally, to address the challenges encountered in our previous method, we propose multiple attention mechanisms to engage context information in motion modeling, leading to performance improvement. Results of this study is published as a conference paper (CVPRW 2023). As the final part, we tackle another challenge in motion modeling. Both in our proposed methods and other existing methods, long-term motion patterns have not been effectively considered for video anomaly detection. To address this limitation, we put forward a novel proxy-task for video anomaly detection: future video prediction from a single frame. This method considers long-term motion patterns in addition to short-term ones for video anomaly detection and addresses the challenge of generalization to abnormal motion. This study yields significant findings. The results demonstrate that formulating VAD as a prediction of farther frames in the future (instead of the immediate next frame) results in a larger disparity between normals and anomalies and hence in improved performance. Results of this study is accepted as a conference paper (ISVC 2023). Our qualitative and quantitative results along with ablation studies on benchmark datasets such as ShanghaiTech, UCSD-Ped1 and UCSD-Ped2 datasets demonstrate the success of each contribution of our thesis in achieving their respective goals.
113

Perception pour véhicule urbain sans conducteur : conception et implémentation

Benenson, Rodrigo 25 November 2008 (has links) (PDF)
Le développement de véhicules sans conducteur capables de se déplacer sur des routes urbaines pourrait offrir des avantages importants dans la réduction des accidents, le confort et la réduction des coûts des déplacements. Dans ce document, nous discutons la manière de créer un système de perception permettant à un robot de conduire sur des routes sans devoir adapter l'infrastructure, sans avoir besoin de visites précédentes, et en prenant en compte la présence de piétons et d'autres voitures. Nous affirmons que le processus de perception est spécifique à l'application visée et que, par nature, il doit être capable de gérer les incertitudes dans la connaissance du monde. Nous analysons le problème de perception pour une conduite sûre dans les environnements urbains et proposons une solution où le processus de perception est formulé comme un processus d'optimisation. Nous pensons aussi que le processus de perception pourrait bénéficier de la collaboration entre véhicules à proximité. Nous examinons ce problème et proposons une solution adaptée aux contraintes rencontrés dans les zones urbaines. Ici la question centrale est formulée comme un problème d'association de données. La conception théorique du nouveau système de perception est validé par des expérimentations à pleine échelle sur notre véhicule électrique automatisé, le Cycab.
114

Une technique de relaxation pour la mise en correspondance d'images: Application à la reconnaissance d'objets et au suivi du visage.

Sidibe, Dro Désiré 07 December 2007 (has links) (PDF)
Le principal intérêt de l'utilisation des invariants locaux pour la mise en correspondance de différentes vues d'une même scène est le caractère local qui les rend robustes aux occultations et aux changements de point de vue et d'échelle. Néanmoins, cette localité limite le pouvoir discriminant des descripteurs locaux qui échouent dans les cas dificiles où l'ambiguité est élevée. Dans une première partie, nous proposons une méthode de mise en correspondance basée sur la relaxation qui prend en compte une information plus globale, dite contextuelle, afin de garantir des résultats corrects même dans les cas les plus dificiles. Nous présentons une application dans le cadre de la reconnaissance d'objets dans des scènes complexes. Dans une seconde partie, nous abordons le problème de la détection et du suivi du visage dans une séquence d'image. Nous proposons une méthode simple et eficace pour la détection du visage dans une image couleur, et nous montrons comment l'algorithme de mise en correspondance peut être utilisé pour suivre eficacement le visage dans une séquence d'images.
115

Etudes phénoménologiques et astrophysiques de la matière noire légère / Phenomenological and astrophysical studies of light dark matter

Albornoz Vasquez, Daniel Patricio 19 September 2011 (has links)
La Matière Sombre représente une des quêtes les plus importantes pour la compréhension des constituants élémentaires de l'Univers: la nature de la Matière Sombre est toujours mystérieuse. La dernière décennie a connu des développements expérimentaux remarquables dans la recherche de la Matière Sombre. Le but de ce travail est l'étude de candidats de Matière Sombre de nature supersymétrique (le neutralino) et au-delà (les particules scalaires), et de leurs aspects phénoménologiques et d'astroparticules. Le neutralino, dans l'intervalle de masses 1-100 GeV, est testé par les expériences du Grand Collisionneur d'Hadrons, de détection directe et de détection indirecte; ce travail montre que la combinaison de ces techniques est un outil décisif pour une recherche minutieuse des prédictions théoriques. Les particules scalaires sont des candidats non-standards de masses jusqu'à 1 MeV qui pourraient être produits abondamment dans le Grand Collisionneur d'Hadrons, et au même temps expliquer d'autres phénomènes tels que la masse des neutrinos et/ou le signal à 511 keV provenant du centre galactique de la Voie Lactée. / The Dark Matter problem is one of the most relevant quests for the understanding of the elementary constituents of the Universe: the nature of the Dark Matter is still unveiled. Experimental efforts aiming to detect the Dark Matter have shown a great progress in the last decade. This work is devoted to the phenomenological and astroparticle studies of Dark Matter candidates of supersymmetric nature -the neutralino- and beyond -scalar particles. The former, in the 1-100 GeV mass range, is currently being tested by the Large Hadron Collider, direct detection and indirect detection experiments; this work shows that the interplay between techniques is a decisive tool to thoroughly search for theoretical predictions. The latter is a non-standard candidate as light as 1 MeV which could be copiously produced at the Large Hadron Collider, and at the same time explain other phenomena such as neutrino masses and/or the 511 keV line from the galactic center of the Milky Way.
116

Development of new algorithm for improving accuracy of pole detection to the supporting system of mobility aid for visually impaired person / Développement d'un nouvel algorithme pour améliorer l'exactitude de la détection de poteau pour assister la mobilité des personnes malvoyantes

Yusro, Muhammad 18 October 2017 (has links)
Ces travaux de recherche visaient à développer un système d'aide à la mobilité pour les personnes ayant une déficience visuelle (VIP ‘Visually Impaired Person’) appelé ‘Smart Environment Explorer Stick (SEES)’. Le but particulier de cette recherche était de développer de nouveaux algorithmes pour améliorer la précision de la détection de la présence de poteaux de la canne SEE-stick en utilisant la méthode de calcul de distance et la recherche de paires de lignes verticales basées sur l'optimisation de la technique de détection de contour de Canny. Désormais, l'algorithme de détection des poteaux est appelé l’algorithme YuRHoS. Le SEES développé comme système de support d'aide à la mobilité VIP a été intégré avec succès à plusieurs dispositifs tels que le serveur distant dénommé iSEE, le serveur local embarqué dénommé SEE-phone et la canne intelligente dénommée SEE-stick. Les performances de SEE-stick ont été améliorées grâce à l'algorithme YuRHoS qui permet de discriminer avec précision les objets (obstacles) en forme de poteau parmi les objets détectés. La comparaison des résultats de détection des poteaux avec ceux des autres algorithmes a conclu que l'algorithme YuRHoS était plus efficace et précis. Le lieu et la couleur des poteaux de test d’évaluation étaient deux des facteurs les plus importants qui influaient sur la capacité du SEE-stick à détecter leur présence. Le niveau de précision de SEE-stick est optimal lorsque le test d’évaluation est effectué à l'extérieur et que les poteaux sont de couleur argentée. Les statistiques montrent que la performance de l'algorithme YuRHoS à l'intérieur était 0,085 fois moins bonne qu'à l'extérieur. De plus, la détection de la présence de poteaux de couleur argentée est 11 fois meilleure que celle de poteaux de couleur noir. / This research aimed to develop a technology system of mobility aid for Visually Impaired Person (VIP) called Smart Environment Explorer Stick (SEES).Particular purpose of this research was developing new algorithm in improving accuracy of SEE-stick for pole detection using distance calculation method and vertical line pair search based on Canny edge detection optimization and Hough transform. Henceforth, the pole detection algorithm was named as YuRHoS algorithm.The developed SEES as supporting system of VIP mobility aid had been successfully integrated several devices such as global remote server (iSEE), embedded local server (SEE-phone) and smart stick (SEE-stick). Performance of SEE-stick could be improved through YuRHoS algorithm, which was able to fix the accuracy of SEE-stick in detecting pole. Test comparison of pole detection results among others algorithm concluded that YuRHoS algorithm had better accuracy in pole detection.Two most significant factors affecting SEE-stick ability in detecting pole was test location and pole color. Level of accuracy of SEE-stick would be optimum once the test location was performed outdoor and pole color was silver. Statistics result shown that YuRHoS algorithm performance indoor was 0.085 times worse than outdoor. Meanwhile, silver-pole-color as object detection could increase YuRHoS algorithm performance as much as 11 times better compare to black-pole-color.
117

La bimodalité de la parole au secours de la séparation de sources

Rivet, Bertrand 29 September 2006 (has links) (PDF)
Cette thèse est dédiée à la modélisation conjointe des modalités audio et vidéo de la parole et à son exploitation pour la séparation de sources. Tout d'abord, une modélisation probabiliste bimodale de la parole audiovisuelle à base de mélange de noyaux est proposée. Cette modélisation est ensuite exploitée pour la détection des silences. De plus, nous proposons une détection purement visuelle des silences en s'appuyant sur l'observation des lèvres du locuteur. Ce dernier procédé présente l'avantage d'être indépendant d'un bruit acoustique. Ces deux modélisations sont ensuite exploitées pour la séparation de mélanges convolutifs de sources audiovisuelles. Nous résolvons ainsi le problème classique des indéterminations des méthodes de séparation dans le domaine fréquentiel avant de proposer une méthode géométrique qui utilise les périodes de silence de la source d'intérêt. Les algorithmes proposés sont validés par des expériences sur des corpus multi-locuteurs et multi-langues.
118

Détection de situations critiques et commande robuste tolérante aux défauts pour l'automobile

Varrier, Sébastien 18 September 2013 (has links) (PDF)
Les véhicules modernes sont de plus en plus équipés de nouveaux organes visant à améliorer la sécurité des occupants. Ces nouveaux systèmes sont souvent des organes actifs utilisant des données de capteurs sur le véhicule. Cependant, en cas de mauvais fonctionnement d'un capteur, les conséquences pour le véhicule peuvent être dramatiques. Afin de garantir la sécurité dans le véhicule, des nouvelles méthodologies de détections de défauts adaptées pour les véhicules sont proposées. Les méthodologies présentées sont étendues de la méthode de l'espace de parité pour les systèmes à paramètres variant (LPV). En outre, la transformation du problème de détection de défauts pour la détection de situations critiques est également proposée. Des résultats applicatifs réalisés sur un véhicule réel dans le cadre du projet INOVE illustrent les performances des détections de défauts et la détection de perte de stabilité du véhicule.
119

Oriented filters for feature extraction in digital Images : Application to corners detection, Contours evaluation and color Steganalysis / Filtres orientés pour l'extraction de primitives dans les images : Application à la détection de coins, l'évaluation de contours, et à la stéganalyse d'images couleur

Abdulrahman, Hasan 17 November 2017 (has links)
L’interprétation du contenu de l’image est un objectif très important dans le traitement de l’image et la vision par ordinateur. Par conséquent, plusieurs chercheurs y sont intéressés. Une image contient des informations multiples qui peuvent être étudiés, telles que la couleur, les formes, les arêtes, les angles, la taille et l’orientation. En outre, les contours contiennent les structures les plus importantes de l’image. Afin d’extraire les caractéristiques du contour d’un objet, nous devons détecter les bords de cet objet. La détection de bords est un point clé dans plusieurs applications, telles que :la restauration, l’amélioration de l’image, la stéganographie, le filigrane, la récupération, la reconnaissance et la compression de l’image, etc. Toutefois, l’évaluation de la performance de la méthode de détection de bords reste un grand défi. Les images numériques sont parfois modifiées par une procédure légale ou illégale afin d’envoyer des données secrètes ou spéciales. Afin d’être moins visibles, la plupart des méthodes stéganographiques modifient les valeurs de pixels dans les bords/textures de parties de l’image. Par conséquent, il est important de détecter la présence de données cachées dans les images numériques. Cette thèse est divisée principalement en deux parties.La première partie discute l’évaluation des méthodes de détection des bords du filtrage, des contours et des angles. En effet, cinq contributions sont présentées dans cette partie : d’abord, nous avons proposé un nouveau plan de surveillance normalisée de mesure de la qualité. En second lieu, nous avons proposé une nouvelle technique pour évaluer les méthodes de détection des bords de filtrage impliquant le score minimal des mesures considérées. En plus, nous avons construit une nouvelle vérité terrain de la carte de bords étiquetée d’une manière semi-automatique pour des images réelles.En troisième lieu, nous avons proposé une nouvelle mesure prenant en compte les distances de faux points positifs pour évaluer un détecteur de bords d’une manière objective. Enfin, nous avons proposé une nouvelle approche de détection de bords qui combine la dérivée directionnelle et l’homogénéité des grains. Notre approche proposée est plus stable et robuste au bruit que dix autres méthodes célèbres de détection. La seconde partie discute la stéganalyse de l’image en couleurs, basée sur l’apprentissage automatique (machine learning). En effet, trois contributions sont présentées dans cette partie : d’abord, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur l’extraction de caractéristiques de couleurs à partir de corrélations entre les gradients de canaux rouge, vert et bleu. En fait, ces caractéristiques donnent le cosinus des angles entre les gradients. En second lieu, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur des mesures géométriques obtenues par le sinus et le cosinus des angles de gradients entre tous les canaux de couleurs. Enfin, nous avons proposé une nouvelle méthode de stéganalyse de l’image en couleurs, basée sur une banque de filtres gaussiens orientables. Toutes les trois méthodes proposées présentent des résultats intéressants et prometteur en devançant l’état de l’art de la stéganalyse en couleurs. / Interpretation of image contents is very important objective in image processing and computer vision. Wherefore, it has received much attention of researchers. An image contains a lot of information which can be studied such as color, shapes, edges, corners, size, and orientation. Moreover, contours include the most important structures in the image. In order to extract features contour of an object, we must detect the edges of that object. Edge detection results, remains a key point and very important step in wide range of applications such as: image restoration, enhancement, steganography, watermarking, image retrieval, recognition, compression, and etc. An efficient boundary detection method should create a contour image containing edges at their correct locations with a minimum of misclassified pixels. However, the performance evaluationof the edge detection results is still a challenging problem. The digital images are sometimes modify by a legal or illegal data in order to send special or secret data. These changes modify slight coefficient values of the image. In order to be less visible, most of the steganography methods modify the pixel values in the edge/texture image areas. Therefore, it is important to detect the presence of hidden data in digital images. This thesis is divided mainly into two main parts. The first part, deals with filtering edge detection, contours evaluation and corners detection methods. More deeply, there are five contributions are presented in this part: first, proposed a new normalized supervised edge map quality measure. The strategy to normalize the evaluation enables to consider a score close to 0 as a good edge map, whereas a score 1 translates a poor segmentation. Second, proposed a new technique to evaluate filtering edge detection methods involving the minimum score of the considerate measures. Moreover, build a new ground truth edge map labelled in semi-automatic way in real images. Third, proposed a new measure takes into account the distances of false positive points to evaluate an edge detector in an objective way. Finally, proposed a new approach for corner detection based on the combination of directional derivative and homogeneity kernels. The proposed approach remains more stable and robust to noise than ten famous corner detection methods. The second part, deals with color image steganalysis, based on a machine learning classification. More deeply, there are three contributionsare presented in this part: first, proposed a new color image steganalysis method based on extract color features from correlations between the gradients of red, green and blue channels. Since these features give the cosine of angles between gradients. Second, proposed a new color steganalysis method based on geometric measures obtained by the sine and cosine of gradient angles between all the color channels. Finally, proposed a new approach for color image steganalysisbased on steerable Gaussian filters Bank.All the three proposed methods in this part, provide interesting and promising results by outperforming the state-of-art color image steganalysis.
120

Etude et validation de nouveaux biomarqueurs pour le diagnostic de la tuberculose pulmonaire / Study and validation of new biomarkers for the diagnosis of pulmonary tuberculosis

Akue Brust, Belinda 28 June 2011 (has links)
La tuberculose (TB) est une maladie infectieuse causée par M. tuberculosis. En 2009, la mortalité était élevée avec 1,7 millions de décès enregistrés dans le monde. La co-infection par le VIH, notamment en Afrique, et les tuberculoses à bacilles multi-résistants aux antibiotiques, rendent la maîtrise de la pandémie encore plus complexe. Les tests actuels de diagnostic présentent des lacunes notamment en terme de sensibilité pour la microscopie qui est le test le plus utilisé, ou en terme de praticité, en ce qui concerne la culture qui est le test de référence. Le développement de nouveaux tests pour le diagnostic de la TB active représente un enjeu majeur de nos sociétés modernes. Les tests immunologiques, en particulier les tests sérologiques actuellement disponibles, présentent une alternative aux tests bactériologiques couramment utilisés mais leurs performances restent faibles. Pour cela, il est indispensable de cibler de nouveaux biomarqueurs pour développer un test efficace, sensible, rapide et peu onéreux. C'est dans de cadre que s'inscrit ce travail de thèse.Nous rapportons dans ce mémoire, la recherche de marqueurs innovants dans le cadre de la mise au point d'un test de diagnostic de la tuberculose. Nous avons ciblé plusieurs marqueurs protéiques (OmpATb, LipY, Rv0183, Rv1984c et Rv3452) et un marqueur glycolipide, le tréhalose-6,6'-dimycolate (TDM). Parmi ces candidats, plusieurs présentent de réelles performances sur le plan diagnostique. Parallèlement à cette étude, nous avons mis au point une technique de séparation des différentes formes de TDM. La séparation des différentes formes de TDM devrait permettre de déterminer de façon précise les fonctions de ces composants majeurs de la paroi de M. tuberculosis et d'évaluer leur potentiel en terme de diagnostic.Mots clés : tuberculose, sérodiagnostic, détection antigène, détection anticorps, enzymes lipolytiques, glycolipide. / Tuberculosis (TB) is an infectious disease caused by M. tuberculosis. In 2009, mortality was high with 1,7 million of recorded deaths in the world. The co-infection by the HIV, in particular in Africa, and tuberculosis with multi-resistant bacilli to antibiotics, make the control of pandemia more complex. The current tests of diagnosis present gaps, in particular, in term of sensitivity for microscopy, which is currently the used test, or in term of praticity, for the culture which is considered as the gold standard.The development of new tests for the diagnosis of TB active represents a major challenge of our modern societies. The immunological tests, in particular the serologic tests available, can present an alternative to the currently bacteriological tests. However, their performances are not sufficient. That's why, it is essential to target new biomarkers which permit to establish an effective, sensitive, fast and cheap test. It is in this context that my study takes place.We report in this memory, the research of innovating markers for the development of a diagnostic test of tuberculosis. We targeted several protenic markers (OmpATb, LipY, Rv0183, Rv1984c and for Rv3452) and a glycolipid marker, the trehalose-6,6'-dimycolate (TDM). Among these candidates, several shown good performances for active TB diagnosis. In parallel to this study, a technique of separation of the various forms of TDM was developed. The separation of the various forms of TDM will permit to study their role on the biological activities and evaluate their potential in term of diagnosis.Key words: tuberculosis, serodiagnostic, antigen detection, antibody detection, lipolytic enzymes, glycolipid.

Page generated in 0.11 seconds