• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1117
  • 550
  • 155
  • 3
  • Tagged with
  • 1801
  • 888
  • 376
  • 261
  • 257
  • 241
  • 199
  • 164
  • 159
  • 156
  • 149
  • 144
  • 130
  • 129
  • 115
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Agents du bioterrorisme : détection in situ de gènes de résistance aux antibiotiques chez les spores de Bacillus sp

Laflamme, Christian 13 April 2018 (has links)
L'introduction délibérée dans l'air de microorganismes pathogènes représente une menace. Parmi les armes bactériologiques les plus craintes, on retrouve les spores de Bacillus anthracis. La possibilité de faire face à des souches de B. anthracis, porteuses de résistances aux antibiotiques, est bien réelle. Le but du projet est de développer une méthode rapide de détection des résistances aux antibiotiques pour les spores de Bacillus sp. Cette méthode doit pouvoir être utilisée avec un système de détection permettant une analyse cellule par cellule. Les techniques de FISH (Fluorescent In Situ Hybridization) et de PCR in situ sont appropriées dans cette situation. Présentement, le seul protocole de perméabilisation des spores de Bacillus sp. pour la détection in situ nécessite trois jours. Les objectifs spécifiques de cette thèse étaient de (i) développer un protocole de perméabilisation rapide des spores permettant de faire du FISH et (ii) développer des méthodes in situ afin de détecter des séquences de gènes de résistance aux antibiotiques d'origines plasmidique et chromosomique. Deux approches ont été utilisées pour perméabiliser les spores soit la germination rapide et la perméabilisation directe. Ensuite, les techniques d'amplification enzymatique du signal FISH et de PCR in situ ont été mises au point pour les spores. Des souches simulantes nonpathogènes de B. anthracis, soit B. aetropheus et B. cereus ATCC 14579 ont été utilisées comme modèle pour les expériences. La germination rapide des spores permet une détection par FISH en moins de deux heures comparativement à la perméabilisation directe des spores qui permet une détection en moins d'une heure. Les techniques d'amplification enzymatique du signal FISH et le PCR in situ ont permis la détection du gène de résistance au chloramphénicole présent sur le plasmide à haute copie pC 194. Le PCR in situ a permis la détection du gène de résistance à l'érythromycine porté par le plasmide à faible copie pMTL ainsi que d'une mutation, d'origine chromosomique, responsable de la résistance à la rifampicine. Cette thèse démontre qu'il est possible de détecter, directement dans la spore de Bacillus sp., des gènes de résistance aux antibiotiques, même s'ils sont présents en faible nombre de copies.
112

Deep learning based semi-supervised video anomaly detection

Baradaran, Mohammad 25 January 2024 (has links)
Thèse ou mémoire avec insertion d'articles / La détection d'anomalies vidéo (DAV) est une tâche cruciale de vision par ordinateur pour diverses applications du monde réel telles que la vidéosurveillance, le contrôle qualité, etc. Avec la rareté des données d'anomalies étiquetées et la nature ouverte des définitions d'anomalies, il y a eu une croissance d'intérêt des chercheurs pour l'exploration de méthodes semi-supervisées de détection d'anomalies vidéo. Ces méthodes utilisent une tâche proxy pour ajuster un modèle sur des échantillons normaux, en tenant compte de leurs caractéristiques d'apparence et de mouvement. Les anomalies sont par conséquent détectées en mesurant l'écart des échantillons de test par rapport au modèle normal formé. Cette thèse est dédiée à l'avancement de ce domaine, englobant quatre composantes distinctes. Dans la partie initiale, nous menons une étude approfondie sur les méthodes DAV semi-supervisées de pointe existantes afin d'examiner leurs points forts et leurs défis. Pour compléter notre examen, nous effectuons également des expériences pour mieux comprendre les capacités et les limites des approches existantes. Les résultats de cette étude servent de source de motivation et mettent en lumière l'orientation de notre recherche. Cette étude est publiée sous la forme d'un article de synthèse (MTAP2023). Lors de l'analyse des méthodes existantes, il devient évident qu'elles ne tiennent pas suffisamment compte de la classe des objets lorsqu'il s'agit de détecter des anomalies d'apparence. Inspirés par ce besoin, nous proposons, dans la deuxième partie, une méthode DAV basée sur l'apprentissage en profondeur et sensible aux classes d'objets. C'est une méthode à deux flux qui modélise et détecte les anomalies de mouvement et d'apparence dans différentes branches. Dans la branche apparence, nous introduisons une approche basée sur la distillation des connaissances qui utilise une méthode de segmentation sémantique pré-entraînée (Mask-RCNN) pour former un réseau étudiant dédié à la segmentation sémantique avec des objets normaux. Par conséquent, en mesurant l'écart entre les sorties des réseaux enseignant et étudiant, nous dérivons un score d'anomalie pour la branche d'apparence. La branche de mouvement, d'autre part, traduit une image brute en sa carte de magnitude de flux optique correspondante, pour modéliser les mouvements normaux et détecter les anomalies associées. L'approche de modélisation de mouvement proposée atténue le risque de généralisation aux anomalies, améliorant ainsi la fiabilité et la précision du processus de détection. Les résultats de cette étude ont été publiés sous forme d'article de conférence (CRV 2022). Dans la troisième partie, nous proposons une méthode de détection d'anomalies vidéo basée sur l'apprentissage multi-tâches visant à tirer parti des avantages de la combinaison de plusieurs tâches proxy complémentaires pour améliorer les performances de détection d'anomalies. Différentes tâches complémentaires sont proposées en tenant compte de leurs capacités et insuffisances à détecter différents cas d'anomalies. De plus, nous proposons une nouvelle tâche proxy de prédiction de carte de segmentation sémantique future pour la détection d'anomalies vidéo qui bénéficie des capacités de prédiction de trames futures et de tâches de segmentation sémantique pour la détection d'anomalies de mouvement et d'apparence. De plus, pour améliorer encore la détection des anomalies de mouvement, nous intégrons la tâche de prédiction de l'amplitude du flux optique à partir d'une trame brute dans une autre branche. Finalement, pour relever les défis rencontrés dans notre méthode précédente, nous proposons plusieurs mécanismes d'attention pour engager des informations contextuelles dans la modélisation de mouvement, conduisant à une amélioration des performances. Les résultats de cette étude ont été publiés sous forme d'article de conférence (CVPRW 2023). Dans la dernière partie, nous relevons un autre défi dans la modélisation du mouvement. Tant dans nos méthodes proposées que dans d'autres méthodes existantes, les modèles de mouvement à long terme n'ont pas été efficacement pris en compte pour la détection d'anomalies vidéo. Pour remédier à cette limitation, nous proposons une nouvelle tâche proxy pour la détection d'anomalies vidéo : la prédiction vidéo future à partir d'une seule image. Cette méthode prend en compte les modèles de mouvement à long terme en plus des modèles à court terme pour la détection d'anomalies vidéo et relève le défi de la généralisation aux mouvements anormaux. Cette étude donne des résultats significatifs. Les résultats démontrent que la formulation de DAV comme une prédiction d'images plus éloignées dans le futur (au lieu de l'image suivante immédiate) entraîne une plus grande disparité entre les normales et les anomalies et donc une amélioration des performances. Les résultats de cette étude sont acceptés sous forme d'article de conférence (ISVC 2023). Nos résultats qualitatifs et quantitatifs ainsi que des études d'ablation sur des ensembles de données de référence tels que les ensembles de données ShanghaiTech, UCSD-Ped1 et UCSD-Ped2 démontrent le succès de chaque contribution de notre thèse dans la réalisation de leurs objectifs respectifs. / Video anomaly detection (VAD) is a crucial computer vision task for various real-world applications such as video surveillance, quality control, etc. With the scarcity of labeled anomaly data and the open-ended nature of anomaly definitions, there has been a growing interest among researchers in exploring semi-supervised methods for video anomaly detection. These methods employ a proxy-task to fit a model on normal samples, taking into account their appearance and motion features. Anomalies are consequently detected by measuring the deviation of test samples from the trained normal model. This thesis is dedicated to advancing this field, encompassing four distinct components. In the initial part, we conduct an in-depth study on existing state-of-the-art semi-supervised VAD methods to examine their strong points and challenges. To supplement our review, we also conduct experiments to gain deeper insights into the capabilities and limitations of existing approaches. The outcomes of this study serve as a source of motivation and highlights the direction of our research. This study is published as a review paper (MTAP2023). Upon analyzing the existing methods, it becomes apparent that they do not adequately consider the object class when it comes to detecting appearance anomalies. Inspired by this need, we propose, in the second part, a two-stream object class-aware deep learning based VAD method that models and detects motion and appearance anomalies in different network branches. In the appearance branch, we introduce a knowledge-distillation-based approach that utilizes a pre-trained semantic segmentation method (Mask-RCNN) to train a student network dedicated to semantic segmentation with normal objects. Consequently, by measuring the disparity between the outputs of the teacher and student networks, we derive an anomaly score for the appearance branch. Motion branch, on the other hand, translates a raw frame to its corresponding optical flow magnitude map, to model normal motions and detect related anomalies. The proposed motion modeling approach, mitigates the risk of generalization to anomalies, thus enhancing the reliability and precision of the detection process. Results of this study is published as a conference paper (CRV 2022). In the third part, we put forth a multi-task learning based video anomaly detection method aimed at leveraging the benefits of combining multiple complementary proxy-tasks to enhance anomaly detection performance. Different complementary tasks are suggested taking into ac count their abilities and shortcomings in detecting different anomaly cases. Moreover, we propose a novel proxy-task of future semantic segmentation map prediction for video anomaly detection which benefits from the abilities of future frame prediction and semantic segmentation tasks for motion and appearance anomaly detection. Additionally, to further enhance the detection of motion anomalies, we incorporate the task of optical flow magnitude prediction from a raw frame in another branch. Finally, to address the challenges encountered in our previous method, we propose multiple attention mechanisms to engage context information in motion modeling, leading to performance improvement. Results of this study is published as a conference paper (CVPRW 2023). As the final part, we tackle another challenge in motion modeling. Both in our proposed methods and other existing methods, long-term motion patterns have not been effectively considered for video anomaly detection. To address this limitation, we put forward a novel proxy-task for video anomaly detection: future video prediction from a single frame. This method considers long-term motion patterns in addition to short-term ones for video anomaly detection and addresses the challenge of generalization to abnormal motion. This study yields significant findings. The results demonstrate that formulating VAD as a prediction of farther frames in the future (instead of the immediate next frame) results in a larger disparity between normals and anomalies and hence in improved performance. Results of this study is accepted as a conference paper (ISVC 2023). Our qualitative and quantitative results along with ablation studies on benchmark datasets such as ShanghaiTech, UCSD-Ped1 and UCSD-Ped2 datasets demonstrate the success of each contribution of our thesis in achieving their respective goals.
113

Approche logique pour l'analyse de traces d'exécutions

Zribi, Rimeh 19 April 2018 (has links)
Les techniques traditionnelles de détection d'intrusions s'appuient sur différentes approches permettant d'identifier une utilisation non prévue et non autorisée de différentes ressources d'un système informatique. Afinn de détecter ces comportements, nous décrivons dans ce mémoire une approche logique de détection d'intrusions basée sur l'identification, dans des traces d'exécutions, de violations de politiques de sécurité données. Le modèle développé spécifie l'état des ressources d'un système ainsi que les effets des différents appels système sur cet état. Le système obtenu, qui s'apparente à un système expert, s'appuie sur un ensemble de règles logiques décrivant les connaissances d'un expert en sécurité informatique. Tout comportement illégal, c'est-à-dire non conforme aux politiques de sécurité considérées, est signalé et est considéré comme une tentative d'intrusion. Le système implémenté est capable de détecter une large classe d'attaques puisque l'approche développée ne se base pas sur certaines séquences particulières d'actions déjà recensées, mais plutôt sur les effets des différentes actions effectuées. De plus, il est capable de détecter de nouveaux comportements malveillants non préalablement identifiés. / Traditional techniques for intrusion detection based on different approaches for identifying unintended and unauthorized use of dfferent resources of a computer system. To detect these behaviors, we describe in this paper a logical approach to intrusion detection based on the identification, in execution traces, of violations of given security policies. The developed model specifies the state of system resources as well as the effects of different system calls on this state. The resulting system, which is similar to an expert system, relies on a set of logical rules describing the knowledge of an expert in computer security. Any illegal behavior, that means not conform to the considered security policies, is reported and is considered as an intrusion attempt. The implemented system is able to detect a wide class of attacks since the approach is not based on some particular sequences of actions already identified, but rather on the effects of different actions performed. In addition, it is able to detect new malicious behavior not previously identified.
114

Tunable Liquid Crystal Lenses for Lemming Camera Trapping in Arctic Conditions

Pusenkova, Anastasiia 13 December 2023 (has links)
Les lentilles à cristaux liquides (CL) ajustables (TLCL en anglais) de différents diamètres sont activement développées pour différentes applications d'imagerie, telles que les caméras de téléphones intelligents et de surveillance, l'ophtalmologie, la réalité virtuelle et augmentée, etc. Grâce à l'anisotropie diélectrique et optique des matériaux CL, un changement dynamique de distance focale de la lentille est possible sans changer sa forme ou sans utiliser de mouvement mécanique, en appliquant un champ électrique externe. Cette thèse présente le projet de recherche, visant à créer un système de piège photographique pour l'observation des lemmings subnivéenne dans l'Arctique canadien. En particulier, il se concentre sur la partie optique du projet multidisciplinaire : concevoir une lentille à CL avec un foyer ajustable afin de rendre la caméra adaptative et d'obtenir une meilleure qualité d'image ou de vidéo. Les conditions environnementales extrêmes nécessitent une conception de TLCL particulière, qui fournira la puissance optique (PO) nécessaire, mais en même temps aura une faible consommation d'énergie et fonctionnera sans panne pour les températures froides. Dans le chapitre d'Introduction, un bref résumé des études d'observation des lemmings est présenté ainsi que des exemples de piégeage photographique d'animaux du monde entier. La deuxième partie d'Introduction est consacrée aux matériaux CL et aux différentes conceptions de TLCL. Des conceptions alternatives de lentilles adaptatives et des approches pour étendre la profondeur de champ sont également brièvement discutées. Le piégeage photographique dans l'Arctique présente de nombreux défis liés aux conditions météorologiques extrêmes et à son emplacement éloigné. Par conséquent, nous avons commencé le projet avec une conception de système de piège photographique qui peut surmonter ces défis et nous fournir des résultats préliminaires sur le terrain. Les particularités de la conception optique et mécanique de l'appareil sont expliquées dans le Chapitre 1 et les premières images de lemmings en Arctique sous la neige en hiver sont présentées. Les spectres de transmission des fenêtres optiques utilisées dans les pièges photographiques sont ajoutés en Annexe A. Pour rendre la caméra adaptative, nous avons commencé avec la conception bien connue de la lentille CL - lentille à contrôle modal, et avons étudié ses performances aux températures requises pour le projet (d'environ -20 ° à +20 °) - Chapitre 2. Afin d'assurer la bonne performance de la lentille malgré un changement de température considérable, nous avons mesuré expérimentalement les paramètres du matériaux (CL et couche faiblement conductrice ou WCL en anglais). Ensuite, la modélisation théorique de la lentille à contrôle modal a été effectuée pour optimiser la conception de la lentille et des échantillons expérimentaux ont été fabriqués et testés dans la plage de température requise. Nous avons trouvé un moyen d'athermaliser la lentille à contrôle modal, afin de pouvoir maintenir les mêmes POs et la même qualité d'image. Cependant, le WCL reste pas optimal pour les environnements avec des températures variables car sa résistance en dépend fortement. De plus, il est difficile de fabriquer du WCL et de contrôler sa résistance de surface. Par conséquent, dans le Chapitre 3, nous proposons une nouvelle conception d'une lentille à CL, basée sur une structure en spirale de oxyde d'indium-étain (ITO en anglais). Elle présente de nombreux avantages en termes de simplicité de fabrication, de moindre dépendance à la température, de consommation électrique, etc. Cette approche est également prometteuse pour d'autres applications d'imagerie telles que l'ophtalmologie, l'endoscopie et la réalité augmentée. Dans les Annexes B et C des voies possibles d'implémentation des letilles à CL dans les caméras sont démontrées. Outre la dépendance à la température, une limitation majeure de l'imagerie CL est la diffusion de la lumière. Dans le Chapitre 4, nous explorons différentes manières de post-traitement d'image qui aident à réduire la dégradation de la qualité d'image causée par la diffusion de la lumière dans les CL et ouvre les nouvelles possibilités pour l'implémentation des TLCLs dans les appareils d'imagerie. / Tunable liquid crystal (LC) lenses (TLCLs) of different diameters are actively developed for different imaging applications, such as smartphone and surveillance cameras, ophthalmology, virtual and augmented reality, etc. Thanks to the dielectric and optical anisotropy of LC materials a dynamic change of focal distance of the lens is possible without changing its shape or without using any mechanical movement, by applying an external electric field. This thesis presents the research project, aiming at creating a camera trap system for subnivean lemming observation in the Canadian Arctic. In particular, it is focused on the optical design part of the multidisciplinary project: designing a LC lens with tunable focus in order to make the camera adaptive to achieve better image or video quality. Extreme environmental conditions require a particular TLCL design that would provide the necessary optical power (OP), but at the same time would have low power consumption and work without failures at cold temperatures. In the introductory chapter a brief summary of lemming observation studies is presented along with examples of animal camera trapping from around the world. The second part of Introduction is dedicated to the LC materials and different designs of TLCLs. Alternative designs of adaptive lenses and various approaches to extend the depth of field are also briefly discussed. Camera trapping in the Arctic has a lot of challenges related to the extreme weather condition and its remote location. Therefore, we started the project with a design of camera trap system that can overcome these challenges and provide us preliminary field results. The particularities of optical and mechanical design of the device are explained in Chapter 1 and first images of lemmings in the Arctic under snow during winter are presented. The transmission spectrums of the optical windows used in the camera traps are shown in Appendix A. To make the camera adaptive we started with a well known design of LC lens - modal control lens and studied its performance at the temperatures required for the project (from around -20°C to +20°C) - Chapter 2. In order to ensure good performance of the lens despite of considerable temperature change, we experimentally measured the material parameters (LC and weakly conductive layer or WCL) temperature dependence. Then theoretical modelling of modal control lens was performed to optimize the lens design and experimental samples were fabricated and tested in the required temperature range. We found a way to athermalize the modal control lens, so that we could maintain the same OPs and image quality. However, the WCL remains not optimal for environments with varying temperatures since its resistance strongly depends on it. Moreover, it is difficult to fabricate WCL and control its sheet resistance. Therefore, in Chapter 3 we propose a new design of an LC lens, based on a spiral indium tin oxide (ITO) structure. It has numerous advantages such as simple fabrication, smaller temperature dependence, lower power consumption, etc. This approach is also promising for other imaging applications: ophthalmology, endoscopy and augmented reality. In Appendices B and C some possible ways of LC lenses implementation in cameras are demonstrated. Along with the temperature dependence, a major limitation in LC imaging is light scattering. In Chapter 4 we explore different ways of image post-processing that help to reduce image quality degradation caused by LC light scattering and open new possibilities for TLCLs implementation in imaging devices.
115

Automated fault identification : kernel trace analysis

Waly, Hashem 18 April 2018 (has links)
L'évolution des systèmes informatiques ayant des programmes parallèles, des processeurs multi-cores et des réseaux fortement interconnectés rend la détection des activités malicieuses plus difficile. Dans un tel contexte, le traçage du noyau s:est révélé être une solution appropriée. Ce travail présente un framework complet pour les analyses des traces du noyau. On a proposé un langage scripte déclaratif et simple à utiliser pour la spécification des patrons. Les patrons compilés sont insérés dans le moteur de détection qui par la suite analyse les traces et progressivement communique avec le module d'affichage. Le module d1 affichage est responsable d'avertir l'administrateur sur les problèmes qui exécutent en arrière plan sur le système. On considère que notre approche est suffisamment générale pour être utiliser avec n'importe quel types de trace (réseaux ou systèmes) ou même des traces combinés. Le langage proposé peut efficacement décrire des patrons reliés aux différents types de domaines : sécurité, performance, débogage et abstraction.
116

Détection par spectrométrie en réflectance diffuse de colonies microbiennes endolithiques

Dumas, Stéphane 13 April 2018 (has links)
Sur Terre, ce sont dans les vallées sèches de l'Antarctique où l'on retrouve des conditions s 'approchant le plus de la planète Mars. Protégées du gel de la séch eresse et des rayons ultraviolets, les colonies bactériennes endolithiques constituent près de la moitié de la biomas"se de ces régions arides. Cette situation laisse présager qu'il pourrait en être de même sur la planète Mars. Le défi consiste à détecter ces colonies, car souvent aucun signe visible ne laisse présager leur présence. De plus, le forage des pierres risque de contaminer, ou pire encore, de détruire de précieux spécimens. L'approche proposée utilise la spectroscopie infrarouge afin de repérer la signature spectrale des colonies microbiennes. Le but de ce projet est d 'une part de vérifier la possibilité de détecter des microorganismes dans des échantillons de roches. La deuxième partie du projet est de développer une technique d'analyse des spectres afin d'isoler les marqueurs biologiques dans lesdits spectres de roches. La première partie fut accomplie avec l'aide d'échantillons de roches provenant de deux sites différents (Nunavut et Guelph). La méthode est décrite dans le chapitre 2. "La deuxième partie fut réalisée avec différents outils mathématiques tels que la méthode de corrélation et l'analyse en composantes principales (ACP, chapitre 3). Les résultats . montrent que la technique ACP fonctionne tant pour identifier le contenu minéral des . roches que pour isoler les spectres susceptibles de contenir des matières organiques. Toutefois, il n'est pas possible d 'identifier le type de molécule organique contenue dans les échantillons. La technique ACP fut également testée sur des échantillons d'Antarctique (chapitre 4) et le résultat s'avère positif. Alors que pour les spectres de roches martiennes provenant des sondes MER, les résultats sont non concluants voir négatif.
117

Développement d'un essai PCR pour l'identification des espèces de campylobacter

Lucien, Mentor Ali Ber 18 April 2018 (has links)
Les Campylobacter spp. représentent la plus grande cause de diarrhée bactérienne à travers le monde avec un coût économique élevé. Les méthodes phénotypiques utilisées au laboratoire de microbiologie médicale sont longues, ne différencient que Campylobacter jejuni des autres Campylobacter spp. et ne distinguent pas entre elles les deux sous-espèces de Campylobacter jejuni. Le développement de tests moléculaires capables de pallier à ces déficiences est donc important dans une perspective épidémiologique. Ce travail de recherche avait pour but de développer un essai PCR multiplex tuf-napA pour l’identification de Campylobacter jejuni au niveau de ses deux sous-espèces et de Campylobacter coli. Ce multiplex a ensuite été appliqué aux isolats de Campylobacter spp. du CHUL au CHUQ pour la période d’étude de janvier 2007 à janvier 2010 afin de définir l’épidémiologie moléculaire à l’hôpital. La capacité du gène tuf à servir comme gène cible pour discriminer les Campylobacter spp. a été établie ici pour la première fois. / Campylobacter spp. are the leading cause of bacterial diarrhea worldwide with a high economic cost. The phenotypic methods used in medical microbiology laboratories are time-consuming, differentiate only Campylobacter jejuni from other Campylobacter spp. and do not distinguish between the two subspecies of Campylobacter jejuni. The development of molecular tests able to overcome these deficiencies is important from an epidemiological perspective. This research concentrates on the development of a PCR assay tuf-napA multiplex for the identification of Campylobacter jejuni at the level of its two sub-species as well as Campylobacter coli. This multiplex was then applied to Campylobacter spp. isolates at the CHUL of CHUQ for the study period from January 2007 to January 2010 to define the molecular epidemiology in the hospital. The ability of tuf gene to serve as target gene for discriminating Campylobacter spp. was established here for the first time.
118

Perception pour véhicule urbain sans conducteur : conception et implémentation

Benenson, Rodrigo 25 November 2008 (has links) (PDF)
Le développement de véhicules sans conducteur capables de se déplacer sur des routes urbaines pourrait offrir des avantages importants dans la réduction des accidents, le confort et la réduction des coûts des déplacements. Dans ce document, nous discutons la manière de créer un système de perception permettant à un robot de conduire sur des routes sans devoir adapter l'infrastructure, sans avoir besoin de visites précédentes, et en prenant en compte la présence de piétons et d'autres voitures. Nous affirmons que le processus de perception est spécifique à l'application visée et que, par nature, il doit être capable de gérer les incertitudes dans la connaissance du monde. Nous analysons le problème de perception pour une conduite sûre dans les environnements urbains et proposons une solution où le processus de perception est formulé comme un processus d'optimisation. Nous pensons aussi que le processus de perception pourrait bénéficier de la collaboration entre véhicules à proximité. Nous examinons ce problème et proposons une solution adaptée aux contraintes rencontrés dans les zones urbaines. Ici la question centrale est formulée comme un problème d'association de données. La conception théorique du nouveau système de perception est validé par des expérimentations à pleine échelle sur notre véhicule électrique automatisé, le Cycab.
119

Une technique de relaxation pour la mise en correspondance d'images: Application à la reconnaissance d'objets et au suivi du visage.

Sidibe, Dro Désiré 07 December 2007 (has links) (PDF)
Le principal intérêt de l'utilisation des invariants locaux pour la mise en correspondance de différentes vues d'une même scène est le caractère local qui les rend robustes aux occultations et aux changements de point de vue et d'échelle. Néanmoins, cette localité limite le pouvoir discriminant des descripteurs locaux qui échouent dans les cas dificiles où l'ambiguité est élevée. Dans une première partie, nous proposons une méthode de mise en correspondance basée sur la relaxation qui prend en compte une information plus globale, dite contextuelle, afin de garantir des résultats corrects même dans les cas les plus dificiles. Nous présentons une application dans le cadre de la reconnaissance d'objets dans des scènes complexes. Dans une seconde partie, nous abordons le problème de la détection et du suivi du visage dans une séquence d'image. Nous proposons une méthode simple et eficace pour la détection du visage dans une image couleur, et nous montrons comment l'algorithme de mise en correspondance peut être utilisé pour suivre eficacement le visage dans une séquence d'images.
120

Etudes phénoménologiques et astrophysiques de la matière noire légère / Phenomenological and astrophysical studies of light dark matter

Albornoz Vasquez, Daniel Patricio 19 September 2011 (has links)
La Matière Sombre représente une des quêtes les plus importantes pour la compréhension des constituants élémentaires de l'Univers: la nature de la Matière Sombre est toujours mystérieuse. La dernière décennie a connu des développements expérimentaux remarquables dans la recherche de la Matière Sombre. Le but de ce travail est l'étude de candidats de Matière Sombre de nature supersymétrique (le neutralino) et au-delà (les particules scalaires), et de leurs aspects phénoménologiques et d'astroparticules. Le neutralino, dans l'intervalle de masses 1-100 GeV, est testé par les expériences du Grand Collisionneur d'Hadrons, de détection directe et de détection indirecte; ce travail montre que la combinaison de ces techniques est un outil décisif pour une recherche minutieuse des prédictions théoriques. Les particules scalaires sont des candidats non-standards de masses jusqu'à 1 MeV qui pourraient être produits abondamment dans le Grand Collisionneur d'Hadrons, et au même temps expliquer d'autres phénomènes tels que la masse des neutrinos et/ou le signal à 511 keV provenant du centre galactique de la Voie Lactée. / The Dark Matter problem is one of the most relevant quests for the understanding of the elementary constituents of the Universe: the nature of the Dark Matter is still unveiled. Experimental efforts aiming to detect the Dark Matter have shown a great progress in the last decade. This work is devoted to the phenomenological and astroparticle studies of Dark Matter candidates of supersymmetric nature -the neutralino- and beyond -scalar particles. The former, in the 1-100 GeV mass range, is currently being tested by the Large Hadron Collider, direct detection and indirect detection experiments; this work shows that the interplay between techniques is a decisive tool to thoroughly search for theoretical predictions. The latter is a non-standard candidate as light as 1 MeV which could be copiously produced at the Large Hadron Collider, and at the same time explain other phenomena such as neutrino masses and/or the 511 keV line from the galactic center of the Milky Way.

Page generated in 0.0825 seconds