• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

AdaBoost/GA et filtrage particulaire: La vision par ordinateur au service de la sécurité routière

Abramson, Yotam 07 December 2005 (has links) (PDF)
Cette Thèse combine des résultats récents et des algorithmes originaux pour créer deux applications temps-réel robustes d'aide à la conduite (projet aussi appelé "le véhicule intelligent"). Les applications - commande de croisière adaptative ("ACC") et prédiction d'impact piétons - sont conçues pour être installées sur un véhicule et détectent d'autres utilisateurs de la route, en utilisant une seule caméra frontale. La thèse commence par un état de l'art sur la vision artificielle. Elle s'ouvre en passant en revue certaines avancées récentes dans le domaine. En particulier, nous traitons l'utilisation récente d'un nouvel algorithme nommé AdaBoost pour la détection des objets visuels dans une image, rapidement et sûrement. Nous développons la théorie, ajoutons des algorithmes et des méthodes (y compris une variante à base d'algorithmes aux besoins de vraies applications d'aide à la conduite. En particulier, nous prouvons plusieurs nouveaux résultats sur le fonctionnement de l'algorithme AdaBoost. Toujours sur le plan théorique, nous traitons des algoritmes d'évaluation de mouvement et des filtres particulaires et leur utilisation dans la vision. De ces développements algoritmiques, nous arrivons à la description de deux applications d'aide à la conduite, toutes les deux entièrement mises en application, validées et démontrées sur le véhicule d'essai du Centre de Robotique de l'Ecole des Mines de Paris. La première application, la commande de croisière adaptative ("ACC"), exploite les formes caractéristiques des véhicules pour les détecter. Ainsi, l'application détecte des véhicules en utilisant un ensemble d'algorithmes classiques de traitement d'image (détection d'ombres, des feux arrières, de symétrie et de bords), ainsi que l'algorithme AdaBoost mentionné ci-dessus. Cet ensemble d'algorithmes est fusionné en se plaçant dans le cadre du filtrage particulaire, afin de détecter les véhicules devant notre voiture. Puis, le système de contrôle prend pour cible la voiture située devant et garde une distance constante par rapport à celle-ci, tout en commandant l'accélération et le freinage de notre voiture. La deuxième application, le prédiction d'impact piétons, estime au temps t la probabilité d'un impact de notre voiture avec un piéton au temps t+s. Dans l'application, la trajectoire de chaque piéton est calculée, et la probabilité d'impact est calculée selon la direction du piéton, du bruit et d'autres facteurs. Cette application utilise un accélérateur matériel spécifique crée dans le cadre du projet européen CAMELLIA (Core for Ambient and Intelligent Imaging Applications).
72

Combinaison d'estimations: application à la détection d'obstacles à bord des véhicules routiers intelligents

Blanc, Christophe 12 July 2005 (has links) (PDF)
Ces activités de recherche s'intégrent à l'un des deux groupes de recherche du laboratoire LASMEA : GRAVIR (GRoupe Automatique VIsion et Robotique), dont l'objectif principal est de développer des concepts théoriques et méthodologiques pour la perception de l'enironnement de machines, et de valider ceux-ci expérimentalement sur des démonstrateurs par des systèmes dédiés. Cet objectif a été pariculièrement suivi dans les véhicules routiers intelligents puisque, depuis plus de quinze ans, les résultats de recherches sur les capteurs, la reconnaissance des formes et la fusion de données obtenues par une dizaine de chercheurs sont appliqués en ce domaine. Ces recherches concernent la fusion de données pour la perception à bord des véhicules routiers intelligents. Elles s'inscrivent parmi deux projets : ARCOS (Action de Recherche pour une COnduite Sécurisée) s'inscrit dans le cadre des actions fédératives du PREDIT (Programme national de recherche et d'innovation dans les transports terrestres, à l'initiative des ministères chargés de la recherche, des transports, de l'environnement et de l'industrie, de l'Ademe et de l'Anvar) et PAROTO (Projet Anticollision Radar et Optronique pour l'auTOmobile) initié par le ministère de la recherche en partenariat avec SAGEM, Division Défense et Sécurité, et l'INRETS (Institut National de REcherche sur les Transports et leur Sécurité). Dans ce cadre, je m'intéresse à un système de perception conduisant, et ceci dans une grande variété de situations, à la définition d'une carte de l'environnement à l'avant du véhicule intelligent : chaque obstacle y est décrit par sa position absolue, son état cinématique et un certain nombre de caractéristiques qui peuvent être déterminantes pour définir l'aide à apporter au conducteur. Cette perception s'appuie sur le développement d'un système de fusion de données appliqué à la détection et au suivi des obstacles. Plusieurs capteurs, dont les complémentarités et redondances ont été soulignées, ont ainsi été installés à l'avant de notre véhicule démonstrateur : VELAC (VEhicule du Lasmea pour l'Aide à la Conduite) ; un capteur RADAR (développé au sein de notre laboratoire) dont l'objectif prioritaire est de fournir une information de vitesse relative des obstacles, un capteur LIDAR (Riegl) permettant une représentation en 3D de la scène routière, un capteur thermique (SAGEM) dont l'objectif était de détecter et de suivre les différents obstacles quelques soient les conditions atmosphériques. Les données de ces différents capteurs sont traitées indépendamment afin de détecter, et de suivre les obstacles à l'avant du véhicule. La problématique de fusion est ainsi vue comme une combinaison de pistages (estimations à l'aide du filtre de Kalman ou à particules). Il devient donc possible, après cette fusion, de représenter une carte précise de l'environnement à l'avant du véhicule intelligent : chaque obstacle y est décrit par sa position absolue, et son état cinématique qui sont déterminants pour définir l'aide à apporter au conducteur. Des résultats ont été validés à bord de notre véhicule démonstrateur VELAC
73

Détection visuelle de fermeture de boucle et applications à la localisation et cartographie simultanées

Angeli, Adrien 11 December 2008 (has links) (PDF)
La détection de fermeture de boucle est cruciale pour améliorer la robustesse des algorithmes de SLAM. Par exemple, après un long parcours dans des zones inconnues de l'environnement, détecter que le robot est revenu sur une position passée offre la possibilité d'accroître la précision et la cohérence de l'estimation. Reconnaître des lieux déjà cartographiés peut également être pertinent pour apporter une solution au problème de la localisation globale, ou encore pour rétablir une estimation correcte suite à un
74

Simulation Dynamique en Temps-Réel et Interaction 3D de Tissu Biologique: Application aux Simulateurs Médicaux

Sundaraj, Kenneth 23 January 2004 (has links) (PDF)
L'avènement de l'imagerie médicale et de nouvelles techniques opératoires a bouleversé les méthodes de travail des médecins. Mais ce changement nécessitera une formation renforcée des praticiens et chirurgiens. C'est pourquoi le dévelopment d'outils appropriés comme les simulateurs médico-chirurgicaux se fait de plus en plus ressentir. Dans ce cadre, nous nous sommes intéressés au problème de la modélisation des phénomènes de déformation de tissu biologique et à la détection des collisions dans un environment virtuel. Dans un premier temps, nous présentons les différents modèles physiques existants et les différentes méthodes de résolution numérique associées aux objets déformable. Nous proposons ensuite un modèle développé pour la simulation de tissu biologique, en présentant successivement les aspects liés à la formulation du modèle, à la résolution du modèle, et au traitement des interactions physiques. Ce modèle, basé sur l'utilisation du principe de Pascal, permet de modéliser de manière relativement satisfaisante des corps biologiques, tout en permettant une simulation interactive. Dans un deuxième temps, nous présentons les différents algorithmes existants pour la détection de collision, ainsi que la difficulté d'adapter ces algorithmes aux simulateurs médicaux où les objets déformables complexes forment la base du modèle. Nous proposons ensuite les algorithmes développés pour traiter ce problème dans le cadre des simulateurs médicaux. Ces algorithmes présentent des caractéristiques de robustesse numérique et d'efficacité supérieures á l'existant, et permettent de traiter des corps déformables. Nous appliquons ces résultats dans le cadre d'un simulateur échographique de la cuisse humaine et d'une simulateur de chirurgie arthroscopique du LCA (ligament croisé antérieur du genou).
75

Étude du métamorphisme viral : modélisation, conception et détection

Borello, Jean-Marie 01 April 2011 (has links) (PDF)
La protection contre les codes malveillants représente un enjeu majeur. Il suffit de considérer les exemples récents des vers Conficker et Stuxnet pour constater que tout système d'information peut aujourd'hui être la cible de ce type d'attaques. C'est pourquoi, nous abordons dans cette thèse la menace représentée par les codes malveillants et plus particulièrement le cas du métamorphisme. Ce dernier constitue en effet l'aboutissement des techniques d'évolution de codes (" obfuscation ") permettant à un programme d'éviter sa détection. Pour aborder le métamorphisme nous adoptons une double problématique : dans une première partie, nous nous attachons à l'élaboration d'un moteur de métamorphisme afin d'en estimer le potentiel offensif. Pour cela, nous proposons une technique d'obscurcissement de code dont la transformation inverse est démontrée NP-complète dans le cadre de l'analyse statique. Ensuite, nous appliquons ce moteur sur une souche malveillante préalablement détectée afin d'évaluer les capacités des outils de détection actuels. Après cette première partie, nous cherchons ensuite à détecter, outre les variantes engendrées par notre moteur de métamorphisme, celles issues de codes malveillants connus. Pour cela, nous proposons une approche de détection dynamique s'appuyant sur la similarité comportementale entre programmes. Nous employons alors la complexité de Kolmogorov afin de définir une nouvelle mesure de similarité obtenue par compression sans perte. Finalement, un prototype de détection de code malveillant est proposé et évalué.
76

Restauration automatique de films anciens

Decencière, Étienne 09 December 1997 (has links) (PDF)
La plus grande partie des films tournés avant les années cinquante ont été tirés sur des pellicules dont la durée de vie est assez courte. Ils ont déjà subi d'importants dommages et ils continuent à se dégrader. Il est nécessaire et même urgent de les restaurer. Par ailleurs, grâce au développement considérable des marchés audiovisuels si ces films sont remis en état, ils peuvent connaître une deuxième jeunesse. Les méthodes physico-chimiques existantes permettent de corriger un certain nombre de types de dégradations mais pas toutes. Les outils informatiques occupent aujourd'hui une place de plus en plus importante dans l'industrie de la restauration cinématographique et vidéo. Cependant la plupart des techniques employées traitent les images, une par une, à la main ce qui certes permet d'obtenir une qualité excellente mais qui est très coûteux en temps et par conséquent en argent. Pour pouvoir restaurer un plus grand nombre de films anciens, il faut développer des méthodes plus rapides. Cette thèse est parmi les premières à proposer des techniques de restauration automatique de films anciens. Il suffit qu'un opérateur choisisse les paramètres de la restauration tels que les types de défauts à considérer pour que nos algorithmes traitent sans intervention extérieure des séquences entières d'images. Cette approche permet d'accélérer considérablement la vitesse de traitement. Nous donnons dans ce qui suit une liste des défauts que nous traitons ainsi qu'un très court résumé de la méthode de restauration employée. Pompage: Ce défaut se caractérise par une variation indésirable de l'éclairage de la scène au cours du temps. Nous le traitons en limitant les variations de l'histogramme entre deux images consécutives tout en autorisant une certaine dérive pour ne pas interdire les variations naturelles de l'éclairage. Vibrations: Nous proposons une méthode pour mesurer la translation du fond de la scène entre images consécutives. Ensuite nous filtrons la suite des translations pour estimer les vibrations parasites et les corriger. Rayures verticales: Les rayures verticales blanches ou noires sont très courantes dans les films anciens. Nous les détectons en utilisant des opérateurs morphologiques tels que le chapeau haut de forme puis nous récupérons l'information perdue grâce à des interpolations. Tâches et autres défauts aléatoires: Dans cette catégorie nous classons tous les défauts qui apparaissent rarement à la même position sur deux images consécutives du film. Nous les détectons en appliquant des critères de connexité spatio- temporels mis en oeuvre grâce à des ouvertures et des fermetures par reconstruction. Lorsque le mouvement dans la scène est important, les critères de connexité peuvent être pris à défaut. Pour palier cet inconvénient, nous avons mis au point un algorithme de compensation de mouvement. Il est basé sur une segmentation de l'image de référence et utilise le krigeage pour interpoler et filtrer le champ de vecteurs de déplacement. Nous proposons plusieurs méthodes certaines spatiales d'autres temporelles pour interpoler les textures dans les zones endommagées Nous avons bâti un système de restauration réunissant ces différents algorithmes et nous l'avons appliqué à de nombreux cas pratiques obtenant de bons résultats
77

Développement, validation et application de méthodes d'analyse d'ultra-trace du Béryllium dans les matrices biologiques

Paquette, Vincent January 2008 (has links) (PDF)
Certaines études suggèrent que la forme chimique et la taille des particules de béryllium aient un rôle important à jouer sur sa toxicité. Le but principal du projet est de développer et valider des méthodes fiables, ayant des limites de détection au niveau d'ultra-trace, pour permettre d'analyser de faibles teneurs en béryllium dans différentes matrices biologiques. Cette étude s'inscrit dans un projet plus large où des souris ont été exposées par inhalation au Be (métal), BeO et BeAI (250 µg/m³, 6 h par jour, 14 jours). Les tissus et liquides biologiques suivants ont été prélevés sur les souris: sang, foie, poumon, rate et rein. Ils ont été digérés par une méthode, dans le cas des particules de Be (métal) et de BeAI, ou par une autre méthode, dans le cas de BeO. La méthode pour Be (métal) et BeAI consiste en une digestion humide avec un mélange (3:1) d'acide nitrique et perchlorique, tandis que la méthode pour BeO requiert l'ajout supplémentaire d'acide sulfurique. Les échantillons ont été analysés par ICP-MS avec le 6Li comme étalon interne. Les limites de détection méthodologiques ont été évaluées individuellement pour chaque matrice et chaque méthode. La limite de détection analytique moyenne est de 2 pg/mL en solution, ce qui correspond à l'équivalent de 0,02 ng/g de tissus biologiques. Dans le sang, elle est équivalente à 0,03 ng/mL. L'exactitude des méthodes a été confirmée à l'aide de matériel de référence certifié. Des méthodes fiables ont donc été développées, validées et ont des limites de détection parmi les meilleures de la littérature. Ces méthodes ont été utilisées pour évaluer la distribution du béryllium dans les différentes matrices biologiques en fonction de l'espèce chimique et de la taille des particules. Tel qu'attendu, les résultats toxicologiques ont démontré que la taille et la nature des particules de béryllium a une influence sur sa distribution dans l'organisme. Les méthodes développées ont démontré une sensibilité adéquate pour la grande majorité des échantillons analysés, démontrant ainsi leur efficacité face aux objectifs désirés du projet. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Béryllium, Digestion acide, Matrice biologique, ICP-MS, Ultra-trace.
78

Développement de méthodes impédancemétriques et biochimiques pour la détection rapide d'une faible contamination bactérienne en milieu liquide complexe

Rouillard, Sylvain 12 1900 (has links) (PDF)
Dans un contexte général où les consommateurs se sentent toujours plus concernés par les risques que font peser sur leur santé les biens de consommations, les industriels se doivent d'assurer l'innocuité de leurs produits. Le risque microbiologique en particulier, affecte de nombreux secteurs, dont l'agro-industrie, et il devient donc stratégique de disposer de techniques permettant de l'évaluer de façon sensible et rapide. Le développement de telles techniques est l'objectif du projet européen Microqual, dans lequel s'inscrivent les travaux présentés au cours de cette thèse. Ceux-ci ont concerné la détection proprement dite, par le biais du développement d'un nouveau prototype de suivi impédancemétrique de la croissance bactérienne. Ils ont également porté sur une méthode originale de concentration, basée sur l'utilisation de lectines immobilisées sur des micro-billes paramagnétiques, et ont permis de mettre au point les outils nécessaires au futur développement de cette méthode.
79

Réalisation d'un détecteur de radioactivité pour un système microfluidique

Girard Baril, Frédérique January 2011 (has links)
Pour établir le comportement pharmacocinétique de nouveaux radiotraceurs en imagerie moléculaire, il est nécessaire d’approfondir l’analyse réalisée à partir d ’une image par l’ajout d’une mesure dynamique de la radioactivité dans le sang. L’Université de Sherbrooke développe présentement une plateforme microfluidique d’échantillonnage et d’analyse permettant la mesure de la radioactivité du plasma en temps réel. L’objectif du présent projet de maîtrise était de réaliser le composant optoélectronique responsable de la détection des positrons et de l’intégrer à la puce microfluidique. L’option retenue a été l’utilisation de photodiodes PIN en silicium. Un procédé de fabrication, ainsi qu’une série de photomasques ont été développés afin de produire une première itération de prototypes. Les détecteurs ont été conçus de manière à optimiser leur sensibilité en fonction du type de rayonnement à détecter. En effet, la région de détection doit être suffisamment épaisse et sensible pour absorber le maximum de particules énergétiques. Également, il est essentiel de minimiser le courant de fuite en noirceur afin d’obtenir un photocourant directement proportionnel à l’énergie des radiations incidentes. Les caractéristiques électriques obtenues avec les premiers détecteurs ont été démontrées proches des performances de détecteurs commerciaux similaires. De plus, il a été possible d’intégrer un canal microfluidique au substrat contenant les photodiodes et d’en réaliser l’encapsulation sans altérer les performances électriques initiales des détecteurs. Une courbe de l’activité radioactive du l8F a été mesurée, celle-ci se comparant à l’activité théorique associée à ce radioisotope communément utilisé en TEP. Enfin, un spectre en énergie des émissions radiatives du 18F a été mesuré et comparé aux performances de systèmes utilisant des photodiodes commerciales. D a été démontré que le prototype offrait un rapport signal sur bruit similaire aux systèmes basés sur des photodiodes commerciales. Des problèmes durant la fabrication ont cependant compromis les performances de la deuxième itération de détecteurs. Une série de recommandations finales afin d’éviter ces problèmes a été émise suite à la deuxième itération réalisée lors de ce projet de maîtrise.
80

Fabrication de transistors monoélectroniques pour la détection de charge

Richard, Jean-Philippe January 2013 (has links)
Le transistor monoélectronique (SET) est un candidat que l'on croyait avoir la capacité de remplacer le transistor des circuits intégrés actuel (MOSFET). Pour des raisons de faible gain en voltage, d'impédance de sortie élevée et de sensibilité aux fluctuations de charges, il est considéré aujourd'hui qu'un hybride tirant profit des deux technologies est plus avantageux. En exploitant sa lacune d'être sensible aux variations de charge, le SET est davantage utilisé dans des applications où la détection de charge s'avère indispensable, notamment dans les domaines de la bio-détection et de l'informatique quantique. Ce mémoire présente une étude du transistor monoélectronique utilisé en tant que détecteur de charge. La méthode de fabrication est basée sur le procédé nanodamascène développé par Dubuc et al. [11] permettant au transistor monoélectronique de fonctionner à température ambiante. La température d'opération étant intimement liée à la géométrie du SET, la clé du procédé nanodamascène réside dans le polissage chimico-mécanique (CMP) permettant de réduire l'épaisseur des SET jusqu'à des valeurs de quelques nanamètres. Dans ce projet de maîtrise, nous avons cependant opté pour que le SET soit opéré à température cryogénique. Une faible température d'opération permet le relâchement des contraintes de dimensions des dispositifs. En considérant les variations de procédés normales pouvant survenir lors de la fabrication, la température d'opération maximale calculée en conception s'étend de 27 K à 90 K, soit une énergie de charge de 78 meV à 23 meV. Le gain du détecteur de charge étant dépendant de la distance de couplage, les résultats de simulations démontrent que cette distance doit être de 200 nm pour que la détection de charge soit optimale. Les designs conçus sont ensuite fabriqués sur substrat d'oxyde de silicium. Les résultats de fabrication de SET témoignent de la robustesse du procédé nanodamascène. En effet, les dimensions atteintes expérimentalement s'avèrent quasi identiques à celles calculées en conception. Les mesures électriques à basse température de SET fabriqués démontrent un blocage de Coulomb avec une énergie de charge de 10 meV et une température d'opération maximale de 10 K. Un effet de grille est aussi observé par l'application d'une tension sur la grille latérale et les électrodes d'un SET à proximité. Les paramètres extraits à partir du diamant de Coulomb sont en accord avec les géométries du transistor fabriqué, à l'exception de la capacité degrille et de couplage. Enfin, l'étude de la détection de charge est réalisée par simulation à partir de ces paramètres. Elle permet de conclure que la détection de charge peut être optimisée en augmentant les surfaces de couplage de l'électromètre.

Page generated in 0.089 seconds