• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 493
  • 173
  • 56
  • Tagged with
  • 725
  • 211
  • 176
  • 129
  • 103
  • 99
  • 93
  • 76
  • 74
  • 60
  • 59
  • 58
  • 52
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Étude expérimentale d'un procédé de cristallisation en émulsion huile dans eau : application au distéarate d'éthylène glycol

Khalil, Abir 21 December 2011 (has links) (PDF)
L'objectif a été d'étudier le procédé de cristallisation en émulsion d'un ingrédient cosmétique hydrophobe (EGDS) dispersé en phase aqueuse. La première étape consiste à émulsifier à chaud l'EGDS en présence d'un émulsifiant afin d'obtenir une émulsion stable huile dans eau. La cristallisation par refroidissement de l'émulsion est la seconde étape. Deux sondes optiques ont été mises au point pour permettre le suivi vidéo in situ en temps réel du procédé. A partir des séquences vidéo, la mesure de la distribution en taille des gouttes (DTG) a été faite automatiquement, celles des particules par un opérateur. La croissance des cristaux dans les gouttes a été observée au moyen d'une platine thermostatée sous microscope. Par son action sur le mécanisme de brisure la puissance spécifique d'agitation est le paramètre de premier ordre sur la DTG. La concentration en émulsifiant a un impact de second ordre sur la DTG (coalescence et stabilisation). L'emploi d'une hélice à pales minces au lieu d'une turbine Rushton est préférable (DTG étroite et polyvalence du mobile). La mesure in situ a permis de déterminer que le temps d'obtention d'une DTG stable est 3 à 4 fois supérieur aux données de la littérature. La cristallisation des gouttes est progressive, des plus grosses aux plus petites. Une goutte donne naissance à une particule dans les conditions expérimentales choisies. La fréquence de nucléation primaire a été calculée à partir de l'évolution temporelle des DTG, en supposant un mécanisme mononucléaire dans chaque goutte. Le mécanisme est hétérogène. La localisation de la nucléation primaire dans le volume de la goutte ou à sa surface interne n'a pas été possible
242

Contributions aux méthodes variationnelles pour le calcul du flot optique: prise en compte des informations spatiales et temporelles

Béréziat, Dominique 24 November 2010 (has links) (PDF)
Dans ces travaux nous nous intéressons aux formulations variationnelles pour résoudre des problèmes mal posés du traitement d'images. Nous nous focalisons principalement sur le calcul du flot optique dans les séquences d'images ainsi que la reconstruction 3D à partir d'une séquence d'images 2D. Comme ces problèmes sont mal posés au sens où ils sont sous-contraints, on utilise souvent des techniques de régularisation spatiale pour obtenir l'unicité de la solution. Nous nous proposons d'introduire d'autres contraintes dans la formulation du problème pour limiter l'importance de cette régularisation, voire pour la supprimer complètement. Ces contraintes sont dérivées des informations a priori sur les conditions expérimentales. Dans un premier chapitre, nous examinons un cas d'étude tiré de l'imagerie biologique: il s'agit d'acquisitions multi-focales de vésicules géantes, nous en exploitons alors la topologie sphérique pour divers problèmes tels que le suivi, la segmentation, l'estimation du flot optique et la reconstruction 3D. Ces contraintes sont donc d'ordre spatiales. Dans un second chapitre, nous étudions la possibilité de tirer partie de l'information temporelle présente dans les séquences d'images. Cette information est alors modélisée par une équation d'évolution. La difficulté à lever est de résoudre conjointement cette équation et les contraintes qui dérivent du problème de traitement d'images. Nous utilisons alors le formalisme de l'assimilation variationnelle de données dans une formulation dite ''faible'' car nous attribuons une erreur sur l'équation d'évolution. Bien que l'équation d'évolution décrive imparfaitement la dynamique, nous montrons que l'on peut résoudre le problème mal posé de l'estimation du flot optique sans recourir à la régularisation. Nous montrons également que lorsque les informations sont manquantes, il est possible de fournir une estimation réaliste du flot optique, ceci permet de gérer les cas difficiles d'occultations. Enfin, dans un dernier chapitre, nous résumons des travaux parallèles portant sur la résolution variationnelle de problèmes non linéaires de traitement d'images, des travaux sur l'occupation des sols en imagerie satellitaire haute définition et enfin sur le suivi multi-cibles.
243

Mesure de formes et de champs de déplacements tridimensionnels par stéréo-corrélation d'images

Garcia, Dorian 21 December 2001 (has links) (PDF)
De nombreux domaines concernant le comportement mécanique des matériaux posent le problème de la mesure des déplacements ou des déformations. Pour ce type de mesure, les méthodes optiques se sont largement imposées en raison de leur caractère non intrusif, de leur grande résolution spatiale, de leur sensibilité élevée, de l'importance du champ examiné à tout instant et des progrès de l'informatique qui permet le traitement automatique d'un grand volume d'information.<br /><br />Dans ce contexte, nous avons développé un système de mesure de formes 3D ou de champs de déplacements 3D par stéréovision (en particulier par stéréo-corrélation).<br /><br />Cette technique permet : (1) la mesure de la forme 3D d'un objet à partir d'une simple paire d'images stéréoscopiques de l'objet, (2) la mesure de champs de déplacements 3D à partir d'au moins 2 paires d'images correspondant à différents instants de déformation de l'objet (en général analyse d'une séquence de paires d'images acquises en cours de déformation).<br /><br />Les points développés dans la thèse sont : le calibrage fort d'une caméra ou d'un capteur de vision stéréoscopique, la reconstruction 3D par stéréovision (en particulier par stéréo-corrélation), la mesure de champs de déplacements 3D à partir du couplage de la stéréo-corrélation et du suivi de pixels dans une séquence d'images par corrélation. Compte tenu de la finalité métrologique de ces travaux, nous accordons une attention toute particulière à la précision des méthodes mises en oeuvre (qualité du calibrage, qualité de la mise en correspondance des images, corrélation subpixel,...).<br /><br />Ces travaux ont été appliqués à l'emboutissage de tôles minces (mesure de formes 3D d'emboutis et mesure de champs de déformations à la surface d'emboutis 3D), à la mise en forme de polymères (mesure de champs de déplacements 3D sur des membranes en élastomère soufflées), et à l'étude du comportement mécanique de bétons réfractaires renforcés de fibres métalliques (mesure de champs de déplacements 3D lors d'essais de traction).
244

Suivi de molécules uniques à l'aide de nanocristaux semiconducteurs :<br />méthodes et application à l'étude de la dynamique du récepteur de la glycine

Ehrensperger, Marie-Virginie 25 January 2007 (has links) (PDF)
Le suivi de molécules uniques est utile pour comprendre le déroulement d'un processus biologique.<br />Il permet de sonder des propriétés dynamiques inaccessibles pas des mesures d'ensemble.<br />Nous présentons les nanocristaux semiconducteurs et montrons qu'ils permettent de combiner<br />les avantages des autres marqueurs fluorescents avec une grande photostabilité et un très bon rapport<br />signal à bruit.<br />Nous exposons une approche de suivi automatique dédiée à ces nano-objets scintillants. Nous<br />discutons les méthodes spécifiquement adaptées à l'analyse des trajectoires ainsi obtenues.<br />Nous appliquons ces techniques d'imagerie ultrasensible à l'étude de la dynamique membranaire<br />du récepteur de la glycine (RGly) dans les milieux vivants. Nous présentons une étude sur<br />l'implication du cytosquelette dans la régulation du nombre de RGly aux synapses. Nous examinons<br />les interactions entre le RGly et la géphyrine (sa protéine d'ancrage) dans des systèmes cellulaires<br />modèles et caractérisons l'équilibre correspondant.
245

Simulation numérique directe des écoulements liquide-gaz avec évaporation : application à l'atomisation

Duret, Benjamin 17 October 2013 (has links) (PDF)
Le but de cette thèse est d'étudier numériquement les écoulements diphasiques liquide-gaz à l'aide d'une méthode de suivi d'interface précise. Tout d'abord, nous mettons en place une configuration turbulence homogène isotrope diphasique. Cette configuration est utilisée pour étudier la turbulence liquide-gaz ainsi que le modèle ELSA. A l'aide de la simulation présentée il a été possible de déterminer les constantes de modélisation et de valider les termes sources utilisés dans la zone dense du spray. Ensuite, le phénomène d'évaporation est étudié en utilisant dans un premier temps un scalaire passif puis en utilisant un formalisme DNS d'évaporation. Les équations d'énergie et des espèces ont été ajoutées dans le code ARCHER. La validation de la DNS d'évaporation a été réalisée en comparant nos résultats aux solutions théoriques, tel que la loi du D2. Les limitations et les apports de cette approche sont finalement discutés et des perspectives d'améliorations sont proposées.
246

Reconstruction et analyse de trajectoires 2D d'objets mobiles par modélisation Markovienne et la théorie de l'évidence à partir de séquences d'images monoculaires - Application à l'évaluation de situations potentiellement dangereuses aux passages à niveau

Salmane, Houssam 09 July 2013 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans le cadre duprojet PANsafer (Vers un Passage A Niveau plus sûr), lauréat de l'appel ANR-VTT2008. Ce projet est labellisé par les deux pôles de compétitivité i-Trans et Véhiculedu Futur. Le travail de la thèse est mené conjointement par le laboratoire IRTESSETde l'UTBM et le laboratoire LEOST de l'IFSTTAR.L'objectif de cette thèse est de développer un système de perception permettantl'interprétation de scénarios dans l'environnement d'un passage à niveau. Il s'agitd'évaluer des situations potentiellement dangereuses par l'analyse spatio-temporelledes objets présents autour du passage à niveau.Pour atteindre cet objectif, le travail est décomposé en trois étapes principales. Lapremière étape est consacrée à la mise en place d'une architecture spatiale des capteursvidéo permettant de couvrir de manière optimale l'environnement du passageà niveau. Cette étape est mise en oeuvre dans le cadre du développement d'unsimulateur d'aide à la sécurité aux passages à niveau en utilisant un système deperception multi-vues. Dans ce cadre, nous avons proposé une méthode d'optimisationpermettant de déterminer automatiquement la position et l'orientation descaméras par rapport à l'environnement à percevoir.La deuxième étape consisteà développer une méthode robuste de suivi d'objets enmouvement à partir d'une séquence d'images. Dans un premier temps, nous avonsproposé une technique permettant la détection et la séparation des objets. Le processusde suivi est ensuite mis en oeuvre par le calcul et la rectification du flotoptique grâce respectivement à un modèle gaussien et un modèle de filtre de Kalman.La dernière étape est destinée à l'analyse des trajectoires 2D reconstruites parl'étape précédente pour l'interprétation de scénarios. Cette analyse commence parune modélisation markovienne des trajectoires 2D. Un système de décision à basede théorie de l'évidence est ensuite proposé pour l'évaluation de scénarios, aprèsavoir modélisé les sources de danger.L'approche proposée a été testée et évaluée avec des données issues de campagnesexpérimentales effectuées sur site réel d'un passage à niveau mis à disposition parRFF.
247

Suivi de caméra image en temps réel base et cartographie de l'environnement

Tykkälä, Tommi 04 September 2013 (has links) (PDF)
Dans ce travail, méthodes d'estimation basées sur des images, également connu sous le nom de méthodes directes, sont étudiées qui permettent d'éviter l'extraction de caractéristiques et l'appariement complètement. L'objectif est de produire pose 3D précis et des estimations de la structure. Les fonctions de coût présenté minimiser l'erreur du capteur, car les mesures ne sont pas transformés ou modifiés. Dans la caméra photométrique estimation de la pose, rotation 3D et les paramètres de traduction sont estimées en minimisant une séquence de fonctions de coûts à base d'image, qui sont des non-linéaires en raison de la perspective projection et la distorsion de l'objectif. Dans l'image la structure basée sur le raffinement, d'autre part, de la structure 3D est affinée en utilisant un certain nombre de vues supplémentaires et un coût basé sur l'image métrique. Les principaux domaines d'application dans ce travail sont des reconstitutions d'intérieur, la robotique et la réalité augmentée. L'objectif global du projet est d'améliorer l'image des méthodes d'estimation fondées, et pour produire des méthodes de calcul efficaces qui peuvent être accueillis dans des applications réelles. Les principales questions pour ce travail sont : Qu'est-ce qu'une formulation efficace pour une image 3D basé estimation de la pose et de la structure tâche de raffinement ? Comment organiser calcul afin de permettre une mise en œuvre efficace en temps réel ? Quelles sont les considérations pratiques utilisant l'image des méthodes d'estimation basées sur des applications telles que la réalité augmentée et la reconstruction 3D ?
248

Cartographie RGB-D dense pour la localisation visuelle temps-réel et la navigation autonome / Dense RGB-D mapping for real-time localisation and autonomous navigation

Meilland, Maxime 28 March 2012 (has links)
Dans le contexte de la navigation autonome en environnement urbain, une localisation précise du véhicule est importante pour une navigation sure et fiable. La faible précision des capteurs bas coût existants tels que le système GPS, nécessite l'utilisation d'autres capteurs eux aussi à faible coût. Les caméras mesurent une information photométrique riche et précise sur l'environnement, mais nécessitent l'utilisation d'algorithmes de traitement avancés pour obtenir une information sur la géométrie et sur la position de la caméra dans l'environnement. Cette problématique est connue sous le terme de Cartographie et Localisation Simultanées (SLAM visuel). En général, les techniques de SLAM sont incrémentales et dérivent sur de longues trajectoires. Pour simplifier l'étape de localisation, il est proposé de découpler la partie cartographie et la partie localisation en deux phases: la carte est construite hors-ligne lors d'une phase d'apprentissage, et la localisation est effectuée efficacement en ligne à partir de la carte 3D de l'environnement. Contrairement aux approches classiques, qui utilisent un modèle 3D global approximatif, une nouvelle représentation égo-centrée dense est proposée. Cette représentation est composée d'un graphe d'images sphériques augmentées par l'information dense de profondeur (RGB+D), et permet de cartographier de larges environnements. Lors de la localisation en ligne, ce type de modèle apporte toute l'information nécessaire pour une localisation précise dans le voisinage du graphe, et permet de recaler en temps-réel l'image perçue par une caméra embarquée sur un véhicule, avec les images du graphe, en utilisant une technique d'alignement d'images directe. La méthode de localisation proposée, est précise, robuste aux aberrations et prend en compte les changements d'illumination entre le modèle de la base de données et les images perçues par la caméra. Finalement, la précision et la robustesse de la localisation permettent à un véhicule autonome, équipé d'une caméra, de naviguer de façon sure en environnement urbain. / In an autonomous navigation context, a precise localisation of the vehicule is important to ensure a reliable navigation. Low cost sensors such as GPS systems are inacurrate and inefficicent in urban areas, and therefore the employ of such sensors alone is not well suited for autonomous navigation. On the other hand, camera sensors provide a dense photometric measure that can be processed to obtain both localisation and mapping information. In the robotics community, this problem is well known as Simultaneous Localisation and Mapping (SLAM) and it has been studied for the last thirty years. In general, SLAM algorithms are incremental and prone to drift, thus such methods may not be efficient in large scale environments for real-time localisation. Clearly, an a-priori 3D model simplifies the localisation and navigation tasks since it allows to decouple the structure and motion estimation problems. Indeed, the map can be previously computed during a learning phase, whilst the localisation can be handled in real-time using a single camera and the pre-computed model. Classic global 3D model representations are usually inacurrate and photometrically inconsistent. Alternatively, it is proposed to use an ego-centric model that represents, as close as possible, real sensor measurements. This representation is composed of a graph of locally accurate spherical panoramas augmented with dense depth information. These augmented panoramas allow to generate varying viewpoints through novel view synthesis. To localise a camera navigating locally inside the graph, we use the panoramas together with a direct registration technique. The proposed localisation method is accurate, robust to outliers and can handle large illumination changes. Finally, autonomous navigation in urban environments is performed using the learnt model, with only a single camera to compute localisation.
249

Détection d'intrusions dans les systèmes distribués par propagation de teinte au niveau noyau

Hauser, Christophe 19 June 2013 (has links) (PDF)
Modern organisations rely intensively on information and communication technology infrastruc- tures. Such infrastructures offer a range of services from simple mail transport agents or blogs to complex e-commerce platforms, banking systems or service hosting, and all of these depend on distributed systems. The security of these systems, with their increasing complexity, is a chal- lenge. Cloud services are replacing traditional infrastructures by providing lower cost alternatives for storage and computational power, but at the risk of relying on third party companies. This risk becomes particularly critical when such services are used to host privileged company information and applications, or customers' private information. Even in the case where companies host their own information and applications, the advent of BYOD (Bring Your Own Device) leads to new security related issues. In response, our research investigated the characterization and detection of malicious activities at the operating system level and in distributed systems composed of multiple hosts and services. We have shown that intrusions in an operating system spawn abnormal information flows, and we developed a model of dynamic information flow tracking, based on taint marking techniques, in order to detect such abnormal behavior. We track information flows between objects of the operating system (such as files, sockets, shared memory, processes, etc.) and network packets flowing between hosts. This approach follows the anomaly detection paradigm. We specify the legal behavior of the system with respect to an information flow policy, by stating how users and programs from groups of hosts are allowed to access or alter each other's information. Illegal information flows are considered as intrusion symptoms. We have implemented this model in the Linux kernel4 , as a Linux Security Module (LSM), and we used it as the basis for practical demonstrations. The experimental results validated the feasibility of our new intrusion detection principles. This research is part of a joint research project between Supélec (École supérieure d'éléctricité) and QUT (Queensland University of Technology).
250

Développement d'une nouvelle algorithmie de localisation adaptée à l'ensemble des mobiles suivis par le système ARGOS

Lopez, Remy 15 July 2013 (has links) (PDF)
Depuis 1978, le système ARGOS assure à l'échelle mondiale la collecte de données et la localisation de plateformes pour des applications liées au suivi d'animaux, à l'océanographie et à la sécurité maritime. La localisation exploite le décalage Doppler affectant la fréquence de porteuse des messages émis par les plateformes et réceptionnés par des satellites dédiés. Au cours des vingt dernières années, les puissances d'émission des plateformes se sont réduites pour des conditions d'utilisation toujours plus extrêmes, augmentant le nombre de localisations de moindre qualité. Paradoxalement, les utilisateurs ont cherché à identifier des comportements à des échelles de plus en plus petites. L'objectif de ce projet est de développer un algorithme de localisation plus performant dans le contexte actuel afin de remplacer le traitement temps réel historique basé sur un ajustement par moindres carrés. Un service hors ligne, permettant de déterminer des localisations encore plus précises, est proposé dans un second temps. Le problème est reformulé comme l'estimation de l'état d'un système dynamique stochastique, tenant compte d'un ensemble de modèles de déplacement admissibles pour les plateformes. La détermination exacte de la loi a posteriori de l'état présente alors une complexité exponentiellement croissante avec le temps. Le filtre "Interacting Multiple Model" (IMM) est devenu l'outil standard pour approximer en temps réel la loi a posteriori avec un coût de calcul constant. Pour des applications hors ligne, de nombreuses solutions sous-optimales de lissage multi-modèle ont aussi été proposées. La première contribution méthodologique de ce travail présente l'extension du cadre initial de l'IMM à un ensemble de modèles hétérogènes, c.-à-d. dont les vecteurs d'état sont de tailles et de sémantiques différentes. En outre, nous proposons une nouvelle méthode pour le lissage multi-modèle qui offre une complexité réduite et de meilleures performances que les solutions existantes. L'algorithme de localisation ARGOS a été réécrit en y incorporant le filtre IMM en tant que traitement temps réel et le lisseur multi-modèle comme service hors ligne. Une étude, menée sur un panel de 200 plateformes munies d'un récepteur GPS utilisé comme vérité terrain, montre que ces stratégies améliorent significativement la précision de localisation quand peu de messages sont reçus. En outre, elles délivrent en moyenne 30% de localisations supplémentaires et permettent de caractériser systématiquement l'erreur de positionnement.

Page generated in 0.0359 seconds