Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
591 |
Suivi de multi-objet non-rigide par filtrage à particules dans des systèmes multi-caméra : application à la vidéo surveillanceZhou, Yifan 30 September 2010 (has links)
En France, la vidéo surveillance est actuellement présenté comme un élément clef de la prévention des crimes, et le nombre de caméras installées dans les lieux publiques a triplé en 2009, passant de 20 000 à 60 000. Malgré le débat généré dans l’opinion publique, il semblerait qu’aucun gouvernement ne souhaite freiner l’utilisation de ces mesures de surveillance. Si l’on met de côté le débat social, d’un point de vue strictement scientifique, ces systèmes de surveillance offrent des bases de données riches et de vrai perspective de recherche en multimédia. Dans ce manuscrit, nous nous sommes concentré sur le développement de méthodes de suivi d’objets multiples non-rigides dans un environnement multi-caméra à l’aide de filtrage à particules. Nous d´ecrirons, dans un premier temps, une méthode de suivi multi-résolution par filtrage à particules avec contrôle de consistance. Cette méthode fut appliquée au suivi d’un seul objet non rigide dans des vidéos dont le nombre d’images pas seconde étaient faible et variable. Elle est etendue pour suivre des objets multiples par filtrage à particules avec double contrôles de consistance. Elle est notamment appliquée pour le défi de TRECVID 2009. An analyse d’événements est finalement ajoutée. Notre méthode de suivi est ensuite étendue d’une seule caméra vers de multiples caméras. Elle fut utilisée pour le suivi d’un objet non-rigide par interaction de caméras. Enfin, une méthode de suivi par filtrage à particules d’objets multiples avec analyse d’événement a été définie pour le suivi de deux objets non-rigides dans un environnement à deux caméras. Notre système peut êre facilement adaptées à de nombreux types de vidéo surveillance car aucune information sur les scènes n’est pré-requise. / The video surveillance is believed to play a so important role in the crime prevention that only in France, the number of cameras installed at public thoroughfare was tripled in the year 2009, from 20 000 to 60 000. Even though its increasing use has triggered a large debate about security versus privacy, it seems that no government has a willingness to stop the surveillance popularity. However, if we just put aside this social anxiety, from the scientific point of view, millions of surveillance systems do offer us a rich database and an exciting motivation for the multimedia research. We focus on the multiple non-rigid object tracking based on the Particle Filter method in multiple camera environments in this dissertation. The method of Multi-resolution Particle Filter Tracking with Consistency Check is firstly introduced as the basis of our tracking system. It is especially used for single non-rigid object tracking in videos of low and variable frame rate. It is then extended to track multiple non-rigid objects, denoted as Multi-object Particle Filter Tracking with Dual Consistency Check. It is in particularly applied to the challenge TRECVID 2009. An automatic semantic event detection and identification is integrated at last. Our tracking method is later extended from mono-camera to multi-camera environments. It is used for the single non-rigid object tracking with the interaction of cameras. Finally, a system named Multi-object Particle Filter Tracking with Event analysis is designed for tracking two non-rigid objects in two-camera environments. Our tracking system can be easily applied to various video surveillance systems since no prior knowledge of the scene is required.
|
592 |
Santé mentale positive chez des étudiants universitaires de la faculté de Médecine : étude comparative compte tenu des contextes socioculturels colombien et français / Mental positive health in university students of the Faculty of Medicine - comparative study between the sociocultural contexts French and Colombian.Navarro Baene, Gina Liceth 03 June 2015 (has links)
Cette étude doctorale cherche à revisser les caractéristiques de santé mentale positive présentes chez les étudiants universitaires français et colombiens de la faculté de médecine tenant compte que la rentrée à la vie universitaire provoque un dégrée de stress par rapport aux nouvelles demandes aux quelles faire face l'étudiant. Tous les étudiants universitaires traversent par une période d'adaptation qui bien peut culminer de manière appropriée, ou en désertion, motivée par les difficultés académiques ou par l’impossibilité de s'adapter au contexte. Les étudiants universitaires peuvent avoir une tendance plus élevée à ce type de troubles que la population commun. Ceci compte tenu de l’âge et des facteurs externes qu’ils affrontent, tenant compte que beaucoup d’étudiants font face aux difficultés académiques, mais aussi à celles du marché du travail, parfois ils fondent un foyer, tout ceci constituant d’autres sources de problèmes pour eux. En effet un malaise psychologique vient d’ajouter a de mauvais résultats académiques, l’échec ou le rattrapage des semestres, voire d’années…parlons aussi de la désertion des programmes, et du coût élevé des études pour les familles. Ceci implique que dans le cas particulier des étudiants, actuellement on ne parle plus seulement de malaise psychologique qui pourraient présenter les étudiants, et des conséquences possibles, sinon que la présence de certaines caractéristiques peut rendre possible des problèmes de santé mentale.En ce qui concerne la part de la personnalité, il est important que les étudiants aient un mécanisme de contrôle interne, une auto estime importante, et le minimum de symptômes de dépression. Pour cette raison, face aux fortes probabilités d’échec, ou d’abandon des étudiants, les professeurs et directeurs doivent connaître, l’état de santé mentale de leurs étudiants, afin de s’en servir pour renforcer les programmes existants , ou domine la prévention , plus que la notion de maladie… ainsi il y a un apport au processus d’adaptation, en plein bénéfice pour les étudiants lors de leur passage par l’université.Comme Coordinatrice de spécialisations et Enseignante Universitaire, il est, mon intérêt d'étudier les niveaux de Santé mentale positive dans différents contextes socioculturels qui nous portent à la construction d'une théorie qu'incluent les alternatives d'appui qui assurent la meilleure adaptation des étudiants au domaine Universitaire. / This Doctoral study tries to check the characteristics present of mental health positive in the university French and Colombian students of the faculty of medicine, bearing in mind that the entry to the university life provokes a level of stress with relation the new demands to which the student must face. All the university students cross in a period of adjustment that well can culminate in an appropriate way, or in desertion motivated by the academic difficulties or by the inability to adapt to the context. he university students can have major trend to this type of disorders that the majority of the population for the age and the external factors which they face, although many students do not face only the academic load, but also they enter to the labour market or establish a family, being constituted in an important problem because to the psychological discomfort one adds the low yield, the loss and repetition of the semesters or academic years and desertion of the programs, besides the high costs for the families. This implies that in the particular case of the students, nowadays not only one speaks about the psychological discomforts that they can present and his possible consequences, but even of certain characteristics that on having been present, can promote his mental health, for example, Arriola (2002) raises that " in the relating thing to the sphere of personality it is important that the pupils have a locus of internal control, a discharge autoestimates and puntajes minimums of depressive symptoms. As for the part of the personality, it is important that the students had a mechanism of internal control, a car estimates importantly, and the minimum of symptoms of depression. For this reason before the high possibilities of repitencia or student desertion corresponds to the teachers and executives to know and to describe the mental positive health that the university students possess, to turn it into an element that reinforces the existing programs, where the prevention prevails mas that the concept of disease and realizes a contribution to the process of adjustment and suitable utilization of the students in his step along the university. As well as Coordinator of specializations and University Teacher, is, my interest to study the levels of mental positive Health in different sociocultural contexts that take us to the construction of a theory that there include the alternatives of support that assure the best adjustment of the students to the university area.
|
593 |
Sur le semi anneau de résolution / On the Resolution SemiringBagnol, Marc 04 December 2014 (has links)
On étudie dans cette thèse une structure de semi-anneau dont le produit est basé sur la règle de résolution de la programmation logique. Cet objet mathématique a été initialement introduit dans le but de modéliser la procédure d'élimination des coupures de la logique linéaire, dans le cadre du programme de géométrie de l'interaction. Il fournit un cadre algébrique et abstrait, tout en étant présenté sous une forme syntaxique et concrète, dans lequel mener une étude théorique du calcul. On reviendra dans un premier temps sur l'interprétation interactive de la théorie de la démonstration dans ce semi-anneau, via l'axiomatisation catégorique de l'approche de la géométrie de l'interaction. Cette interprétation établit une traduction des programmes fonctionnels vers une forme très simple de programmes logiques. Dans un deuxième temps, on abordera des problématiques de théorie de la complexité: bien que le problème de la nilpotence dans le semi-anneau étudié soit indécidable en général, on fera apparaître des restrictions qui permettent de caractériser le calcul en espace logarithmique (déterministe et non-déterministe) et en temps polynomial (déterministe). / We study in this thesis a semiring structure with a product based on the resolution rule of logic programming. This mathematical object was introduced initially in the setting of the geometry of interaction program in order to model the cut-elimination procedure of linear logic. It provides us with an algebraic and abstract setting, while being presented in a syntactic and concrete way, in which a theoretical study of computation can be carried on. We will review first the interactive interpretation of proof theory within this semiring via the categorical axiomatization of the geometry of interaction approach. This interpretation establishes a way to translate functional programs into a very simple form of logic programs. Secondly, complexity theory problematics will be considered: while the nilpotency problem in the semiring we study is undecidable in general, it will appear that certain restrictions allow for characterizations of (deterministic and non-deterministic) logarithmic space and (deterministic) polynomial time computation.
|
594 |
Développement et applications de l'analyse dirigée par l'effet pour la recherche et l'identification de contaminants à risque pour les écosystèmes aquatiques / Development and application of Effect-Directed Analysis to the research and the identification of organic compounds at risk for the aquatic ecosystemsGardia-Parège, Caroline 10 April 2015 (has links)
Les méthodes actuellement disponibles pour la surveillance de la qualité du milieu se réfèrent au suivi de composés définis par les réglementations et ne permettent pas d’appréhender l’(éco)toxicité réelle de tous les composés présents dans l’environnement (e.g. composés inconnus, produits de transformation, effets de mélange…). Dans ce contexte, une méthode d’analyse pluridisciplinaire intégrative, l’analyse dirigée par l’effet (EDA), a été développée. Cette approche bio-analytique vise à établir un lien de causalité entre une exposition aux contaminants et l’effet biologique observé. La démarche est basée sur la simplification séquentielle d’un échantillon guidée par les bio-essais afin d’individualiser puis identifier, par des techniques analytiques chimiques performantes, les composés biologiquement actifs. Les objectifs de cette thèse ont porté sur (1) le développement et la validation d’une méthodologie, allant du pré-traitement jusqu’au fractionnement, adaptée à différentes matrices environnementales ; (2) la mise en place d’une stratégie d’identification moléculaire par spectrométrie de masse haute résolution ; (3) l’application de la démarche EDA à plusieurs échantillons afin d’illustrer l’adaptabilité et l’apport d’une telle méthode à des problématiques environnementales. Ces travaux de thèse permettent de disposer aujourd’hui d’une démarche bio-analytique complète de la préparation d’échantillon à l’identification de molécules, et adaptée à tous types d’échantillons. Les différentes études environnementales réalisées au cours de ces travaux ont permis, entre autre, d’établir une liste de composés diverses non recherchés pouvant représenter un risque pour l’environnement. / To date, environmental risk assessment is based on targeted chemical analyses. These analyses allow the detection of known active compounds and this preselected set does not often explain the observed toxic effects in complex environmental samples (e.g. unknown compounds, transformation product, cocktail effect...). For an integrative contamination assessment, a multidisciplinary approach, Effect-Directed Analysis (EDA) was developed. This approach combining biological tools and chemical analyses allows determining active compounds and identitying them in such environmental complex mixtures. EDA aims at the establishment of cause-effect relationships by sequential reduction of the complexity of environmental mixtures, eventually to individual toxicants. The aims of this thesis were (1) to develop and to validate the EDA-based strategy on various environmental complex samples; (2) to set up an identification strategy for identifying non targeted or unknown molecules using high resolution mass spectrometry; (3) to prove the usefulness of EDA approach for the identification of active compounds in environnemental complex samples. This thesis work provides to a complet bio-analytical approach from the preparation step of samples to the identification of molecules. The potential of this tool was fully confirmed on various environmental studies. These investigations allowed establishing a list of non-target compounds which can represent a risk for the environment.
|
595 |
Observations et modélisations spectro-interférométriques longue base des étoiles et de leur environnement proche / Long baseline spectro-interferometric observing and modeling of stars and their close environmentHadjara, Macinissa 31 March 2015 (has links)
Cette thèse présente les résultats d'observations d'étoiles en rotation rapide menées sur le spectro-interféromètre AMBER du VLTI dans ses modes haute et moyenne résolutions spectrales. Les mesures effectuées sont les visibilités estimées sur trois bases simultanées, les phases différentielles en fonction de la longueur d'onde et des phases de clôtures avec, pour certaines nuits une bonne couverture du plan (u,v). Les données utilisées sont issues de plusieurs campagnes d'observation. Ces dernières étaient fortement dégradées par les défauts optiques d'AMBER, et affectés par des bruits classiques d'interférométrie optique à longue base en IR: défauts du détecteur, bruit de lecture, instabilités du suiveur de franges, ...etc. Leur analyse a nécessité la mise au point d'outils numériques de réduction spécifiques pour atteindre les précisions nécessaires à l'interprétation de mesures interférométriques. Pour interpréter ces mesures j'ai développé un modèle semi-analytique chromatique d'étoile en rotation rapide qui m'a permis d'estimer, à partir des phases différentielles; le degré d'aplatissement, le rayon équatorial, la vitesse de rotation, l'angle d'inclinaison, l'angle position de l'axe de rotation de l'étoile sur le ciel, la distribution de la température effective locale et de la gravité à la surface de l'étoile dans le cadre du théorème de von Zeipel. Les résultats concernant 4 étoiles massives de types spectraux B, A et F m'ont permis de les caractériser pour les mécanismes évoqués ci-dessus et d'ouvrir ainsi la perspective d'études plus systématiques d'objets similaires en étendant ultérieurement ces études à la relation photosphère-enveloppe circumstellaire. / This thesis presents the results of rapidly rotating stars observations conducted on the AMBER spectro-interferometer VLTI in its high average spectral modes and resolutions. The measurements are estimated on three simultaneous visibility bases, differential phases depending on the wavelength and closure phases, with good coverage of the (u, v) plane for some nights. The data used are from several observation campaigns. These were highly degraded by the optical defects of AMBER, and assigned by standard optical interferometry long base IR noises: defects of the detector, reading noise, fringes follower instabilities, ... etc. Their analysis required the development of digital reduction of specific tools to achieve the necessary details to the interpretation of interferometric measurements. In interpreting these measures I developed a chromatic semi-analytical model of rapidly rotating star that allowed me to estimate, from the differential phases; the degree of flattening, the equatorial radius, speed of rotation, angle of inclination, the position angle of the star rotation axis in the sky, the local distribution of the actual temperature and the gravity to the surface of the star within the von Zeipel theorem. The results for four massive stars of spectral type B, A and F have allowed me to characterize the mechanisms discussed above and thus open framework for more systematic studies of similar objects subsequently extending these studies to the relationship photosphere circumstellar envelope.
|
596 |
Probing an ytterbium Bose-Einstein condensate using an ultranarrow optical line : towards artificial gauge fields in optical lattices / Spectroscopie d'un condensat de Bose-Einstein d'atomes d'ytterbium sur une raie optique ultra-fine : vers des champs de jauge artificiels sur réseaux optiquesScholl, Matthias 19 December 2014 (has links)
Je présente le développement d'une expérience de production de gaz quantiques d'ytterbium. L'objectif est de réaliser des champs de jauge artificiels sur des gaz piégés dans des réseaux optiques. La combinaison de ces champs et des interactions entre atomes ouvre de nouvelles perspectives pour notre domaine comme la réalisation d'états analogues à ceux de la physique de l'effet Hall quantique fractionnaire.Tout d'abord, je présente les méthodes expérimentales développées pour produire un condensat de Bose-Einstein d'atomes (CBE) d'Yb174: un piège magnéto-optique sur la raie d'intercombinaison 1S0-3P1, son transfert dans un piège dipolaire et son transport sur une distance de 22 cm. Un condensat pur d'environ 6x10^4 est ensuite obtenu après évaporation dans un piège dipolaire croisé. Les protocoles envisagés pour réaliser des champs de jauge artificiels requièrent le couplage cohérent du niveau fondamental 1S0 et du niveau métastable 3P0 sur la transition "horloge". Nous avons construit un laser à 578nm asservi en fréquence sur une cavité de référence. En optimisant le point de fonctionnement en température de la cavité nous avons obtenu des dérives résiduelles en fréquence inférieures à 100 mHz/s. Nous avons réalisé une spectroscopie sur cette transition d'un CBE piégé ou en expansion et obtenu des largeurs de raies du l'ordre du kHz limitées par les interactions entre atomes.Enfin, je présente en détail les protocoles pour réaliser des champs de jauge artificiels dans des réseaux optiques et leur éventuelle mise en pratique et notamment un schéma pour réaliser un réseau optique bichromatique dépendant de l'état interne des atomes dans une cavité doublement résonante. / In this work I present the development of a new experiment to produce quantum degenerate gases of ytterbium. This project aims at realizing artificial gauge fields with ultracold atoms in optical lattices. Combining intense gauge fields with strong on-site interactions is expected to open a new area for ultracold quantum gases, where for instance the atomic analogs of fractional quantum Hall systems could be realized.First I describe the experimental methods for the production of a Bose-Einstein condensate (BEC) of 174Yb. This implies magneto-optical trapping on the 1S0-3P1 intercombination transition and a transport of the atomic cloud in an optical dipole trap over a distance of 22 cm. Evaporative cooling in a crossed dipole trap results in the production of pure BECs of about 6x10^4 atoms.The planned implementation of artificial gauge fields requires the coherent driving of the 1S0-3P0 clock transition of ytterbium. For this purpose an ultrastable laser system at 578 nm, frequency locked to an ultralow expansion (ULE) cavity, has been realized. A precise determination of the temperature zero-crossing point of the ULE cavity allowed us to limit laser frequency drifts below 100 mHz/s. Spectroscopic measurements of the clock transition on a trapped and free falling BEC are presented, where typical linewidths in the kHz range are observed, limited by interatomic interactions. Finally I present a detailed discussion of the methods to achieve artificial gauge fields in optical lattices and their possible experimental implementation. This includes a scheme to realize a bichromatic state-dependent optical superlattice in a doubly-resonant cavity.
|
597 |
Scheduling and memory optimizations for sparse direct solver on multi-core/multi-gpu duster systems / Ordonnancement et optimisations mémoire pour un solveur creux par méthodes directes sur des machines hétérogènesLacoste, Xavier 18 February 2015 (has links)
L’évolution courante des machines montre une croissance importante dans le nombre et l’hétérogénéité des unités de calcul. Les développeurs doivent alors trouver des alternatives aux modèles de programmation habituels permettant de produire des codes de calcul à la fois performants et portables. PaStiX est un solveur parallèle de système linéaire creux par méthodes directe. Il utilise un ordonnanceur de tâche dynamique pour être efficaces sur les machines modernes multi-coeurs à mémoires hiérarchiques. Dans cette thèse, nous étudions les bénéfices et les limites que peut nous apporter le remplacement de l’ordonnanceur interne, très spécialisé, du solveur PaStiX par deux systèmes d’exécution génériques : PaRSEC et StarPU. Pour cela l’algorithme doit être décrit sous la forme d’un graphe de tâches qui est fournit aux systèmes d’exécution qui peuvent alors calculer une exécution optimisée de celui-ci pour maximiser l’efficacité de l’algorithme sur la machine de calcul visée. Une étude comparativedes performances de PaStiX utilisant ordonnanceur interne, PaRSEC, et StarPU a été menée sur différentes machines et est présentée ici. L’analyse met en évidence les performances comparables des versions utilisant les systèmes d’exécution par rapport à l’ordonnanceur embarqué optimisé pour PaStiX. De plus ces implémentations permettent d’obtenir une accélération notable sur les machines hétérogènes en utilisant lesaccélérateurs tout en masquant la complexité de leur utilisation au développeur. Dans cette thèse nous étudions également la possibilité d’obtenir un solveur distribué de système linéaire creux par méthodes directes efficace sur les machines parallèles hétérogènes en utilisant les systèmes d’exécution à base de tâche. Afin de pouvoir utiliser ces travaux de manière efficace dans des codes parallèles de simulations, nous présentons également une interface distribuée, orientée éléments finis, permettant d’obtenir un assemblage optimisé de la matrice distribuée tout en masquant la complexité liée à la distribution des données à l’utilisateur. / The ongoing hardware evolution exhibits an escalation in the number, as well as in the heterogeneity, of computing resources. The pressure to maintain reasonable levels of performance and portability forces application developers to leave the traditional programming paradigms and explore alternative solutions. PaStiX is a parallel sparse direct solver, based on a dynamic scheduler for modern hierarchical manycore architectures. In this thesis, we study the benefits and the limits of replacing the highly specialized internal scheduler of the PaStiX solver by two generic runtime systems: PaRSEC and StarPU. Thus, we have to describe the factorization algorithm as a tasks graph that we provide to the runtime system. Then it can decide how to process and optimize the graph traversal in order to maximize the algorithm efficiency for thetargeted hardware platform. A comparative study of the performance of the PaStiX solver on top of its original internal scheduler, PaRSEC, and StarPU frameworks is performed. The analysis highlights that these generic task-based runtimes achieve comparable results to the application-optimized embedded scheduler on homogeneous platforms. Furthermore, they are able to significantly speed up the solver on heterogeneous environments by taking advantage of the accelerators while hiding the complexity of their efficient manipulation from the programmer. In this thesis, we also study the possibilities to build a distributed sparse linear solver on top of task-based runtime systems to target heterogeneous clusters. To permit an efficient and easy usage of these developments in parallel simulations, we also present an optimized distributed interfaceaiming at hiding the complexity of the construction of a distributed matrix to the user.
|
598 |
Caractérisation et cartographie de la structure forestière à partir d'images satellitaires à très haute résolution spatiale / Quantification and mapping of forest structure from Very High Resolution (VHR) satellite imagesBeguet, Benoît 06 October 2014 (has links)
Les images à très haute résolution spatiale (THR) telles que les images Pléiades (50 cm en Panchromatique, 2m en multispectral) rendent possible une description fine de la structure forestière (distribution et dimensions des arbres) à l'échelle du peuplement, en exploitant la relation entre la structure spatiale des arbres et la texture d'image quand la taille du pixel est inférieure à la dimension des arbres. Cette attente répond au besoin d'inventaire spatialisé de la ressource forestière à l'échelle du peuplement et de ses changements dus à la gestion forestière, à l'aménagement du territoire ou aux événements catastrophiques. L'objectif est double: (1) évaluer le potentiel de la texture d'images THR pour estimer les principales variables de structure forestière (diamètre des couronnes, diamètre du tronc, hauteur, densité ou espacement des arbres) à l'échelle du peuplement; (2) sur ces bases, classer les données image, au niveau pixel, par types de structure forestière afin de produire l'information spatialisée la plus fine possible. Les principaux développements portent sur l'automatisation du paramètrage, la sélection de variables, la modélisation par régression multivariable et une approche de classification par classifieurs d'ensemble (Forêts Aléatoires ou Random Forests). Ils sont testés et évalués sur deux sites de la forêt landaise de pin maritime à partir de trois images Pléiades et une Quickbird, acquises dans diverses conditions (saison, position du soleil, angles de visée). La méthodologie proposée est générique. La robustesse aux conditions d'acquisition des images est évaluée. Les résultats montrent que des variations fines de texture caractéristiques de celles de la structure forestière sont bien identifiables. Les performances en terme d'estimation des variables forestières (RMSE) : ~1.1 m pour le diamètre des couronnes, ~3 m pour la hauteur des arbres ou encore ~0.9 m pour leur espacement, ainsi qu'en cartographie des structures forestières (~82 % de taux de bonne classification pour la reconnaissance des 5 classes principales de la structure forestière) sont satisfaisantes d'un point de vue opérationnel. L'application à des images multi-annuelles permettra d'évaluer leur capacité à détecter et cartographier des changements tels que coupe forestière, mitage urbain ou encore dégâts de tempête. / Very High spatial Resolution (VHR) images like Pléiades imagery (50 cm panchromatic, 2m multispectral) allows a detailed description of forest structure (tree distribution and size) at stand level, by exploiting the spatial relationship between tree structure and image texture when the pixel size is smaller than tree dimensions. This information meets the expected strong need for spatial inventory of forest resources at the stand level and its changes due to forest management, land use or catastrophic events. The aim is twofold : (1) assess the VHR satellite images potential to estimate the main variables of forest structure from the image texture: crown diameter, stem diameter, height, density or tree spacing, (2) on these bases, a pixel-based image classification of forest structure is processed in order to produce the finest possible spatial information. The main developments concern parameter optimization, variable selection, multivariate regression modelling and ensemble-based classification (Random Forests). They are tested and evaluated on the Landes maritime pine forest with three Pléiades images and a Quickbird image acquired under different conditions (season, sun angle, view angle). The method is generic. The robustness of the proposed method to image acquisition parameters is evaluated. Results show that fine variations of texture characteristics related to those of forest structure are clearly identifiable. Performances in terms of forest variable estimation (RMSE): ~1,1m for crown diameter, ~3m for tree height and ~0,9m for tree spacing, as well as forest structure mapping (~82% Overall accuracy for the classification of the five main forest structure classes) are satisfactory from an operational perspective. Their application to multi- annual images will assess their ability to detect and map forest changes such as clear cut, urban sprawl or storm damages.
|
599 |
Imagerie du tenseur de diffusion du cerveau : vers des outils cliniques quantitatifs / Diffusion tensor imaging of the brain : towards quantitative clinical toolsGupta, Vikash 25 March 2015 (has links)
La thèse explore trois questions méthodologiques en imagerie de diffusion (DTI) clinique du cerveau, dans le contexte d’une étude sur le VIH. La première question est comment améliorer la résolution du DTI. Le deuxième problème est comment créer un atlas multimodal spécifique à la population. La troisième question porte sur le calcul des statistiques pour comparer les zones de matière blanche entre les contrôles et patients. Les DTI cliniques ont une résolution spatiale et un rapport signal sur bruit faibles, ce qui rend difficile le calcul de statistiques significatives. Nous proposons un algorithme de super-résolution pour améliorer la résolution qui utilise un a priori spatial anisotrope. Cette méthode démontre une amélioration de l’anisotropie fractionnelle et de la tractographie. Pour normaliser spatialement les images du cerveau dans un système de coordonnées commun, nous proposons ensuite de construire un atlas multimodal spécifique á la population. Ceci permet de créer un atlas probabiliste de la matière blanche qui est consistant avec l’atlas anatomique. Cet atlas peut être utilisé pour des statistiques basées sur des régions d’intérêt ou pour le raffinement d’une segmentation. Enfin, nous améliorons les résultats de la méthode TBSS (Tract-Based Spatial Statistics) en utilisant le recalage des images DTI. Contrairement á la méthode TBSS traditionnelle, nous utilisons ici des statistiques multivariées. Nous montrons que ceci permet de détecter des différences dans les régions de matière blanche qui étaient non significatives auparavant, et de les corréler avec les scores des tests neuropsychologiques. / The thesis explores three major methodological questions in clinical brain DTI, in the context of a clinical study on HIV. The first question is how to improve the DTI resolution. The second problem addressed in the thesis is how to create a multimodal population specific atlas. The third question is on the computation of statistics to compare white matter (WM) regions among controls and HIV patients. Clinical DTIs have low spatial resolution and signal-to-noise ratio making it difficult to compute meaningful statistics. We propose a super-resolution (SRR) algorithm for improving DTI resolution. The SRR is achieved using anisotropic regularization prior. This method demonstrates improved fractional anisotropy and tractography. In order to spatially normalize all images in a consistent coordinate system, we create a multimodal population specific brain atlas using the T1 and DTI images from a HIV dataset. We also transfer WM labels from an existing white matter parcellation map to create probabilistic WM atlas. This atlas can be used for region of interest based statistics and refining manual segmentation. On the statistical analysis side, we improve the existing tract based spatial statistics (TBSS) by using DTI based registration for spatial normalization. Contrary to traditional TBSS routines, we use multivariate statistics for detecting changes in WM tracts. With the improved method it is possible to detect differences in WM regions and correlate it with the neuropschylogical test scores of the subjects.
|
600 |
Développement de méthodes de résolution d’équations aux dérivées partielles : du schéma numérique à la simulation d’une installation industrielle / Development of methods for resolving partial differential equations : from numerical scheme to simulation of industrial facilitiesCostes, Joris 22 June 2015 (has links)
Le développement d'outils de simulation efficaces demande d'appréhender à la fois la modélisation physique, la modélisation mathématique et la programmation informatique. Pour chacun de ces points, il est nécessaire de garder à l'esprit l'application visée, en effet le niveau de modélisation à adopter mais également les techniques de programmation à mettre en œuvre vont être différents selon l'utilisation que l'on envisage pour un code de calcul ou un logiciel de simulation.On commence dans ce travail de thèse par s'intéresser au niveau fin pour lequel on résout les équations d'Euler pour calculer un écoulement, on aborde ensuite la question de l'utilisation d'un code de calcul parallèle dans le contexte de la simulation d'un benchmark industriel. Enfin, on traite du niveau macroscopique associé à la simulation d'une installation industrielle complète pour lequel on utilise des relations phénoménologiques basées par exemple sur des corrélations expérimentales.Le premier chapitre traite de la détermination d'une vitesse de grille dans le contexte des méthodes ALE (Arbitrary Langrangian-Eulerian). Dans le chapitre suivant, on s’intéresse aux équations d'Euler compressibles résolues à l'aide de la méthode VFFC (Volumes Finis à Flux Caractéristiques), il s'agit d'introduire un modèle d'interface entre un fluide seul d'une part et un mélange homogène de deux fluides d'autre part, l'un des deux fluides ayant la même loi d'état que celui présent de l'autre côté de l'interface.Le troisième chapitre est consacré à la réalisation de simulations haute performance utilisant le code de calcul FluxIC basé sur la méthode VFFC avec capture d'interfaces, on s'intéresse plus particulièrement au phénomène de sloshing rencontré lors du transport de gaz naturel liquéfié par navire méthanier.Pour finir, le quatrième et dernier chapitre traite de la modélisation au niveau système d'une installation industrielle. On y présentera une approche systémique qui constitue un niveau de modélisation adapté à la simulation d'un grand nombre de composants et de leurs interactions. L'approche qui est présentée permet de concilier la modélisation de phénomènes physiques déterministes avec une modélisation stochastique visant à simuler, par exemple, le comportement de l'installation pour divers régimes de fonctionnement caractéristiques. / The development of efficient simulation tools requires an understanding of physical modeling, mathematical modeling and computer programming. For each of these domains it is necessary to bear in mind the intended application, because the use for a calculation code or simulation software will dictate the level of modeling, and also the programming techniques to be adopted.This dissertation starts with a detailed description applied in the form of fluid flow calculations using the Euler equations. Then simulation of an industrial benchmark is considered using a parallel computational method. Finally, simulation of a complete industrial plant is addressed, where phenomenological relations based on experimental correlations can be used.The first chapter deals with the determination of mesh velocity in the context of ALE (Arbitrary Lagrangian-Eulerian) methods. In the following chapter we focus on the compressible Euler equations solved using the FVCF method (Finite Volume with Characteristic Flux). In this case we consider an interface between a single fluid and a homogeneous two-fluid mixture, where one of the two mixed fluids and the single fluid have the same equation of state.The third chapter is devoted to running high performance simulations using the FluxIC computation code based on the FVCF method with interface capturing. The focus is on sloshing phenomenon encountered during transportation of Liquefied Natural Gas by LNG carriers.The fourth and final chapter deals with modeling of an industrial facility at system level. A systemic approach is presented that provides a level of modeling adapted to the simulation of a large number of components and their interactions. This approach enables users to combine deterministic modeling of physical phenomena with stochastic modeling in order to simulate the behavior of the system for a large set of operating conditions.
|
Page generated in 0.0544 seconds