• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 24
  • 5
  • Tagged with
  • 58
  • 58
  • 34
  • 27
  • 14
  • 11
  • 11
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modélisation de textures anisotropes par la transformée en ondelettes monogéniques / Modelisation of anisotropic textures by the monogenic wavelet transform

Polisano, Kévin 12 December 2017 (has links)
L’analyse de texture est une composante du traitement d’image qui suscite beaucoup d’intérêt tant les applications qu’elle recouvre sont diverses. En imagerie médicale, les signaux enregistrés sous forme d’images telles que les radiographies de l’os ou les mammographies, présentent une micro-architecture fortement irrégulière qui invite à considérer la formation de ces textures comme la réalisation d’un champ aléatoire. Suite aux travaux précurseurs de Benoit Mandelbrot, de nombreux modèles dérivés du champ brownien fractionnaire ont été proposés pour caractériser l’aspect fractal des images et synthétiser des textures à rugosité prescrite. Ainsi l’estimation des paramètres de ces modèles, a notamment permis de relier la dimension fractale des images à la détection de modifications de la structure osseuse telle qu’on l’observe en cas d’ostéoporose. Plus récemment, d’autres modèles de champs aléatoires, dits anisotropes, ont été utilisés pour décrire des phénomènes présentant des directions privilégiées, et détecter par exemple des anomalies dans les tissus mammaires.Cette thèse porte sur l’élaboration de nouveaux modèles de champs anisotropes, permettant de contrôler localement l’anisotropie des textures. Une première contribution a consisté à définir un champ brownien fractionnaire anisotrope généralisé (GAFBF), et un second modèle basé sur une déformation de champs élémentaires (WAFBF), permettant tous deux de prescrire l’orientation locale de la texture. L’étude de la structure locale de ces champs est menée à l’aide du formalisme des champs tangents. Des procédures de simulation sont mises en oeuvres pour en observer concrètement le comportement, et servir de benchmark à la validation d’outils de détection de l’anisotropie. En effet l’étude de l’orientation locale et de l’anisotropie dans le cadre des textures soulève encore de nombreux problèmes mathématiques, à commencer par la définition rigoureuse de cette orientation. Notre seconde contribution s’inscrit dans cette perspective. En transposant les méthodes de détection de l’orientation basées sur la transformée en ondelettes monogéniques, nous avons été en mesure, pour une vaste classe de champs aléatoires, de définir une notion d’orientation intrinsèque. En particulier l’étude des deux nouveaux modèles de champs anisotropes introduits précédemment, a permis de relier formellement cette notion d’orientation aux paramètres d’anisotropie de ces modèles. Des connexions avec les statistiques directionnelles sont également établies, de façon à caractériser la loi de probabilité des estimateurs d’orientation.Enfin une troisième partie de la thèse est consacrée au problème de la détection de lignes dans les images. Le modèle sous jacent est celui d’une superposition de lignes diffractées (c-a-d convoluées par un noyau de flou) et bruitées, dont il s’agit de retrouver les paramètres de position et d’intensité avec une précision sub-pixel. Nous avons développé dans cet objectif une méthode basée sur le paradigme de la super-résolution. La reformulation du problème en termes d’atomes 1-D a permis de dégager un problème d’optimisation sous contraintes, et de reconstruire ces lignes en atteignant cette précision. Les algorithmes employés pour effectuer la minimisation appartiennent à la famille des algorithmes dits proximaux. La formalisation de ce problème inverse et sa résolution, constituent une preuve de concept ouvrant des perspectives à l’élaboration d’une transformée de Hough revisitée pour la détection ‘continue’ de lignes dans les images. / Texture analysis is a component of image processing which hold the interest in the various applications it covers. In medical imaging, the images recorded such as bone X-rays or mammograms show a highly irregular micro-architecture, which invites to consider these textures formation as a realization of a random field. Following Benoit Mandelbrot’s pioneer work, many models derived from the fractional Brownian field have been proposed to characterize the fractal behavior of images and to synthesize textures with prescribed roughness. Thus, the parameters estimation of these models has made possible to link the fractal dimension of these images to the detection of bone structure alteration as it is observed in the case of osteoporosis. More recently, other models known as anisotropic random fields have been used to describe phenomena with preferred directions, for example for detecting abnormalities in the mammary tissues.This thesis deals with the development of new models of anisotropic fields, allowing to locally control the anisotropy of the textures. A first contribution was to define a generalized anisotropic fractional Brownian field (GAFBF), and a second model based on an elementary field deformation (WAFBF), both allowing to prescribe the local orientation of the texture. The study of the local structure of these fields is carried out using the tangent fields formalism. Simulation procedures are implemented to concretely observe the behavior, and serve as a benchmark for the validation of anisotropy detection tools. Indeed, the investigation of local orientation and anisotropy in the context of textures still raises many mathematical problems, starting with the rigorous definition of this orientation. Our second contribution is in this perspective. By transposing the orientation detection methods based on the monogenic wavelet transform, we have been able, for a wide class of random fields, to define an intrinsic notion of orientation. In particular, the study of the two new models of anisotropic fields introduced previously allowed to formally link this notion of orientation with the anisotropy parameters of these models. Connections with directional statistics are also established, in order to characterize the probability distribution of orientation estimators.Finally, a third part of this thesis was devoted to the problem of the lines detection in images. The underlying model is that of a superposition of diffracted lines (i.e, convoluted by a blur kernel) with presence of noise, whose position and intensity parameters must be recovered with sub-pixel precision. We have developed a method based on the super-resolution paradigm. The reformulation of the problem in the framework of 1-D atoms lead to an optimization problem under constraints, and enables to reconstruct these lines by reaching this precision. The algorithms used to perform the minimization belong to the family of algorithms known as proximal algorithms. The modelization and the resolution of this inverse problem, provides a proof of concept opening perspectives to the development of a revised Hough transform for the continuous detection of lines in images.
32

Unconstrained Gaze Estimation Using RGB-D Camera. / Estimation du regard avec une caméra RGB-D dans des environnements utilisateur non-contraints

Kacete, Amine 15 December 2016 (has links)
Dans ce travail, nous avons abordé le problème d’estimation automatique du regard dans des environnements utilisateur sans contraintes. Ce travail s’inscrit dans la vision par ordinateur appliquée à l’analyse automatique du comportement humain. Plusieurs solutions industrielles sont aujourd’hui commercialisées et donnent des estimations précises du regard. Certaines ont des spécifications matérielles très complexes (des caméras embarquées sur un casque ou sur des lunettes qui filment le mouvement des yeux) et présentent un niveau d’intrusivité important, ces solutions sont souvent non accessible au grand public. Cette thèse vise à produire un système d’estimation automatique du regard capable d’augmenter la liberté du mouvement de l’utilisateur par rapport à la caméra (mouvement de la tête, distance utilisateur-capteur), et de réduire la complexité du système en utilisant des capteurs relativement simples et accessibles au grand public. Dans ce travail, nous avons exploré plusieurs paradigmes utilisés par les systèmes d’estimation automatique du regard. Dans un premier temps, Nous avons mis au point deux systèmes basés sur deux approches classiques: le premier basé caractéristiques et le deuxième basé semi apparence. L’inconvénient majeur de ces paradigmes réside dans la conception des systèmes d'estimation du regard qui supposent une indépendance totale entre l'image d'apparence des yeux et la pose de la tête. Pour corriger cette limitation, Nous avons convergé vers un nouveau paradigme qui unifie les deux blocs précédents en construisant un espace regard global, nous avons exploré deux directions en utilisant des données réelles et synthétiques respectivement. / In this thesis, we tackled the automatic gaze estimation problem in unconstrained user environments. This work takes place in the computer vision research field applied to the perception of humans and their behaviors. Many existing industrial solutions are commercialized and provide an acceptable accuracy in gaze estimation. These solutions often use a complex hardware such as range of infrared cameras (embedded on a head mounted or in a remote system) making them intrusive, very constrained by the user's environment and inappropriate for a large scale public use. We focus on estimating gaze using cheap low-resolution and non-intrusive devices like the Kinect sensor. We develop new methods to address some challenging conditions such as head pose changes, illumination conditions and user-sensor large distance. In this work we investigated different gaze estimation paradigms. We first developed two automatic gaze estimation systems following two classical approaches: feature and semi appearance-based approaches. The major limitation of such paradigms lies in their way of designing gaze systems which assume a total independence between eye appearance and head pose blocks. To overcome this limitation, we converged to a novel paradigm which aims at unifying the two previous components and building a global gaze manifold, we explored two global approaches across the experiments by using synthetic and real RGB-D gaze samples.
33

Analyse par éléments finis stochastiques de la fiabilité des barrages en remblai vis-à-vis du risque de glissement / Reliability evaluation of earth dams sliding mechanism by stochastic finite element method

Mouyeaux, Anthony 31 January 2017 (has links)
Les ouvrages hydrauliques – barrages et digues – sont des ouvrages de génie civil à risque. Leur rupture engendre des conséquences humaines et matérielles souvent dramatiques. Parmi eux, les barrages en remblai représentent une part importante du parc de barrages au niveau national comme mondial, auxquels s’ajoutent d’importants linéaires de digues en remblai fluviales et maritimes. La sécurité structurale de ces ouvrages est traditionnellement évaluée par des méthodes déterministes ou semi-probabilistes aux états-limites. Cependant, la réglementation française en matière d’ouvrages hydrauliques a récemment évolué en préconisant pour les grands barrages la réalisation d’études de dangers (EDD) basées sur les méthodes d’analyse de risques et impliquant l’utilisation de démarches probabilistes. Dans ce cadre, l’objectif principal de la thèse est de développer une démarche probabiliste pour l’évaluation de la fiabilité structurale des ouvrages hydrauliques en remblai vis-à-vis du mécanisme de glissement, qui constitue l’état-limite conditionnant la géométrie de ces ouvrages. Le développement d’une telle démarche nécessite de traiter trois questions scientifiques principales : · l’élaboration d’un modèle hydromécanique pour l’évaluation déterministe de la stabilité de l’ouvrage vis-à-vis du mécanisme de glissement ; · la modélisation probabiliste de la variabilité spatiale des propriétés mécaniques et hydrauliques des matériaux constituant le remblai ; · le couplage mécano-fiabiliste intégrant les modèles de variabilité spatiale au modèle hydromécanique. De nombreux travaux de recherche ont été réalisés sur ces questions et sont disponibles dans la littérature scientifique. Cependant, ils ne traitent qu’une partie des aspects de la problématique globale d’évaluation de la fiabilité et l’absence de recherches intégratrices est à déplorer. Notre travail, propose une démarche méthodologique complète intégrant l’ensemble des questions scientifiques, en mettant en oeuvre des démarches de modélisation hydraulique et mécanique s’appuyant sur des données réelles disponibles sur un barrage en remblai. La démarche générale développée est appliquée à un barrage bien documenté servant de cas d’étude. Le modèle hydromécanique utilise la méthode des éléments finis et est développé avec le code élément finis Cast3M ouvert et compatible avec un usage en recherche scientifique. Le modèle développé permet le calcul du facteur de sécurité de l’ouvrage par la méthode de réduction de paramètres en intégrant un champ de pressions interstitielles calculé en régime transitoire. La variabilité spatiale des paramètres des matériaux du remblai est modélisée à partir d’une analyse géostatistique des mesures de contrôle de compactage sous forme de champs aléatoires qui sont intégrés au modèle éléments finis. Un couplage mécano-fiabiliste entre le code de calcul Cast3M et le logiciel de fiabilité OpenTURNS permet au final de propager les incertitudes et d’évaluer la fiabilité de l’ouvrage. / Hydraulic works – dams and dikes – are risky civil engineering structures. Dramatic consequences in terms of human and material losses may be induced by their failure. Embankment dams represent an important part of the whole dams in France and the majority of dams worldwide, without considering the important lengths of fluvial and coastal dikes. The structural safety of such structures is traditionally evaluated with limit-state deterministic or semi-probabilistic methods. Nevertheless, French regulations regarding hydraulic works has recently evolved and now impose for all large dams the realization of risk assessment studies based on probabilistic approach. In this purpose, the principal objective of this thesis work is to develop a probabilistic approach to evaluate earth dam reliability concerning the sliding mechanism, which is one of the designing limit-state of such structures. Three scientific issues have to be treated for developing such approach: · elaboration of an hydro-mechanical model for the dam deterministic evaluation towards sliding mechanism; · probabilistic modeling of hydraulic and mechanical soil properties spatial variability; · mechanical-reliability coupling with integration of the spatial variability representations in the hydro-mechanical model. Some research studies already exist on these issues. However these works concern generally only a part of the general issue: the lack of global work is to be deplored. Our work proposes a global methodologic approach taking into account the whole scientific issues and applying hydraulic and mechanical modeling approaches based on real data available in the earth dam. The developed approach is then applied on a dam case study. Hydro-mechanical model uses finite element method and is developed with the user-free code Cast3M which is compatible for a research use. This code allows the safety factor calculation through the strength reduction technique with integration of the pore pressures field estimated in transient condition. The spatial variability of embankment properties is represented with random fields based on a geostatistical analysis of construction controls data. These random fields are then integrated into the finite element model. A coupling between the physical finite element code Cast3M and the reliability software OpenTURNS finally allows assessing the uncertainties propagation and the reliability evaluation of the studied dam.
34

Analyse statique et dynamique de cartes de profondeurs : application au suivi des personnes à risque sur leur lieu de vie / Static and dynamic analysis of depth maps : application to the monitoring of the elderly at their living place

Cormier, Geoffroy 10 November 2015 (has links)
En France, les chutes constituent la première cause de mortalité chez les plus de 75 ans, et la seconde chez les plus de 65 ans. On estime qu'elle engendre un coût de 1 à 2 milliards d'euros par an pour la société. L'enjeu humain et socio-économique est colossal, sachant que le risque de chute est multiplié par 20 après une première chute, que le risque de décès est multiplié par 4 dans l'année qui suit une chute, que les chutes concernent 30% des personnes de plus de 65 ans et 50% des personnes de plus de 85 ans, et que l'on estime que d'ici 2050, plus de 30% de la population sera âgée de plus de 65 ans. Cette thèse propose un dispositif de détection de présence au sol se basant sur l'analyse de cartes de profondeurs acquises en temps réel, ainsi qu'une amélioration du dispositif proposé utilisant également un capteur thermique. Les cartes de profondeurs et les images thermiques nous permettent de nous affranchir des conditions d'illumination de la scène observée, et garantissent l'anonymat des personnes qui évoluent dans le champ de vision du dispositif. Cette thèse propose également différentes méthodes de détection du plan du sol dans une carte de profondeurs, le plan du sol constituant une référence géométrique nécessaire au dispositif proposé. Une enquête psychosociale a été réalisée, qui nous a permis d'évaluer l'acceptabilité a priori dudit dispositif. Cette enquête a démontré sa bonne acceptabilité, et a fourni des préconisations quant aux points d'amélioration et aux écueils à éviter. Enfin, une méthode de suivi d'objets dans une carte de profondeurs est proposée, un objectif à plus long terme consistant à mesurer l'activité des individus observés. / In France, fall is the first death cause for people aged 75 and more, and the second death cause for people aged 65 and more. It is considered that falls generate about 1 to 2 billion euros health costs per year. The human and social-economical issue is crucial, knowing that for the mentioned populations, fall risk is multiplied by 20 after a first fall; that the death risk is multiplied by 4 in the year following a fall; that per year, 30% of the people aged 65 and more and 50% of the people aged 85 and more are subject to falls; and that it is estimated that more than 30% of the French population whill be older than 65 years old by 2050. This thesis proposes a ground lying event detection device which bases on the real time analysis of depth maps, and also proposes an improvement of the device, which uses an additional thermal sensor. Depth maps and thermal images ensure the device is independent from textures and lighting conditions of the observed scenes, and guarantee that the device respects the privacy of those who pass into its field of view, since nobody can be recognized in such images. This thesis also proposes several methods to detect the ground plane in a depth map, the ground plane being a geometrical reference for the device. A psycho-social inquiry was conducted, and enabled the evaluation of the a priori acceptability of the proposed device. This inquiry demonstrated the good acceptability of the proposed device, and resulted in recommendations on points to be improved and on pitfalls to avoid. Last, a method to separate and track objects detected in a depth map is proposed, the measurement of the activity of observed individuals being a long term objective for the device.
35

Random fields and associated statistical inverse problems for uncertainty quantification : application to railway track geometries for high-speed trains dynamical responses and risk assessment / Champs aléatoires et problèmes statistiques inverses associés pour la quantification des incertitudes : application à la modélisation de la géométrie des voies ferrées pour l'évaluation de la réponse dynamique des trains à grande vitesse et l'analyse

Perrin, Guillaume 24 September 2013 (has links)
Les nouvelles attentes vis-à-vis des nouveaux trains à grande vitesse sont nombreuses: on les voudrait plus rapides, plus confortables, plus stables, tout en étant moins consommateur d'énergie, moins agressif vis-à-vis des voies, moins bruyants… Afin d'optimiser la conception de ces trains du futur, il est alors nécessaire de pouvoir se baser sur une connaissance précise de l'ensemble des conditions de circulations qu'ils sont susceptibles de rencontrer au cours de leur cycle de vie. Afin de relever ces défis, la simulation a un très grand rôle à jouer. Pour que la simulation puisse être utilisée dans des perspectives de conception, de certification et d'optimisation de la maintenance, elle doit alors être tout à fait représentative de l'ensemble des comportements physiques mis en jeu. Le modèle du train, du contact entre les roues et le rail, doivent ainsi être validés avec attention, et les simulations doivent être lancées sur des ensembles d'excitations qui sont réalistes et représentatifs de ces défauts de géométrie. En ce qui concerne la dynamique, la géométrie de la voie, et plus particulièrement les défauts de géométrie, représentent une des principales sources d'excitation du train, qui est un système mécanique fortement non linéaire. A partir de mesures de la géométrie d'un réseau ferroviaire, un paramétrage complet de la géométrie de la voie et de sa variabilité semblent alors nécessaires, afin d'analyser au mieux le lien entre la réponse dynamique du train et les propriétés physiques et statistiques de la géométrie de la voie. Dans ce contexte, une approche pertinente pour modéliser cette géométrie de la voie, est de la considérer comme un champ aléatoire multivarié, dont les propriétés sont a priori inconnues. En raison des interactions spécifiques entre le train et la voie, il s'avère que ce champ aléatoire n'est ni Gaussien ni stationnaire. Ce travail de thèse s'est alors particulièrement concentré sur le développement de méthodes numériques permettant l'identification en inverse, à partir de mesures expérimentales, de champs aléatoires non Gaussiens et non stationnaires. Le comportement du train étant très non linéaire, ainsi que très sensible vis-à-vis de la géométrie de la voie, la caractérisation du champ aléatoire correspondant aux défauts de géométrie doit être extrêmement fine, tant du point de vue fréquentiel que statistique. La dimension des espaces statistiques considérés est alors très importante. De ce fait, une attention toute particulière a été portée dans ces travaux aux méthodes de réduction statistique, ainsi qu'aux méthodes pouvant être généralisées à la très grande dimension. Une fois la variabilité de la géométrie de la voie caractérisée à partir de données expérimentales, elle doit ensuite être propagée au sein du modèle numérique ferroviaire. A cette fin, les propriétés mécaniques d'un modèle numérique de train à grande vitesse ont été identifiées à partir de mesures expérimentales. La réponse dynamique stochastique de ce train, soumis à un très grand nombre de conditions de circulation réalistes et représentatives générées à partir du modèle stochastique de la voie ferrée, a été ainsi évaluée. Enfin, afin d'illustrer les possibilités apportées par un tel couplage entre la variabilité de la géométrie de la voie et la réponse dynamique du train, ce travail de thèse aborde trois applications / High speed trains are currently meant to run faster and to carry heavier loads, while being less energy consuming and still ensuring the safety and comfort certification criteria. In order to optimize the conception of such innovative trains, a precise knowledge of the realm of possibilities of track conditions that the train is likely to be confronted to during its life cycle is necessary. Simulation has therefore a big to play in this context. However, to face these challenges, it has to be very representative of the physical behavior of the system. From a general point of view, a railway simulation can be seen as the dynamic response of a non-linear mechanical system, the train, which is excited by a complex multivariate spatial function, the track geometry. Therefore, the models of the train, of the wheel/rail contact forces have thus to be fully validated and the simulations have to be raised on sets of excitations that are realistic and representative of the track geometry. Based on experimental measurements, a complete parametrization of the track geometry and of its variability would be of great concern to analyze the complex link between the train dynamics and the physical and statistical properties of the track geometry. A good approach to characterize this variability is to model the track geometry as a multivariate random field, for which statistical properties are only known through a set of independent realizations. Due to the specific interactions between the train and the track, this random field is neither stationary nor Gaussian. In order to propagate the track geometry variability to the train response, methods to identify in inverse, from a finite set of experimental data, the statistical properties of non-stationary and non-Gaussian random fields were analyzed in this thesis. The train behavior being very non-linear and very sensitive to the track geometry, the random field has to be described very precisely from frequency and statistical points of view. As a result, the statistical dimension of this random field is very high. Hence, a particular attention is paid in this thesis to statistical reduction methods and to statistical identification methods that can be numerically applied to the high dimensional case. Once the track geometry variability has been characterized from experimental data, it has to be propagated through the model. To this end, a normalized multibody model of a high speed train, whose mechanical parameters have been carefully identified from experimental measurements, has been made run on sets of realistic and representative running conditions. The commercial software Vampire was used to solve these dynamic equations. At last, three applications are proposed to illustrate to what extent such a railway stochastic modeling opens new possibilities in terms of virtual certification, predictive maintenance and optimization of the railway system
36

Analyse d'opinion dans les interactions orales / Opinion analysis in speech interactions

Barriere, Valentin 15 April 2019 (has links)
La reconnaissance des opinions d'un locuteur dans une interaction orale est une étape cruciale pour améliorer la communication entre un humain et un agent virtuel. Dans cette thèse, nous nous situons dans une problématique de traitement automatique de la parole (TAP) sur les phénomènes d'opinions dans des interactions orales spontanées naturelles. L'analyse d'opinion est une tâche peu souvent abordée en TAP qui se concentrait jusqu'à peu sur les émotions à l'aide du contenu vocal et non verbal. De plus, la plupart des systèmes récents existants n'utilisent pas le contexte interactionnel afin d'analyser les opinions du locuteur. Dans cette thèse, nous nous penchons sur ces sujet. Nous nous situons dans le cadre de la détection automatique en utilisant des modèles d’apprentissage statistiques. Après une étude sur la modélisation de la dynamique de l'opinion par un modèle à états latents à l’intérieur d'un monologue, nous étudions la manière d’intégrer le contexte interactionnel dialogique, et enfin d'intégrer l'audio au texte avec différents types de fusion. Nous avons travaillé sur une base de données de Vlogs au niveau d'un sentiment global, puis sur une base de données d'interactions dyadiques multimodales composée de conversations ouvertes, au niveau du tour de parole et de la paire de tours de parole. Pour finir, nous avons fait annoté une base de données en opinion car les base de données existantes n'étaient pas satisfaisantes vis-à-vis de la tâche abordée, et ne permettaient pas une comparaison claire avec d'autres systèmes à l'état de l'art.A l'aube du changement important porté par l’avènement des méthodes neuronales, nous étudions différents types de représentations: les anciennes représentations construites à la main, rigides mais précises, et les nouvelles représentations apprises de manière statistique, générales et sémantiques. Nous étudions différentes segmentations permettant de prendre en compte le caractère asynchrone de la multi-modalité. Dernièrement, nous utilisons un modèle d'apprentissage à états latents qui peut s'adapter à une base de données de taille restreinte, pour la tâche atypique qu'est l'analyse d'opinion, et nous montrons qu'il permet à la fois une adaptation des descripteurs du domaine écrit au domaine oral, et servir de couche d'attention via son pouvoir de clusterisation. La fusion multimodale complexe n'étant pas bien gérée par le classifieur utilisé, et l'audio étant moins impactant sur l'opinion que le texte, nous étudions différentes méthodes de sélection de paramètres pour résoudre ces problèmes. / 2588/5000Recognizing a speaker's opinions in an oral interaction is a crucial step in improving communication between a human and a virtual agent. In this thesis, we find ourselves in a problematic of automatic speech processing (APT) on opinion phenomena in natural spontaneous oral interactions. Opinion analysis is a task that is not often addressed in TAP that focused until recently on emotions using voice and non-verbal content. In addition, most existing legacy systems do not use the interactional context to analyze the speaker's opinions. In this thesis, we focus on these topics.We are in the context of automatic detection using statistical learning models. A study on modeling the dynamics of opinion by a model with latent states within a monologue, we study how to integrate the context interactional dialogical, and finally to integrate audio to text with different types of fusion. We worked on a basic Vlogs data at a global sense, and on the basis of multimodal data dyadic interactions composed of open conversations, at the turn of speech and word pair of towers. Finally, we annotated database in opinion because existing database were not satisfactory vis-à-vis the task addressed, and did not allow a clear comparison with other systems in the state art.At the dawn of significant change brought by the advent of neural methods, we study different types of representations: the ancient representations built by hand, rigid, but precise, and new representations learned statistically, and general semantics. We study different segmentations to take into account the asynchronous nature of multi-modality. Recently, we are using a latent state learning model that can adapt to a small database, for the atypical task of opinion analysis, and we show that it allows both an adaptation of the descriptors of the written domain to the oral domain, and serve as an attention layer via its clustering power. Complex multimodal fusion is not well managed by the classifier used, and audio being less impacting on opinion than text, we study different methods of parameter selection to solve these problems.
37

Modèle dynamique d'interaction véhicule-voie ferroviaire en présence de défauts géométriques sur les surfaces en contact / Dynamic train-track interaction model with geometric defects on the surfaces in contact

Pecile, Bérénice 31 January 2017 (has links)
Les phénomènes dynamiques observés lors de la circulation des trains provoquent des nuisances, notamment sonores et vibratoires, qui sont amplifiées par la présence de défauts sur la roue et sur le rail. Pour les analyser, il est nécessaire de prédire avec robustesse le comportement dynamique des composants impliqués dans l’interaction véhicule-voie et donc de simuler les efforts de contact générés pour des interfaces non idéalisées.L’objectif de cette thèse est donc de proposer un modèle semi-analytique global compatible avec l’intégration de multiples défauts géométriques sur les surfaces en contact. Afin de simuler l’interaction véhicule-voie dans le domaine temporel et garantir une applicabilité en phase de dimensionnement, une attention particulière est portée sur le compromis entre la précision des résultats et les temps de calcul associés.Le modèle ainsi proposé est composé d’un demi-bogie, dont le comportement vertical est représenté par un ensemble de masses-ressorts-amortisseurs, circulant sur une voie ballastée. Cette dernière est assimilée à une poutre bi-appuyée, supportée périodiquement à l’emplacement des traverses. Ces deux systèmes sont couplés en contact grâce à une procédure Distributed Point Reacting Spring (DPRS) sous forme discrétisée.Une validation du modèle est, d’une part, proposée en considérant des travaux antérieurs dans le cas de géométries parfaites. D’autre part, de multiples combinaisons de défauts, localisés comme le méplat ou répartis comme l’usure ondulatoire, sont introduites dans la simulation. La variabilité spatiale, particulière au cas de l’écaillage, est modélisée par des champs aléatoires. / The appearance of dynamic phenomena during the running of train on track leads to issues such as noise and vibration pollution, which can be further amplified by the presence of defects on the treads. In order to analyze them, it is necessary to predict with reliability the dynamic behavior of the vehicle-track interaction components, in particular the contact forces produced by non perfect treads.The aim of this PhD thesis is to provide a semi-analytical vehicle-track interaction model able to take into account multiple defects on the surfaces in contact. In order to conduct simulations in the time-domain and ensure applicability in the sizing phase, a special attention is given on the compromise between the accuracy of the results and the simulation times.The proposed model is therefore composed of half a bogie running on a ballasted track. This latter is modeled by a pinned-pinned beam with periodic supports located at the sleepers while the vertical behavior of the bogie is given by masses, springs and dampers. These two models are coupled in contact by a discretized Distributed Point Reacting Spring (DPRS) procedure.A validation of the model, based on previous work, is firstly proposed for perfect treads. Then, multiple combinations of defects, either localised as wheelflat or spread as corrugation, are introduced in the simulation. The spatial variability, specific to shelling, is modeled by random fields.
38

Recalage déformable à base de graphes : mise en correspondance coupe-vers-volume et méthodes contextuelles / Graph-based deformable registration : slice-to-volume mapping and context specific methods

Ferrante, Enzo 03 May 2016 (has links)
Les méthodes de recalage d’images, qui ont pour but l’alignement de deux ou plusieurs images dans un même système de coordonnées, sont parmi les algorithmes les plus anciens et les plus utilisés en vision par ordinateur. Les méthodes de recalage servent à établir des correspondances entre des images (prises à des moments différents, par différents senseurs ou avec différentes perspectives), lesquelles ne sont pas évidentes pour l’œil humain. Un type particulier d’algorithme de recalage, connu comme « les méthodes de recalage déformables à l’aide de modèles graphiques » est devenu de plus en plus populaire ces dernières années, grâce à sa robustesse, sa scalabilité, son efficacité et sa simplicité théorique. La gamme des problèmes auxquels ce type d’algorithme peut être adapté est particulièrement vaste. Dans ce travail de thèse, nous proposons plusieurs extensions à la théorie de recalage déformable à l’aide de modèles graphiques, en explorant de nouvelles applications et en développant des contributions méthodologiques originales.Notre première contribution est une extension du cadre du recalage à l’aide de graphes, en abordant le problème très complexe du recalage d’une tranche avec un volume. Le recalage d’une tranche avec un volume est le recalage 2D dans un volume 3D, comme par exemple le mapping d’une tranche tomographique dans un système de coordonnées 3D d’un volume en particulier. Nos avons proposé une formulation scalable, modulaire et flexible pour accommoder des termes d'ordre élevé et de rang bas, qui peut sélectionner le plan et estimer la déformation dans le plan de manière simultanée par une seule approche d'optimisation. Le cadre proposé est instancié en différentes variantes, basés sur différentes topologies du graph, définitions de l'espace des étiquettes et constructions de l'énergie. Le potentiel de notre méthode a été démontré sur des données réelles ainsi que des données simulées dans le cadre d’une résonance magnétique d’ultrason (où le cadre d’installation et les stratégies d’optimisation ont été considérés).Les deux autres contributions inclues dans ce travail de thèse, sont liées au problème de l’intégration de l’information sémantique dans la procédure de recalage (indépendamment de la dimensionnalité des images). Actuellement, la plupart des méthodes comprennent une seule fonction métrique pour expliquer la similarité entre l’image source et l’image cible. Nous soutenons que l'intégration des informations sémantiques pour guider la procédure de recalage pourra encore améliorer la précision des résultats, en particulier en présence d'étiquettes sémantiques faisant du recalage un problème spécifique adapté à chaque domaine.Nous considérons un premier scénario en proposant un classificateur pour inférer des cartes de probabilité pour les différentes structures anatomiques dans les images d'entrée. Notre méthode vise à recaler et segmenter un ensemble d'images d'entrée simultanément, en intégrant cette information dans la formulation de l'énergie. L'idée principale est d'utiliser ces cartes estimées des étiquettes sémantiques (fournie par un classificateur arbitraire) comme un substitut pour les données non-étiquettées, et les combiner avec le recalage déformable pour améliorer l'alignement ainsi que la segmentation.Notre dernière contribution vise également à intégrer l'information sémantique pour la procédure de recalage, mais dans un scénario différent. Dans ce cas, au lieu de supposer que nous avons des classificateurs arbitraires pré-entraînés à notre disposition, nous considérons un ensemble d’annotations précis (vérité terrain) pour une variété de structures anatomiques. Nous présentons une contribution méthodologique qui vise à l'apprentissage des critères correspondants au contexte spécifique comme une agrégation des mesures de similarité standard à partir des données annotées, en utilisant une adaptation de l’algorithme « Latent Structured Support Vector Machine ». / Image registration methods, which aim at aligning two or more images into one coordinate system, are among the oldest and most widely used algorithms in computer vision. Registration methods serve to establish correspondence relationships among images (captured at different times, from different sensors or from different viewpoints) which are not obvious for the human eye. A particular type of registration algorithm, known as graph-based deformable registration methods, has become popular during the last decade given its robustness, scalability, efficiency and theoretical simplicity. The range of problems to which it can be adapted is particularly broad. In this thesis, we propose several extensions to the graph-based deformable registration theory, by exploring new application scenarios and developing novel methodological contributions.Our first contribution is an extension of the graph-based deformable registration framework, dealing with the challenging slice-to-volume registration problem. Slice-to-volume registration aims at registering a 2D image within a 3D volume, i.e. we seek a mapping function which optimally maps a tomographic slice to the 3D coordinate space of a given volume. We introduce a scalable, modular and flexible formulation accommodating low-rank and high order terms, which simultaneously selects the plane and estimates the in-plane deformation through a single shot optimization approach. The proposed framework is instantiated into different variants based on different graph topology, label space definition and energy construction. Simulated and real-data in the context of ultrasound and magnetic resonance registration (where both framework instantiations as well as different optimization strategies are considered) demonstrate the potentials of our method.The other two contributions included in this thesis are related to how semantic information can be encompassed within the registration process (independently of the dimensionality of the images). Currently, most of the methods rely on a single metric function explaining the similarity between the source and target images. We argue that incorporating semantic information to guide the registration process will further improve the accuracy of the results, particularly in the presence of semantic labels making the registration a domain specific problem.We consider a first scenario where we are given a classifier inferring probability maps for different anatomical structures in the input images. Our method seeks to simultaneously register and segment a set of input images, incorporating this information within the energy formulation. The main idea is to use these estimated maps of semantic labels (provided by an arbitrary classifier) as a surrogate for unlabeled data, and combine them with population deformable registration to improve both alignment and segmentation.Our last contribution also aims at incorporating semantic information to the registration process, but in a different scenario. In this case, instead of supposing that we have pre-trained arbitrary classifiers at our disposal, we are given a set of accurate ground truth annotations for a variety of anatomical structures. We present a methodological contribution that aims at learning context specific matching criteria as an aggregation of standard similarity measures from the aforementioned annotated data, using an adapted version of the latent structured support vector machine (LSSVM) framework.
39

Inférence topologique

Prévost, Noémie 02 1900 (has links)
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat. / Data coming from a fine sampling of a continuous process (random field) can be represented as images. A statistical test aiming at detecting a difference between two images can be seen as a group of tests in which each pixel is compared to the corresponding pixel in the other image. We then use a method to control the type I error over all the tests, such as the Bonferroni correction or the control of the false discovery rate (FDR). Methods of data analysis have been developped in the field of medical imaging, mainly by Keith Worsley, using the geometry of random fields in order to build a global statistical test over the whole image. The expected Euler characteristic of the excursion set of the random field underlying the sample over a given threshold is used in order to determine the probability that the random field exceeds this same threshold under the null hypothesis (topological inference). We present some notions relevant to random fields, in particular isotropy (the covariance function between two given points of a field depends only on the distance between them). We discuss two methods for the analysis of non\-isotropic random fields. The first one consists in deforming the field and then using the intrinsic volumes and the Euler characteristic densities. The second one uses the Lipschitz-Killing curvatures. We then perform a study of sensitivity and power of the topological inference technique comparing it to the Bonferonni correction. Finally, we use topological inference in order to describe the evolution of climate change over Quebec territory between 1991 and 2100 using temperature data simulated and published by the Climate Simulation Team at Ouranos, with the Canadian Regional Climate Model CRCM4.2.
40

Développement de modèles géostatistiques à l’aide d’équations aux dérivées partielles stochastiques / Development of geostatistical models using stochastic partial differential equations

Carrizo Vergara, Ricardo 18 December 2018 (has links)
Ces travaux présentent des avancées théoriques pour l'application de l'approche EDPS (Équation aux Dérivées Partielles Stochastique) en Géostatistique. On considère dans cette approche récente que les données régionalisées proviennent de la réalisation d'un Champ Aléatoire satisfaisant une EDPS. Dans le cadre théorique des Champs Aléatoires Généralisés, l'influence d'une EDPS linéaire sur la structure de covariance de ses éventuelles solutions a été étudiée avec une grande généralité. Un critère d'existence et d'unicité des solutions stationnaires pour une classe assez large d'EDPSs linéaires a été obtenu, ainsi que des expressions pour les mesures spectrales associées. Ces résultats permettent de développer des modèles spatio-temporels présentant des propriétés non-triviales grâce à l'analyse d'équations d'évolution présentant un ordre de dérivation temporel fractionnaire. Des paramétrisations adaptées de ces modèles permettent de contrôler leur séparabilité et leur symétrie ainsi que leur régularité spatiale et temporelle séparément. Des résultats concernant des solutions stationnaires pour des EDPSs issues de la physique telles que l'équation de la Chaleur et l'équation d'Onde sont présentés. Puis, une méthode de simulation non-conditionnelle adaptée à ces modèles est étudiée. Cette méthode est basée sur le calcul d'une approximation de la Transformée de Fourier du champ, et elle peut être implémentée de façon efficace grâce à la Transformée de Fourier Rapide. La convergence de cette méthode a été montrée théoriquement dans un sens faible et dans un sens fort. Cette méthode est appliquée à la résolution numérique des EDPSs présentées dans ces travaux. Des illustrations de modèles présentant des propriétés non-triviales et reliés à des équations de la physique sont alors présentées. / This dissertation presents theoretical advances in the application of the Stochastic Partial Differential Equation (SPDE) approach in Geostatistics. This recently developed approach consists in interpreting a regionalised data-set as a realisation of a Random Field satisfying a SPDE. Within the theoretical framework of Generalized Random Fields, the influence of a linear SPDE over the covariance structure of its potential solutions can be studied with a great generality. A criterion of existence and uniqueness of stationary solutions for a wide-class of linear SPDEs has been obtained, together with an expression for the related spectral measures. These results allow to develop spatio-temporal covariance models presenting non-trivial properties through the analysis of evolution equations presenting a fractional temporal derivative order. Suitable parametrizations of such models allow to control their separability, symmetry and separated space-time regularities. Results concerning stationary solutions for physically inspired SPDEs such as the Heat equation and the Wave equation are also presented. A method of non-conditional simulation adapted to these models is then studied. This method is based on the computation of an approximation of the Fourier Transform of the field, and it can be implemented efficiently thanks to the Fast Fourier Transform algorithm. The convergence of this method has been theoretically proven in suitable weak and strong senses. This method is applied to numerically solve the SPDEs studied in this work. Illustrations of models presenting non-trivial properties and related to physically driven equations are then given.

Page generated in 0.0753 seconds