Spelling suggestions: "subject:"aléatoire""
251 |
Extraction et caractérisation du mouvement cardiaque en imagerie scanner multibarrette.Simon, Antoine 12 December 2005 (has links) (PDF)
L'analyse de la cinétique cardiaque est d'un grand intérêt diagnostique dans la lutte contre les pathologies cardio-vasculaires. Deux méthodes sont proposées afin de réaliser une estimation du mouvement du cœur à partir de séquences dynamiques de volumes tridimensionnels acquises en imagerie scanner multibarrette. Ces méthodes reposent toutes deux sur une mise en correspondance, réalisée dans un cadre markovien et suivant un schéma multirésolution. La première méthode, estimant les correspondances entre des surfaces pré-segmentées, est dépendante de la cohérence temporelle de cette segmentation. La seconde méthode estime les correspondances entre, d'une part, la surface segmentée et, d'autre part, le volume de données original correspondant à l'instant suivant. L'estimation du mouvement et la segmentation sont alors réalisés, sur toute la séquence, au cours d'un unique processus. Les deux méthodes proposées sont validées sur données simulées et sur données réelles.
|
252 |
Minimisation d'une fonction quasi-convexe aléatoire : applicationsIdée, Edwige 24 November 1973 (has links) (PDF)
.
|
253 |
Interaction robot/environnement dans le cadre de la psychologie éco logique. Implémentation des affordancesHazan, Aurélien 11 December 2007 (has links) (PDF)
Comment un robot peut-il estimer si une tâche est réalisable ou pas dans un envi ronnement donné ? De nombreux travaux en robotique s'appuient pour répondre sur les affordances de la psychologie écologique. Apprendre quelles sont les actions permises nécessite selon nous d'apprendre les relations de dépendances locales et globales entre capteurs et effecteurs au cours de l'action.<br />Pour cela nous assimilons le robot à un réseau sensorimoteur aléatoire, et pour représenter son activité nous introduisons des mesures de dépendance probabilist es et statistiques. Celles-ci nous permettent de construire des matrices, graphes et complexes simpliciaux aléatoires dont nous étudions les propriétés spectrales, topologiques et homologiques.<br />Puis nous vérifions expérimentalement l'intérêt des outils proposés à l'aide d'un robot mobile simulé, autour de la capacité de pousser les objets de l'environnement, dans le cadre de tâches de classification supervisée et non supervisée.
|
254 |
Distributions alpha-stable pour la caractérisation de phénomènes aléatoires observés par des capteurs placés dans un environnement maritimeFiche, Anthony 19 November 2012 (has links) (PDF)
Le travail réalisé dans le cadre de cette thèse a pour but de caractériser des signaux aléatoires, rencontrés dans le domaine aérien et sous-marin, en s'appuyant sur une approche statistique. En traitement du signal, l'analyse statistique a longtemps été fondée sous l'hypothèse de Gaussianité des données. Cependant, ce modèle n'est plus valide dès lors que la densité de probabilité des données se caractérise par des phénomènes de queues lourdes et d'asymétrie. Une famille de lois est particulièrement adaptée pour représenter de tels phénomènes : les distributions α-stables. Dans un premier temps, les distributions α-stables ont été présentées et utilisées pour estimer des données synthétiques et réelles, issues d'un sondeur monofaisceau, dans une stratégie de classification de fonds marins. La classification est réalisée à partir de la théorie des fonctions de croyance, permettant ainsi de prendre en compte l'imprécision et l'incertitude liées aux données et à l'estimation de celles-ci. Les résultats obtenus ont été comparés à un classifieur Bayésien. Dans un second temps, dans le contexte de la surveillance maritime, une approche statistique à partir des distributions α-stables a été réalisée afin de caractériser les échos indésirables réfléchis par la surface maritime, appelés aussi fouillis de mer, où la surface est observée en configuration bistatique. La surface maritime a d'abord été générée à partir du spectre d'Elfouhaily puis la Surface Équivalente Radar (SER) de celle-ci a été déterminée à partir de l'Optique Physique (OP). Les distributions de Weibull et ont été utilisées et comparées au modèle α-stable. La validité de chaque modèle a été étudiée à partir d'un test de Kolmogorov-Smirnov.
|
255 |
Méthodes Bayésiennes pour le démélange d'images hyperspectrales / Bayesian methods for hyperspectral image unmixingEches, Olivier 14 October 2010 (has links)
L’imagerie hyperspectrale est très largement employée en télédétection pour diverses applications, dans le domaine civil comme dans le domaine militaire. Une image hyperspectrale est le résultat de l’acquisition d’une seule scène observée dans plusieurs longueurs d’ondes. Par conséquent, chacun des pixels constituant cette image est représenté par un vecteur de mesures (généralement des réflectances) appelé spectre. Une étape majeure dans l’analyse des données hyperspectrales consiste à identifier les composants macroscopiques (signatures) présents dans la région observée et leurs proportions correspondantes (abondances). Les dernières techniques développées pour ces analyses ne modélisent pas correctement ces images. En effet, habituellement ces techniques supposent l’existence de pixels purs dans l’image, c’est-à-dire des pixels constitué d’un seul matériau pur. Or, un pixel est rarement constitué d’éléments purs distincts l’un de l’autre. Ainsi, les estimations basées sur ces modèles peuvent tout à fait s’avérer bien loin de la réalité. Le but de cette étude est de proposer de nouveaux algorithmes d’estimation à l’aide d’un modèle plus adapté aux propriétés intrinsèques des images hyperspectrales. Les paramètres inconnus du modèle sont ainsi déduits dans un cadre Bayésien. L’utilisation de méthodes de Monte Carlo par Chaînes de Markov (MCMC) permet de surmonter les difficultés liées aux calculs complexes de ces méthodes d’estimation. / Hyperspectral imagery has been widely used in remote sensing for various civilian and military applications. A hyperspectral image is acquired when a same scene is observed at different wavelengths. Consequently, each pixel of such image is represented as a vector of measurements (reflectances) called spectrum. One major step in the analysis of hyperspectral data consists of identifying the macroscopic components (signatures) that are present in the sensored scene and the corresponding proportions (concentrations). The latest techniques developed for this analysis do not properly model these images. Indeed, these techniques usually assume the existence of pure pixels in the image, i.e. pixels containing a single pure material. However, a pixel is rarely composed of pure spectrally elements, distinct from each other. Thus, such models could lead to weak estimation performance. The aim of this thesis is to propose new estimation algorithms with the help of a model that is better suited to the intrinsic properties of hyperspectral images. The unknown model parameters are then infered within a Bayesian framework. The use of Markov Chain Monte Carlo (MCMC) methods allows one to overcome the difficulties related to the computational complexity of these inference methods.
|
256 |
Analyse mathématique de quelques modèles en calcul de structures électroniques et homogénéisation / Mathematical analysis of some models in electronic structure calculations and homogenizationAnantharaman, Arnaud 16 November 2010 (has links)
Cette thèse comporte deux volets distincts. Le premier, qui fait l'objet du chapitre 2, porte sur les modèles mathématiques en calcul de structures électroniques, et consiste plus particulièrement en l'étude des modèles de type Kohn-Sham avec fonctionnelles d'échange-corrélation LDA et GGA. Nous prouvons, pour un système moléculaire neutre ou chargé positivement, que le modèle Kohn-Sham LDA étendu admet un minimiseur, et que le modèle Kohn-Sham GGA pour un système contenant deux électrons admet un minimiseur. Le second volet de la thèse traite de problématiques diverses en homogénéisation. Dans les chapitres 3 et 4, nous nous intéressons à un modèle de matériau aléatoire dans lequel un matériau périodique est perturbé de manière stochastique. Nous proposons plusieurs approches, certaines rigoureuses et d'autres heuristiques, pour calculer au second ordre en la perturbation le comportement homogénéisé de ce matériau de manière purement déterministe. Les tests numériques effectués montrent que ces approches sont plus efficaces que l'approche stochastique directe. Le chapitre 5 est consacré aux couches limites en homogénéisation périodique, et vise notamment, dans le cadre parabolique, à comprendre comment prendre en compte les conditions aux limites et initiale, et comment corriger en conséquence le développement à deux échelles sur lequel repose classiquement l'homogénéisation, pour obtenir des estimations d'erreur dans des espaces fonctionnels adéquats / This thesis is divided into two parts. The first part, that coincides with Chapter 2, deals with mathematical models in quantum chemistry, and specifically focuses on Kohn-Sham models with LDA and GGA exchange-correlation functionals. We prove, for a neutral or positively charged system, that the extended Kohn-Sham LDA model admits a minimizer, and that the Kohn-Sham GGA model for a two-electron system admits a minimizer. The second part is concerned with various issues in homogenization. In Chapters 3 and 4, we introduce and study a model in which the material of interest consists of a random perturbation of a periodic material. We propose different approaches, either rigorous or formal, to compute the homogenized behavior of this material up to the second order in the size of the perturbation, in an entirely deterministic way. Numerical experiments show the efficiency of these approaches as compared to the direct stochastic homogenization process. Chapter 5 is devoted to boundary layers in periodic homogenization, in particular in the parabolic setting. It aims at giving a better understanding of how to take into account boundary and initial conditions, and how to correct the two-scale expansion on which homogenization is classically grounded, to obtain fine error estimates
|
257 |
Partitions aléatoires et théorie asymptotique des groupes symétriques, des algèbres d'Hecke et des groupes de Chevalley finis / Random partitions and asymptotic theory of symmetric groups, Hecke algebras and finite Chevalley groupsMéliot, Pierre-Loïc 17 December 2010 (has links)
Au cours de cette thèse, nous avons étudié des modèles de partitions aléatoires issus de la théorie des représentations des groupes symétriques et des groupes de Chevalley finis classiques, en particulier les groupes GL(n,Fq). Nous avons démontré des résultats de concentration gaussienne pour :- les q-mesures de Plancherel (de type A), qui correspondent à l'action de GL(n,Fq) sur la variété des drapeaux complets de (Fq)^n, et sont liées à la théorie des représentations des algèbres d'Hecke des groupes symétriques.- l'analogue en type B du modèle précédent, correspondant à l'action de Sp(2n,Fq) sur la variété des drapeaux totalement isotropes complets dans (Fq)^2n.- les mesures de Schur-Weyl, qui correspondent aux actions commutantes de GL(N,C) et Sn sur l'espace des n-tenseurs d'un espace vectoriel de dimension N.- et les mesures de Gelfand, qui correspondent à la représentation du groupe symétrique qui est la somme directe sans multiplicité de toutes les représentations irréductibles de Sn.Dans chaque cas, nous avons établi une loi des grands nombres et un théorème central limite tout à fait semblable à la loi des grands nombres de Logan-Shepp-Kerov-Vershik (1977) et au théorème central limite de Kerov (1993) pour les mesures de Plancherel des groupes symétriques.Nos résultats peuvent presque tous être traduits en termes de combinatoire des mots, et d'autre part, les techniques employées sont inspirées des techniques de la théorie des matrices aléatoires. Ainsi, on a calculé pour chaque modèle l'espérance de fonctions polynomiales sur les partitions, qui jouent un rôle tout à fait analogue aux polynômes traciaux en théorie des matrices aléatoires. L'outil principal des preuves est ainsi une algèbre d'observables de diagrammes de Young, qu'on peut aussi interpréter comme algèbre de permutations partielles. Nous avons tenté de généraliser cette construction au cas d'autres groupes et algèbres, et nous avons construit une telle généralisation dans le cas des algèbres d'Hecke des groupes symétriques. Ces constructions rentrent dans le cadre très abstrait des fibrés de semi-groupes par des semi-treillis ; dans le même contexte, on peut formaliser des problèmes combinatoires sur les permutations, par exemple le problème du calcul des nombres de Hurwitz / During this thesis, we have studied models of random partitions stemming from the representation theory of the symmetric groups and the classical finite Chevalley groups, in particular the groups GL(n,Fq). We have shown results of gaussian concentration in the case of:- q-Plancherel measures (of type A), that correspond to the action of GL(n,Fq) on the variety of complete flags of (Fq)^n, and are related to the representation theory of the Hecke algebras of the symmetric groups.- the analogue in type B of the aforementioned model, that corresponds to the action of Sp(2n,Fq) on the variety of complete totally isotropic flags in (Fq)^2n.- Schur-Weyl measures, that correspond to the two commuting actions of GL(N,C) and Sn on the space of n-tensors of a vector space of dimension N.- Gelfand measures, that correspond to the representation of the symmetric group which is the multiplicity-free direct sum of all irreducible representations of Sn.In each case, we have established a law of large numbers and a central limit theorem similar to the law of large numbers of Logan-Shepp-Kerov-Vershik (1977) and to Kerov's central limit theorem (1993) for the Plancherel measures of the symmetric groups. Almost all our results can be restated in terms of combinatorics of words, and besides, the tools of the proofs are inspired by the usual techniques of random matrix theory. Hence, we have computed for each model the expectation of polynomial functions on partitions, that play a role similar to the tracial polynomials in random matrix theory. The principal tool of the proofs is therefore an algebra of observables of diagrams, that can also be interpreted as an algebra of partial permutations. We have tried to generalize this construction to the case of other groups and algebras, and we have constructed such a generalization in the case of the Hecke algebras of the symmetric groups. These constructions belong to the abstract setting of semilattice bundles over semigroups; in the same setting, one can formalize combinatorial problems on permutations, for instance the problem of computing the Hurwitz numbers
|
258 |
Détection, caractérisation d'objets 3D et simulation d'évolution morphologique appliquée à l'infiltrabilité de préformes fibreusesMulat, Christianne 25 November 2008 (has links)
Cette thèse associe analyse d’image et modélisation physico-chimique afin de caractériser l’infiltrabilité d’un milieu poreux. Infiltrabilité signifie : « propension d’un milieu poreux à se laisser pénétrer par un fluide apportant un dépôt solide ». Une application est la fabrication de composites à matrice céramique par dépôt chimique en phase gazeuse (CVI). Des études ont montré que l’agencement des fibres d’un matériau composite a un impact sur sa densité finale. Nous proposons d’étudier l’évolution du milieu poreux au cours de l’infiltration pour des architectures complexes. La première étape consiste en la segmentation et la caractérisation de composites déjà densifiés obtenus par micro-tomographie. Les objets à segmenter sont des fibres quasi-cylindriques. Deux outils ont été développés : un estimateur optimal de l’orientation vers l’axe de cylindres, et un algorithme de détection et de caractérisation d’objets quasi-cylindriques. Appliquée aux composites fibreux, cette étape fournit un bloc contenant les fibres. Il constitue le milieu poreux complexe dont on cherche à caractériser l’infiltrabilité. La seconde étape est la modélisation à l’échelle des fibres du procédé CVI. Elle utilise des marcheurs aléatoires, avec une gestion de l’interface du solide par « marching cube simplifié». L’algorithme proposé est novateur car il prend en compte simultanément les réactions chimiques, le transport de gaz en régime raréfié ou continu et l’évolution temporelle de la morphologie d’un milieu poreux. Le couplage des deux étapes permet de comparer le dépôt issu de la segmentation à celui résultant de la simulation dans divers régimes physiques. Il est alors possible d’effectuer une analyse inverse des conditions d’élaboration à partir de la morphologie du dépôt. Les outils proposés permettent aussi de comparer l’infiltrabilité de différentes architectures fibreuses. / This thesis connects image processing and physicochemical modeling to characterize the infiltrability of porous media. Infiltrability means “ability of a porous medium to receive a solid deposit brought by penetration of a carrier fluid”. A practical case is the preparation of ceramic-matrix composites by Chemical Vapor Infiltration (CVI). Various studies have proved that the fiber arrangement in preforms of composite materials affects the density of the material at the final stage. In this work, the morphological evolution of complex 3D porous media during the gas-phase infiltration is studied. The first step consists in the segmentation and characterization X-ray Micro Tomography of the infiltrated composite. The objects to be segmented are quasi cylindrical fibers. Two tools have been developed: an optimal estimator of the orientation toward the axis; and an algorithm to detect and characterize quasi cylindrical objects. Applied on images of fiber-reinforced composites, this approach makes it possible to obtain the block containing the fibers. This block is the complex porous medium used for infiltrability characterization. The second step addresses the fiber-scale modeling of CVI. It is based on random walkers and fluid / solid interface management by a simplified marching cube. Our algorithm is innovative since it handles simultaneously chemical reactions, gas transport in rarefied and continuum regimes, and the morphological evolution of porous structure. By combining these two steps, we can compare the deposit obtained by segmentation to simulated deposits obtained in various physicochemical regimes. This allows performing an inverse analysis of the actual deposition conditions from the morphology of the deposit. The provided computational approach also allows the comparison of different porous textures with respect to their infiltrability.
|
259 |
Spatial random forests for brain lesions segmentation in MRIs and model-based tumor cell extrapolation / Forêts aléatoires spatiales pour la segmentation de lésions cérébrales et l'estimation de densités cellulaires dans les images par résonance magnétiqueGeremia, Ezequiel 30 January 2013 (has links)
La grande quantité de données issues des l'imagerie médicale contribue au succès des méthodes supervisées pour l'annotation sémantique des images. Notre étude porte sur la détection de lésions cérébrales dans les images par résonance magnétique (IRMs) en utilisant un outil générique et efficace: les forêts aléatoires. Trois contributions majeures se distinguent. D'abord, la segmentation des lésions cérébrales, essentielle pour établir diagnostics, pronostics et le traitement. La conception d'une forêt aléatoire intégrant le contexte spatial cible particulièrement la segmentation automatique de lésions de sclérose en plaques et des gliomes dans les IRMs. La méthode intègre l'information multi-séquences des IRMs, les atlas de répartition des tissus. Deuxième contribution : l'estimation de la densité de cellules tumorales à partir des IRMs. Une méthode de couplage de modèles génératifs et discriminatifs est conçue pour apprendre la densité de cellules tumorales latente à partir de modélisations associées à des images synthétiques. Le modèle génératif est un simulateur bio-physiologique de croissance tumorale en libre accès. Le modèle discriminatif est une forêt aléatoire pour la régression multi-variée de la densité de cellules tumorales à partir des IRMs. Enfin, nous présentons les “forêts aléatoires spatialement adaptables” regroupant les avantages des approches multi-échelles avec ceux de forêts aléatoires, avec une application aux scénarios de classification et de segmentation précédemment cités. Une évaluation quantitative des méthodes proposées sur des bases de données annotées et librement accessibles démontre des résultats comparables à l'état de l'art. / The large size of the datasets produced by medical imaging protocols contributes to the success of supervised discriminative methods for semantic labelling of images. Our study makes use of a general and efficient emerging framework, discriminative random forests, for the detection of brain lesions in multi-modal magnetic resonance images (MRIs). The contribution is three-fold. First, we focus on segmentation of brain lesions which is an essential task to diagnosis, prognosis and therapy planning. A context-aware random forest is designed for the automatic multi-class segmentation of MS lesions, low grade and high grade gliomas in MR images. It uses multi-channel MRIs, prior knowledge on tissue classes, symmetrical and long-range spatial context to discriminate lesions from background. Then, we investigate the promising perspective of estimating the brain tumor cell density from MRIs. A generative-discriminative framework is presented to learn the latent and clinically unavailable tumor cell density from model-based estimations associated with synthetic MRIs. The generative model is a validated and publicly available biophysiological tumor growth simulator. The discriminative model builds on multi-variate regression random forests to estimate the voxel-wise distribution of tumor cell density from input MRIs. Finally, we present the “Spatially Adaptive Random Forests” which merge the benefits of multi-scale and random forest methods and apply it to previously cited classification and regression settings. Quantitative evaluation of the proposed methods are carried out on publicly available labeled datasets and demonstrate state of the art performance.
|
260 |
Segmentation of heterogeneous document images : an approach based on machine learning, connected components analysis, and texture analysis / Segmentation d'images hétérogènes de documents : une approche basée sur l'apprentissage automatique de données, l'analyse en composantes connexes et l'analyse de textureBonakdar Sakhi, Omid 06 December 2012 (has links)
La segmentation de page est l'une des étapes les plus importantes de l'analyse d'images de documents. Idéalement, une méthode de segmentation doit être capable de reconstituer la structure complète de toute page de document, en distinguant les zones de textes, les parties graphiques, les photographies, les croquis, les figures, les tables, etc. En dépit de nombreuses méthodes proposées à ce jour pour produire une segmentation de page correcte, les difficultés sont toujours nombreuses. Le chef de file du projet qui a rendu possible le financement de ce travail de thèse (*) utilise une chaîne de traitement complète dans laquelle les erreurs de segmentation sont corrigées manuellement. Hormis les coûts que cela représente, le résultat est subordonné au réglage de nombreux paramètres. En outre, certaines erreurs échappent parfois à la vigilance des opérateurs humains. Les résultats des méthodes de segmentation de page sont généralement acceptables sur des documents propres et bien imprimés; mais l'échec est souvent à constater lorsqu'il s'agit de segmenter des documents manuscrits, lorsque la structure de ces derniers est vague, ou lorsqu'ils contiennent des notes de marge. En outre, les tables et les publicités présentent autant de défis supplémentaires à relever pour les algorithmes de segmentation. Notre méthode traite ces problèmes. La méthode est divisée en quatre parties : - A contrario de ce qui est fait dans la plupart des méthodes de segmentation de page classiques, nous commençons par séparer les parties textuelles et graphiques de la page en utilisant un arbre de décision boosté. - Les parties textuelles et graphiques sont utilisées, avec d'autres fonctions caractéristiques, par un champ conditionnel aléatoire bidimensionnel pour séparer les colonnes de texte. - Une méthode de détection de lignes, basée sur les profils partiels de projection, est alors lancée pour détecter les lignes de texte par rapport aux frontières des zones de texte. - Enfin, une nouvelle méthode de détection de paragraphes, entraînée sur les modèles de paragraphes les plus courants, est appliquée sur les lignes de texte pour extraire les paragraphes, en s'appuyant sur l'apparence géométrique des lignes de texte et leur indentation. Notre contribution sur l'existant réside essentiellement dans l'utilisation, ou l'adaptation, d'algorithmes empruntés aux méthodes d'apprentissage automatique de données, pour résoudre les cas les plus difficiles. Nous démontrons en effet un certain nombre d'améliorations : sur la séparation des colonnes de texte lorsqu'elles sont proches l'une de l'autre~; sur le risque de fusion d'au moins deux cellules adjacentes d'une même table~; sur le risque qu'une région encadrée fusionne avec d'autres régions textuelles, en particulier les notes de marge, même lorsque ces dernières sont écrites avec une fonte proche de celle du corps du texte. L'évaluation quantitative, et la comparaison des performances de notre méthode avec des algorithmes concurrents par des métriques et des méthodologies d'évaluation reconnues, sont également fournies dans une large mesure.(*) Cette thèse a été financée par le Conseil Général de Seine-Saint-Denis, par l'intermédiaire du projet Demat-Factory, initié et conduit par SAFIG SA / Document page segmentation is one of the most crucial steps in document image analysis. It ideally aims to explain the full structure of any document page, distinguishing text zones, graphics, photographs, halftones, figures, tables, etc. Although to date, there have been made several attempts of achieving correct page segmentation results, there are still many difficulties. The leader of the project in the framework of which this PhD work has been funded (*) uses a complete processing chain in which page segmentation mistakes are manually corrected by human operators. Aside of the costs it represents, this demands tuning of a large number of parameters; moreover, some segmentation mistakes sometimes escape the vigilance of the operators. Current automated page segmentation methods are well accepted for clean printed documents; but, they often fail to separate regions in handwritten documents when the document layout structure is loosely defined or when side notes are present inside the page. Moreover, tables and advertisements bring additional challenges for region segmentation algorithms. Our method addresses these problems. The method is divided into four parts:1. Unlike most of popular page segmentation methods, we first separate text and graphics components of the page using a boosted decision tree classifier.2. The separated text and graphics components are used among other features to separate columns of text in a two-dimensional conditional random fields framework.3. A text line detection method, based on piecewise projection profiles is then applied to detect text lines with respect to text region boundaries.4. Finally, a new paragraph detection method, which is trained on the common models of paragraphs, is applied on text lines to find paragraphs based on geometric appearance of text lines and their indentations. Our contribution over existing work lies in essence in the use, or adaptation, of algorithms borrowed from machine learning literature, to solve difficult cases. Indeed, we demonstrate a number of improvements : on separating text columns when one is situated very close to the other; on preventing the contents of a cell in a table to be merged with the contents of other adjacent cells; on preventing regions inside a frame to be merged with other text regions around, especially side notes, even when the latter are written using a font similar to that the text body. Quantitative assessment, and comparison of the performances of our method with competitive algorithms using widely acknowledged metrics and evaluation methodologies, is also provided to a large extend.(*) This PhD thesis has been funded by Conseil Général de Seine-Saint-Denis, through the FUI6 project Demat-Factory, lead by Safig SA
|
Page generated in 0.0446 seconds