Spelling suggestions: "subject:"problèmes inverses"" "subject:"problèmes converses""
141 |
Approche unifiée multidimensionnelle du problème d'identification acoustique inverse / Unified multidimensional approach to the inverse problem for acoustic source identificationLe Magueresse, Thibaut 11 February 2016 (has links)
La caractérisation expérimentale de sources acoustiques est l'une des étapes essentielles pour la réduction des nuisances sonores produites par les machines industrielles. L'objectif de la thèse est de mettre au point une procédure complète visant à localiser et à quantifier des sources acoustiques stationnaires ou non sur un maillage surfacique par la rétro-propagation d'un champ de pression mesuré par un réseau de microphones. Ce problème inverse est délicat à résoudre puisqu'il est généralement mal-conditionné et sujet à de nombreuses sources d'erreurs. Dans ce contexte, il est capital de s'appuyer sur une description réaliste du modèle de propagation acoustique direct. Dans le domaine fréquentiel, la méthode des sources équivalentes a été adaptée au problème de l'imagerie acoustique dans le but d'estimer les fonctions de transfert entre les sources et l'antenne, en prenant en compte le phénomène de diffraction des ondes autour de l'objet d'intérêt. Dans le domaine temporel, la propagation est modélisée comme un produit de convolution entre la source et une réponse impulsionnelle décrite dans le domaine temps-nombre d'onde. Le caractère sous-déterminé du problème acoustique inverse implique d'utiliser toutes les connaissances a priori disponibles sur le champ sources. Il a donc semblé pertinent d'employer une approche bayésienne pour résoudre ce problème. Des informations a priori disponibles sur les sources acoustiques ont été mises en équation et il a été montré que la prise en compte de leur parcimonie spatiale ou de leur rayonnement omnidirectionnel pouvait améliorer significativement les résultats. Dans les hypothèses formulées, la solution du problème inverse s'écrit sous la forme régularisée de Tikhonov. Le paramètre de régularisation a été estimé par une approche bayésienne empirique. Sa supériorité par rapport aux méthodes communément utilisées dans la littérature a été démontrée au travers d'études numériques et expérimentales. En présence de fortes variabilités du rapport signal à bruit au cours du temps, il a été montré qu'il est nécessaire de mettre à jour sa valeur afin d'obtenir une solution satisfaisante. Finalement, l'introduction d'une variable manquante au problème reflétant la méconnaissance partielle du modèle de propagation a permis, sous certaines conditions, d'améliorer l'estimation de l'amplitude complexe des sources en présence d'erreurs de modèle. Les développements proposés ont permis de caractériser, in situ, la puissance acoustique rayonnée par composant d'un groupe motopropulseur automobile par la méthode de la focalisation bayésienne dans le cadre du projet Ecobex. Le champ acoustique cyclo-stationnaire généré par un ventilateur automobile a finalement été analysé par la méthode d'holographie acoustique de champ proche temps réel. / Experimental characterization of acoustic sources is one of the essential steps for reducing noise produced by industrial machinery. The aim of the thesis is to develop a complete procedure to localize and quantify both stationary and non-stationary sound sources radiating on a surface mesh by the back-propagation of a pressure field measured by a microphone array. The inverse problem is difficult to solve because it is generally ill-conditioned and subject to many sources of error. In this context, it is crucial to rely on a realistic description of the direct sound propagation model. In the frequency domain, the equivalent source method has been adapted to the acoustic imaging problem in order to estimate the transfer functions between the source and the antenna, taking into account the wave scattering. In the time domain, the propagation is modeled as a convolution product between the source and an impulse response described in the time-wavenumber domain. It seemed appropriate to use a Bayesian approach to use all the available knowledge about sources to solve this problem. A priori information available about the acoustic sources have been equated and it has been shown that taking into account their spatial sparsity or their omnidirectional radiation could significantly improve the results. In the assumptions made, the inverse problem solution is written in the regularized Tikhonov form. The regularization parameter has been estimated by an empirical Bayesian approach. Its superiority over methods commonly used in the literature has been demonstrated through numerical and experimental studies. In the presence of high variability of the signal to noise ratio over time, it has been shown that it is necessary to update its value to obtain a satisfactory solution. Finally, the introduction of a missing variable to the problem reflecting the partial ignorance of the propagation model could improve, under certain conditions, the estimation of the complex amplitude of the sources in the presence of model errors. The proposed developments have been applied to the estimation of the sound power emitted by an automotive power train using the Bayesian focusing method in the framework of the Ecobex project. The cyclo-stationary acoustic field generated by a fan motor was finally analyzed by the real-time near-field acoustic holography method.
|
142 |
Échographie compressée : Une nouvelle stratégie d’acquisition et de formation pour une imagerie ultrarapide / Compressed echography : A novel strategy for image acquisition and reconstructionBujoreanu, Denis 26 November 2018 (has links)
Il ne fait aucun doute que le coût relativement faible des échographes, la procédure rapide et la capacité d’imager des tissus biologiques mous ont permis à l’échographie de devenir l’un des outils de diagnostic médical les plus courants. Malheureusement, l’imagerie ultrasonore présente encore des inconvénients par rapport à d’autres techniques d’imagerie médicale, principalement en termes de qualité d’image et de détails fournis. Dans le souci d’améliorer la qualité d’image, le prix à payer est généralement la baisse de la cadence d’acquisition. Ce compromis profondément enraciné entre la qualité d'image fournie et le temps d'acquisition est peut-être l'un des plus difficiles verrous de la recherche dans le domaine de l’échographie et son dépassement pourrait mener à des meilleures performances des applications existantes et même à des nouvelles utilisations de l’échographie. Ce travail de thèse porte sur l’amélioration du compromis précédemment indiqué entre la qualité d’image et la cadence d’acquisition. En combinant des concepts tels que l’imagerie par ondes planes, les systèmes à entrées multiples / sorties multiples et les problèmes inverses, ce travail vise à acquérir simultanément des images ultrasonores du tissu insonifié, ce qui permet d’augmenter la cadence d’acquisition sans réduire la qualité de l’image fournie. À travers cette étude, nous avons mis au point un modèle mathématique permettant de modéliser la propagation des ondes ultrasonores dans les tissus mous. Ce modèle a été utilisé pour passer en revue un grand nombre de schémas d’acquisition en échographie déjà existants et pour exposer leurs avantages et leurs inconvénients. Nous avons proposé de surmonter le compromis qualité / cadence d’acquisition d'images en utilisant des ondes ultrasonores codées temporellement émises simultanément, et le modèle direct généré a permis l'utilisation des différentes approches de problèmes inverses afin de reconstruire la réponse impulsionnelle pulse / écho du milieu insonifié et donc de son image. De plus, nous avons encore amélioré le modèle direct, ce qui nous a permis de relier directement les échos rétrodiffusés à la position / magnitude des diffuseurs à l'intérieur du milieu imagé. Les résultats fournies par les approches de problèmes inverses basées sur ce modèle amélioré nous ont mis devant une méthode de pointe qui non seulement améliorent d’un facteur conséquent la qualité de l'image en termes de résolution et de cohérence du speckle, mais permettent également d'améliorer la cadence d'acquisition d’images. / It is beyond doubt that the relative low cost of ultrasound scanners, the quick procedure and the ability to image soft biological tissues helped ultrasound imaging to become one of the most common medical diagnostic tools. Unfortunately, ultrasound still has some drawbacks when compared to other medical imaging techniques mainly in terms of the provided image quality and details. In the quest for an improved image quality, usually, the price to pay is the drop in the frame acquisition rate. This deep rooted trade-off between the provided image quality and the acquisition time is perhaps one of the most challenging in today’s ultrasound research and its overcoming could lead to diagnostic improvements in the already existing ultrasound applications and even pave the way towards novel uses of echography. This study addresses the previously stated trade-off. Through a mix of such concepts as plane wave imaging, multiple-input /multiple-output systems and inverse problems, this work aims at acquiring ultrasound images of the insonified tissue simultaneously, thus providing an increased frame rate while not degrading the image quality. Through this study we came up with a mathematical model that allows modelling the ultrasound wave propagation inside soft tissues. This model was used to review a great number of existing ultrasound acquisition schemes and to expose their advantages and drawbacks. We proposed to overcome the image quality / frame rate trade-off by using temporally encoded ultrasound waves emitted simultaneously, and the generated direct model enabled the use of different inverse problem approaches in order to reconstruct the pulse-echo impulse response of the insonified medium and thus its image. Moreover, we further improved the direct model, which allowed us to directly link the backscattered echoes to the position / magnitude of the scatterers inside the imaged medium. The results yielded by the inverse problem approaches based on the former model put us face to face with state of the art method that not only increase the image quality several times in terms resolution and speckle coherence but also provide a boost in frame acquisition rate.
|
143 |
Identification expérimentale de comportements élastoplastiques de matériaux hétérogènes pour des sollicitations complexes / Experimental identification of elastoplastic behavior of heterogeneous materials under complex loadingsMadani, Tarik 17 December 2015 (has links)
Le présent travail de thèse fait suite à une première étude où une stratégie d’identification des paramètres et formes des lois de zones cohésives a été élaborée pour des matériaux homogènes. L’extension au cas de matériaux présentant des hétérogénéités nécessite d’accéder localement aux champs de contraintes.Ainsi, l’objectif principal de cette étude est de mettre au point une méthode de caractérisation locale des propriétés mécaniques et des contraintes. Cette méthode est basée sur l’erreur en relation de comportement combinée à l’exploitation de la richesse des mesures de champs cinématiques planes et plus particulièrement des champs de déformations, obtenus par dérivation numérique des champs de déplacements. Cette mesure cinématique est réalisée par une technique de corrélation d’images numériques enrichie.La méthode d’identification est basée sur la minimisation itérative d’une norme énergétique faisant intervenir le tenseur élastoplastique sécant. Différentes simulations numériques ont illustré la capacité de la procédure à identifier localement des champs de propriétés hétérogènes et sa robustesse et sa stabilité vis-à-vis du bruit de mesure, du choix du jeu de paramètres d’initialisation de l’algorithme et de la finesse du maillage.Pour finir, des essais plans avec différentes géométries d’éprouvettes ont été effectués et un essai a été mis au point pour obtenir de manière maîtrisée un état initial très hétérogène. Les résultats d’identification élastoplastique multilinéaire ont montré la capacité de la méthode à identifier les lois de comportements locales sur ce matériau hétérogène. / The present work follows a first approach where a strategy for identifying the shape and the parameters of cohesive-zone laws has been developed for homogeneous materials. The extension of this method to heterogeneous material requires the knowledge of the local stress state.The study aims at developing a local characterization method for mechanical properties and stresses. This method is based on the constitutive equation gap principles and relies on the knowledge of mechanical kinematic fields and particularly of the strain fields. These fields are obtained by the numerical differentiation of displacement fields measured by digital image correlation.This identification method is based on the iterative minimization of an energy norm involving the secant elastoplastic tensor. Various numerical simulations were used to illustrate the performance of the procedure for locally identifying heterogeneous property fields, and to characterize its robustness and its stability with respect to noise to the values of the algorithm initialization parameter and to the mesh refinement.Finally, various experimental tests with different specimen geometries were performed and a test has been developed to obtain a controlled heterogeneous initial state. The multilinear elastoplastic identification results showed the ability of the method to identify the local behavior properties on heterogeneous materials.
|
144 |
Measuring permeability vs depth in the unlined section of a wellbore using the descent of a fluid column made of two distinct fluids : inversion workflow, laboratory & in-situ tests / Mesure de la perméabilité fonction de la profondeur dans le découvert d’un puits en descendant une colonne composée de deux fluides distinctsManivannan, Sivaprasath 27 November 2018 (has links)
Dans les puits de production d’eau, de pétrole, de gaz et de chaleur géothermique, ou dans les puits d’accès à un stockage d’hydrocarbures, il est précieux de connaître la perméabilité de la formation ou de sa couverture en fonction de la profondeur, soit pour améliorer le modèle de réservoir, soit pour choisir les zones dans lesquelles procéder à des opérations spéciales.On propose une technique qui consiste à balayer la hauteur du découvert par une interface entre deux liquides de viscosités très contrastées. Le débit total qui pénètre la formation à chaque instant est ainsi une fonction de la position de l’interface et de l’historique des pressions dans le puits. On doit alors résoudre un problème inverse : rechercher la perméabilité fonction de la profondeur à partir de l’historique des débits dans le temps. Dans la pratique, le puits est équipé d’un tube central. Le balayage est effectué par injection d’un liquide à pression d’entrée constante dans le tube central et soutirage d’un autre liquide par l’espace annulaire. On mesure les débits d’injection et de soutirage dont la différence est le débit qui entre dans la formation.Pour valider et améliorer cette technique, on a d’abord utilisé une maquette simulant un découvert multi-couches disponible au LMS. On a exploité aussi des essais en place réalisés dans la couverture peu perméable d’un stockage souterrain de gaz. Dans ces essais, un liquide visqueux placé dans le découvert était déplacé par un liquide moins visqueux (méthode dite « opening »). Les couches plus perméables étaient correctement identifiées (Manivannan et al. 2017), mais une estimation quantitative était un défi en raison des phénomènes transitoires qui affectent le voisinage immédiat des puits. De plus, le rayon investigué dans le massif était petit.La thèse a relevé ces défis en proposant un essai légèrement différent et une nouvelle technique d’interprétation. Les essais avec une maquette modifiée ont montré la supériorité d’une méthode « closing » dans laquelle le puits est d’abord rempli du liquide le moins visqueux. On ménage une période de stabilisation avant l’injection du liquide visqueux pour réduire les effets transitoires ; elle permet aussi d’estimer la perméabilité moyenne et l’influence de la zone endommagée à la paroi (le « skin »).Puis on conduit l’essai proprement dit. L’historique des débits mesurés en tête de puits constitue le profil d’injection dont on déduit le profil de perméabilité.. Cette estimation suppose un écoulement monophasique dans chaque couche et la même « skin » pour toute la formation. Les incertitudes principales portent sur les pressions de formation et les variations possibles du « skin ». Elles sont estimées au moyen d’un calcul analytique. On a vérifié sur la maquette que les profils de perméabilité estimés présentent une bonne concordance avec les perméabilités mesurées avant les essais.On a réalisé un essai sur un sondage de 1750 m de long atteignant une couche de sel dont on a correctement estimé la perméabilité moyenne pendant la période de stabilisation. Toutefois elle était si faible (4.0E-21 m²) que l’utilisation de deux fluides n’a pas permis de faire une différence entre les diverses parties du puits. / In wells producing water, oil, gas or geothermal energy, or in access wells to hydrocarbon storage, it is critical to evaluate the permeability of the formation as a function of depth, to improve the reservoir model, and also to identify the zones where additional investigation or special completions are especially useful.A new technique is proposed, consisting of scanning the open hole (uncased section of the wellbore) with an interface between two fluids with a large viscosity contrast. The injection rate into the formation depends on interface location and well pressure history. An inverse problem should be solved: estimate permeability as a function of depth from the evolution of flow rates with time. The wells are usually equipped with a central tube. The scanning is done by injecting a liquid in the central tube at constant wellhead pressure. Injection and withdrawal rates are measured at the wellhead; the difference between these two rates is the formation injection rate.To validate and improve this technique, we used a laboratory model mimicking a multi-layer formation, already available at LMS. We also made use of in-situ tests performed on an ultra-low permeable cap rock above an underground gas storage reservoir. In these tests, a viscous fluid contained in the open hole was displaced by a less-viscous fluid (a method called opening WTLog). The more permeable layers were correctly identified (Manivannan et al. 2017), but a quantitative estimation was challenging due to transient phenomena in the vicinity of the wellbore (near-wellbore zone). In addition, the investigation radius was small.These challenges are addressed by proposing a slightly modified test procedure and a new interpretation workflow. Laboratory tests with a modified test setup showed the advantages of the ‘closing’ method in which the well is filled with a less-viscous fluid at the start of the test. We also added a stabilization period before the injection of viscous fluid to minimize the transient effects; this period is also used to estimate the average permeability of the open hole and the effect of near-wellbore damage (skin).Then the test proper is performed (closing WTLog). The injection profile of the less-viscous fluid is computed from the wellhead flow rate history. A permeability profile is estimated from the injection profile. The permeability estimation considers a monophasic flow in each layer and the same skin value for all the formation layers. Major uncertainties in the permeability estimates are caused by formation pressures and heterogeneities in skin values; they are estimated using an analytical formula. We have verified on the laboratory setup that the estimated permeability profiles are well correlated to the permeabilities measured before the tests.An attempt was made to perform a WTLog in a 1750-m long wellbore opening in a salt formation. The first phase was successful and the average permeability was correctly assessed. However, this permeability was so small (4.0E-21 m² or 4 nD) that the gauges and the flowmeters were not accurate enough to allow a clear distinction between the permeabilities of the various parts of the open hole.
|
145 |
Approches bayésiennes non paramétriques et apprentissage de dictionnaire pour les problèmes inverses en traitement d'image / Bayesian nonparametrics approaches and dictionary learning for inverse problems in image processingDang, Hong-Phuong 01 December 2016 (has links)
L'apprentissage de dictionnaire pour la représentation parcimonieuse est bien connu dans le cadre de la résolution de problèmes inverses. Les méthodes d'optimisation et les approches paramétriques ont été particulièrement explorées. Ces méthodes rencontrent certaines limitations, notamment liées au choix de paramètres. En général, la taille de dictionnaire doit être fixée à l'avance et une connaissance des niveaux de bruit et éventuellement de parcimonie sont aussi nécessaires. Les contributions méthodologies de cette thèse concernent l'apprentissage conjoint du dictionnaire et de ces paramètres, notamment pour les problèmes inverses en traitement d'image. Nous étudions et proposons la méthode IBP-DL (Indien Buffet Process for Dictionary Learning) en utilisant une approche bayésienne non paramétrique. Une introduction sur les approches bayésiennes non paramétriques est présentée. Le processus de Dirichlet et son dérivé, le processus du restaurant chinois, ainsi que le processus Bêta et son dérivé, le processus du buffet indien, sont décrits. Le modèle proposé pour l'apprentissage de dictionnaire s'appuie sur un a priori de type Buffet Indien qui permet d'apprendre un dictionnaire de taille adaptative. Nous détaillons la méthode de Monte-Carlo proposée pour l'inférence. Le niveau de bruit et celui de la parcimonie sont aussi échantillonnés, de sorte qu'aucun réglage de paramètres n'est nécessaire en pratique. Des expériences numériques illustrent les performances de l'approche pour les problèmes du débruitage, de l'inpainting et de l'acquisition compressée. Les résultats sont comparés avec l'état de l'art.Le code source en Matlab et en C est mis à disposition. / Dictionary learning for sparse representation has been widely advocated for solving inverse problems. Optimization methods and parametric approaches towards dictionary learning have been particularly explored. These methods meet some limitations, particularly related to the choice of parameters. In general, the dictionary size is fixed in advance, and sparsity or noise level may also be needed. In this thesis, we show how to perform jointly dictionary and parameter learning, with an emphasis on image processing. We propose and study the Indian Buffet Process for Dictionary Learning (IBP-DL) method, using a bayesian nonparametric approach.A primer on bayesian nonparametrics is first presented. Dirichlet and Beta processes and their respective derivatives, the Chinese restaurant and Indian Buffet processes are described. The proposed model for dictionary learning relies on an Indian Buffet prior, which permits to learn an adaptive size dictionary. The Monte-Carlo method for inference is detailed. Noise and sparsity levels are also inferred, so that in practice no parameter tuning is required. Numerical experiments illustrate the performances of the approach in different settings: image denoising, inpainting and compressed sensing. Results are compared with state-of-the art methods is made. Matlab and C sources are available for sake of reproducibility.
|
146 |
Partial differential equations methods and regularization techniques for image inpainting / Restauration d'images par des méthodes d'équations aux dérivées partielles et des techniques de régularisationTheljani, Anis 30 November 2015 (has links)
Cette thèse concerne le problème de désocclusion d'images, au moyen des équations aux dérivées partielles. Dans la première partie de la thèse, la désocclusion est modélisée par un problème de Cauchy qui consiste à déterminer une solution d'une équation aux dérivées partielles avec des données aux bords accessibles seulement sur une partie du bord de la partie à recouvrir. Ensuite, on a utilisé des algorithmes de minimisation issus de la théorie des jeux, pour résoudre ce problème de Cauchy. La deuxième partie de la thèse est consacrée au choix des paramètres de régularisation pour des EDP d'ordre deux et d'ordre quatre. L'approche développée consiste à construire une famille de problèmes d'optimisation bien posés où les paramètres sont choisis comme étant une fonction variable en espace. Ceci permet de prendre en compte les différents détails, à différents échelles dans l'image. L'apport de la méthode est de résoudre de façon satisfaisante et objective, le choix du paramètre de régularisation en se basant sur des indicateurs d'erreur et donc le caractère à posteriori de la méthode (i.e. indépendant de la solution exacte, en générale inconnue). En outre, elle fait appel à des techniques classiques d'adaptation de maillage, qui rendent peu coûteuses les calculs numériques. En plus, un des aspects attractif de cette méthode, en traitement d'images est la récupération et la détection de contours et de structures fines. / Image inpainting refers to the process of restoring a damaged image with missing information. Different mathematical approaches were suggested to deal with this problem. In particular, partial differential diffusion equations are extensively used. The underlying idea of PDE-based approaches is to fill-in damaged regions with available information from their surroundings. The first purpose of this Thesis is to treat the case where this information is not available in a part of the boundary of the damaged region. We formulate the inpainting problem as a nonlinear boundary inverse problem for incomplete images. Then, we give a Nash-game formulation of this Cauchy problem and we present different numerical which show the efficiency of the proposed approach as an inpainting method.Typically, inpainting is an ill-posed inverse problem for it most of PDEs approaches are obtained from minimization of regularized energies, in the context of Tikhonov regularization. The second part of the thesis is devoted to the choice of regularization parameters in second-and fourth-order energy-based models with the aim of obtaining as far as possible fine features of the initial image, e.g., (corners, edges, … ) in the inpainted region. We introduce a family of regularized functionals with regularization parameters to be selected locally, adaptively and in a posteriori way allowing to change locally the initial model. We also draw connections between the proposed method and the Mumford-Shah functional. An important feature of the proposed method is that the investigated PDEs are easy to discretize and the overall adaptive approach is easy to implement numerically.
|
147 |
Dynamique cérébrale en neuroimagerie fonctionnelleCiuciu, Philippe 10 July 2008 (has links) (PDF)
Mes travaux portent sur l'analyse de la dynamique cérébrale à partir de données de neuro-imagerie fonctionnelle issues d'examens d'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Ils concernent aussi bien l'étude de la dynamique évoquée par un paradigme d'activation cérébrale et celle issue de l'activité spontanée ou de « fond » lorsque le sujet est au repos (resting state). Les algorithmes que j'ai développés s'appuient pour une large partie sur une connaissance explicite du paradigme expérimental mis au point par l'expérimentateur mais aussi prennent place dans une moindre part au sein des méthodes exploratoires, qui n'exploitant pas ces informations issues du paradigme.<br /><br />Ce thème de recherche embrasse à la fois des problèmes bas niveau relatifs à la reconstruction d'images en IRM mais aussi des aspects plus haut niveau qui concernent l'estimation et la sélection de modèles hémodynamiques régionaux non-paramétriques, capables de prendre en compte la variabilité inter-individuelle de la réponse impulsionnelle du système neuro-vasculaire. Les problèmes de reconstruction sont traités à l'aide de méthodes classiques de régularisation dans l'espace image ou des méthodes plus évoluées opérant dans l'espace transformé des coefficients d'ondelette. Les aspects inférentiels haut niveau sont majoritairement abordés dans le cadre des statistiques bayésiennes.
|
148 |
Estimation de mouvement et segmentation<br />Partie I : Estimation de mouvement par ondelettes spatio-temporelles adaptées au mouvement.<br />Partie II : Segmentation et estimation de mouvement par modèles de Markov cachés et approche bayésienne dans les domaines direct et ondelette.Brault, Patrice 29 November 2005 (has links) (PDF)
La première partie de ce mémoire présente une nouvelle vision de l'estimation de mouvement, et donc de la compression, dans les séquences<br />vidéo. D'une part, nous avons choisi d'aborder l'estimation de mouvement à partir de familles d'ondelettes redondantes adaptées à différentes<br />transformations, dont, plus particulièrement, la vitesse. Ces familles, très peu connues, ont déjà été étudiées dans le cadre de la poursuite de<br />cibles. D'autre part, les standards de compression actuels comme MPEG4 prennent en compte une compression objet mais ne calculent toujours que de<br />simples vecteurs de mouvements de ``blocs''. Il nous a paru intéressant de chercher à mettre en oeuvre ces familles d'ondelettes car 1)<br />elle sont construites pour le calcul de paramètres sur plusieurs types de mouvement (rotation, vitesse, accélération) et 2) nous<br />pensons qu'une approche de l'estimation basée sur l'identification de trajectoires d'objets dans une scène est une solution intéressante pour les<br />méthodes futures de compression. En effet nous pensons que l'analyse et la compréhension des mouvements dans une scène est une voie pour des méthodes<br />de compression ``contextuelles'' performantes.<br /><br /><br /><br />La seconde partie présente deux développements concernant la segmentation non-supervisée dans une approche bayésienne. Le premier, destiné à réduire<br />les temps de calcul dans la segmentation de séquences vidéo, est basé sur une mise en oeuvre itérative, simple, de la segmentation. Il nous a aussi<br />permis de mettre une estimation de mouvement basée sur une segmentation ``région'' (voire objet). Le second est destiné à diminuer les temps de<br />segmentation d'images fixes en réalisant la segmentation dans le domaine des ondelettes. Ces deux développements sont basés sur une approche par<br />estimation bayésienne utilisant un modèle de champ aléatoire de Potts-Markov (PMRF) pour les étiquettes des pixels, dans le domaine direct, et pour<br />les coefficients d'ondelettes. Il utilise aussi un algorithme itératif de type MCMC (Markov Chain Monte Carlo) avec échantillonneur de Gibbs.<br />L'approche initiale, directe, utilise un modèle de Potts avec voisinage d'ordre un. Nous avons développé le modèle de Potts pour l'adapter à des<br />voisinages convenant aux orientations privilégiées des sous-bandes d'ondelettes. Ces réalisations apportent, à notre connaissance, des approches<br />nouvelles dans les méthodes de segmentation<br />non-supervisées.
|
149 |
APPROCHE INVERSE POUR LA RESOLUTION DES CONTRAINTES SOLAIRES ET VISUELLES DANS LE PROJET ARCHITECTURAL ET URBAIN, DEVELOPPEMENT ET APPLICATION DU LOGICIEL SVRHOUPERT, Sylvain 06 November 2003 (has links) (PDF)
Dans cette recherche, nous tentons d'évaluer la pertinence d'une approche de simulation inverse des facteurs physiques d'ambiances dans le processus de conception en architecture et en aménagement urbain. Dans cette perspective, un outil de simulation inverse est développé et interfacé en sur-couche du logiciel de CAO AutoCAD largement utilisé dans les agences d'architectures. Il agrége les méthodes développées au Cerma ces dernières années sur la simulation inverse, de l'ensoleillement d'une part, et de la visibilité d'autre part. Dans le projet architectural ou urbain, la simulation directe solaire ou visuelle permet l'analyse d'une situation à un instant donné ou pour un point de vue donné a posteriori (après la conception d'un projet), tandis que notre démarche inverse consiste à cadrer la génération de solutions architecturales à partir des intentions d'ambiances du concepteur, et ce pour des périodes solaires et des zones de contraintes définies au début d'un projet. Les modélisations inverses de volumes de contraintes solaires et visuelles – ensembles de solutions à une contrainte donnée – ou d'uniques solutions d'ouvertures ou d'écrans sont des réponses optimales aux problèmes spatio-temporels de l'ensoleillement et de la visibilité. Ces volumes englobent l'ensemble des rayons solaires ou visuels joignant une base de contrainte (une zone à ensoleiller ou à protéger du soleil, ou un ensemble de positions potentielles d'un observateur) à une cible de contrainte (période solaire sur la "voûte solaire" ou cible visuelle du type monument, repère...). Ces volumes de contraintes sont aisément manipulables dans le modeleur géométrique. Comme les autres entités qui composent une scène numérique, il est possible de leur faire subir des opérations booléennes, des sections, des translations... Dans un premier temps, nous présentons un état de l'art de cette recherche sur les différents outils et méthodes de simulation inverse 2D puis 3D de l'ensoleillement et de la visibilité. Dans un second temps, nous développons et présentons l'outil SVR ainsi que ses applications. Enfin, nous livrons un état de l'art de quelques observations et méthodes d'observation des concepteurs à l'œuvre et nous évaluons notre logiciel par l'observation des raisonnements et comportements de onze architectes et étudiants en architecture concevant avec notre outil durant des phases d'esquisses et d'avant-projet. Pour cette évaluation, nous mettons en œuvre un protocole d'observation simultané ("think aloud protocol").
|
150 |
Applications du Compressed Sensing à l'imagerie biologique de microscopieMarim, Marcio 08 April 2011 (has links) (PDF)
La technique d'acquisition compressée (compressed sensing, CS) est une nouvelle théorie pour l'échantillonnage qui fût introduite afin de permettre l'acquisition ef- ficace de signaux compressibles. Dans cette thèse, nous avons étudié des applica- tions pratiques de cette technique d'échantillonnage, où les acquisitions sont réal- isées dans le domaine de Fourier, menant aux deux principales contributions suiv- antes : (i) Débruitage d'image : Les images microscopiques présentent souvent des dégradations dûs à des artefacts complexes, associés à du bruit ou encore des mauvaises conditions d'éclairage. En microscopie à fluorescence, le bruit et le pho- toblanchiment altèrent la qualité de l'image. Notre travail a consisté à exploiter la théorie d'acquisition compressée comme un outil de débruitage d'image. Nous avons utilisé plusieurs acquisitions aléatoires dans le domaine de Fourier, et la variation totale comme un a priori sur la parcimonie spatiale. La composition des différentes images de reconstruction correspondant aux différents ensembles de mesures aléa- toires renforce la cohérence spatiale de composants du signal significatifs et per- met de décorréler les composants bruités. Nous avons étudié les relations entre la parcimonie d'un signal et les statistiques et la performance pour la réduction du bruit sous différentes conditions initiales de bruitage. Nous avons montré que la technique proposée, basée sur un a priori sur la parcimonie du signal et sur des échantillonnages aléatoires dans le domaine de Fourier, permet d'obtenir des im- ages avec un rapport signal/bruit (SNR) au pire égal à celui obtenu avec les méth- odes de débruitage classiques, tout en utilisant un nombre limité d'échantillons. Sous réserve de pouvoir acquérir l'image dans le domaine de Fourier, le schéma de débruitage proposé fournirait une méthode d'acquisition rapide nécessitant un temps d'exposition moindre, réduisant les effets de photoblanchiment. (ii) Acquisi- tion compressée en microscopie holographique : En microscopie, les données en sortie deviennent considérables, impliquant notamment l'utilisation de capteurs haute-définition (i.e. beaucoup d'échantillons par acquisition) et l'augmentation des temps d'acquisition. La théorie de l'acquisition compressée fournit des outils pour la reconstruction d'images, nécessitant moins d'échantillons que les approches clas- siques. Cependant, les quelques mesures nécessaires doivent être prises dans un domaine incohérent au domaine spatiale, ce qui est difficile à réaliser en microscopie conventionnelle. Nous avons tout d'abord proposé un schéma de calcul permettant l'acquisition de séquences temporelles de mesures d'amplitude dans le domaine de Fourier, et l'estimation de l'information manquante sur la phase par interpolation de spectre de quelques acquisitions complètes d'images. Cette approche a été mise en pratique dans le contexte de l'imagerie rapide, utilisée pour des cellules en mou- vement. Dans un deuxième temps nous avons implanté un schéma d'acquisition compressée pratique, conçu pour l'holographie numérique. Ce schéma permet de mesurer une figure de diffraction du champ optique et reconstruire images de haute qualité à partir de seulement 7% de mesures aléatoires. L'expérience d'acquisition compressée a été étendue avec succès à l'holographie compressée rapide à acquisition unique et dans des conditions d'éclairage faible.
|
Page generated in 0.0691 seconds