141 |
Modélisation de la cognition dans le domaine des arts visuelsLeclerc, Jude January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
142 |
Émergence et problème corps-esprit : vers une caractérisation contemporaine de la notion d’émergence et de son application en sciences cognitives / Emergence and mind-body problem : about a contemporary definition of the notion of emergence and its application in cognitive sciencesSoubeyran, Anaïs 19 December 2012 (has links)
Dans la posture émergentiste classique et sa réinterprétation par les premières sciences cognitives, la notion d'émergence ne fait que traduire un consensus anti-réductionniste et n'a aucune véritable pertinence explicative. Pourtant aujourd'hui, les systèmes multi-agents en informatique et la théorie des systèmes dynamiques non linéaires en physique et en biologie, permettent d'ouvrir la «boîte noire» de l'émergence.Il devient possible de définir l'émergence non plus comme la survenance magique de propriétés ontologiquement irréductibles, mais comme la bifurcation dynamique d'un système vers une organisation macroscopique robuste computationnellement et fonctionnellement irréductible, c'est-à-dire non interprétable en termes des propriétés micro-causales du niveau de base. Les propriétés émergentes n'existent qu'en tant qu'elles sont fonctionnelles pour un détecteur de haut niveau.Si des systèmes physiques peuvent instancier des propriétés fonctionnellement irréductibles et relatives à un certain niveau de détection, alors l'irréductibilité fonctionnelle n'est par un argument contre le physicalisme, etil n'est plus possible d'affirmer qu'une propriété n'est pas fonctionnelle simplement parce que l'on ne parvient pas à la fonctionnaliser, puisque son impossible fonctionnalisation peut signifier que l'on ne se situe pas au bonniveau de détection. L'irréductibilité fonctionnelle des propriétés phénoménales ne serait donc pas un argument suffisant pour les exclure du domaine physique. La notion d'émergence ne permet pas de résoudre le problème corps-esprit, mais elle permet d'envisager qu'un tel « problème difficile » puisse survenir dans cadrephysicaliste. / In the classical emergentist position and its re-interpretation within the early cognitive sciences, the notion of emergence transposes only an anti-reductionist consensus and does not contain any pertinent explicative value. Yet today, as a consequence of the multi-agent systems in informatics along with dynamic non-linear theories in both physics and biology, the formerly dubious notion of emergence has become a relevant and informative concept.Emergence was defined as magic supervenience of ontologically irreducible properties. Today in contrast, one views the notion of emergence in terms of dynamic bifurcations to a robust macroscopic organization computationally and functionally irreducible, that is to say it can not be analyzed in terms of their micro-causal components. Emergent properties exist if and only if they are functional for a higher level of detection.This means that functional irreducibility is not an argument against physicalism, nor is it possible to state that a certain property is not functional simply because we are unable to give it a functional interpretation, for itmight signify that one is not situated within the correct level for its detection. The functional irreducibility of some phenomenal properties will not therefor be a sufficient argument to exclude them from the physical realm. The notion of emergence does not resolve the mind-body problem but it does permit considering that such a problem can occur within the physical world.
|
143 |
Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de matériaux non transparents / Development of a microwave ellipsometric bench for the characterization of non-transparent materialsMoungache, Amir 28 October 2011 (has links)
Dans la fabrication d’un produit, la maîtrise des propriétés physiques des matériaux utilisés est indispensable. Il est donc nécessaire de déterminer leurs propriétés comportementales. On exploite en général des propriétés physiques intermédiaires telles que les propriétés électromagnétiques. Nous avons mis au point une technique de caractérisation sans contact de matériaux non transparents en transposant les concepts de base de l’ellipsométrie optique en hyperfréquence. La caractérisation se fait par résolution d’un problème inverse par deux méthodes numériques : une méthode d’optimisation classique utilisant l’algorithme itératif de Levenberg Marquardt et une méthode de régression par l’uti1isation de réseaux de neurones du type perceptron multicouches. Avec la première méthode, on détermine deux paramètres du matériau sous test à savoir l’indice de réfraction et l’indice d’extinction. Avec la deuxième, on détermine les deux indices ainsi que l’épaisseur de 1’échantillon. Pour la validation, nous avons monté un banc expérimental en espace libre à 30 GHz en transmission et en incidence oblique avec lequel nous avons effectué des mesures sur des échantillons de téflon et d’époxy de différentes épaisseurs (1 à 30 mm). Nous avons obtenu une caractérisation satisfaisante de l’indice et de l’épaisseur. Nous avons ensuite fait des mesures de trois types de papier dont la caractérisation de l’indice était satisfaisante sans toutefois les discriminer. Ces travaux ont montré la possibilité de caractériser des matériaux épais et non transparents par une technique ellipsométrique / The control of the physical properties of materials used to manufacture a product is essential. Therefore, it is necessary to determine their behavioral properties. Generally, we get them through intermediate physical properties such as electromagnetic properties. We have developed a technique for contactless characterization of non-transparent materials by applying the basic concepts of optical ellipsometry in the microwave domain. The characterization is done by solving an inverse problem through two different numerical methods: a classical optimization method using the iterative algorithm of Levenberg Marquardt and a regression method by using neural networks particularly the multilayer perceptron. With the first method, we can determine two parameters which are the refractive index and the extinction index of the sample under test. With the second method, we can determine the indices and the thickness of the sample. As a validation, we set up a 30 GHz - experimental free space bench configurated for oblique transmission incidence measurement that we have used to carry out measurements on PTFE and epoxy samples having different thicknesses (1 to 30 mm). We obtained a satisfactory characterization of the index and thickness. Then, we have carried out measurements on three types of paper. The index was satisfactorily characterized but they could not be distinguished. These studies have shown that it is possible to characterize thick and non-transparent materials using ellipsometric technics
|
144 |
Analyse statistique et interprétation automatique de données diagraphiques pétrolières différées à l’aide du calcul haute performance / Statistical analysis and automatic interpretation of oil logs using high performance computingBruned, Vianney 18 October 2018 (has links)
Dans cette thèse, on s'intéresse à l’automatisation de l’identification et de la caractérisation de strates géologiques à l’aide des diagraphies de puits. Au sein d’un puits, on détermine les strates géologiques grâce à la segmentation des diagraphies assimilables à des séries temporelles multivariées. L’identification des strates de différents puits d’un même champ pétrolier nécessite des méthodes de corrélation de séries temporelles. On propose une nouvelle méthode globale de corrélation de puits utilisant les méthodes d’alignement multiple de séquences issues de la bio-informatique. La détermination de la composition minéralogique et de la proportion des fluides au sein d’une formation géologique se traduit en un problème inverse mal posé. Les méthodes classiques actuelles sont basées sur des choix d’experts consistant à sélectionner une combinaison de minéraux pour une strate donnée. En raison d’un modèle à la vraisemblance non calculable, une approche bayésienne approximée (ABC) aidée d’un algorithme de classification basé sur la densité permet de caractériser la composition minéralogique de la couche géologique. La classification est une étape nécessaire afin de s’affranchir du problème d’identifiabilité des minéraux. Enfin, le déroulement de ces méthodes est testé sur une étude de cas. / In this thesis, we investigate the automation of the identification and the characterization of geological strata using well logs. For a single well, geological strata are determined thanks to the segmentation of the logs comparable to multivariate time series. The identification of strata on different wells from the same field requires correlation methods for time series. We propose a new global method of wells correlation using multiple sequence alignment algorithms from bioinformatics. The determination of the mineralogical composition and the percentage of fluids inside a geological stratum results in an ill-posed inverse problem. Current methods are based on experts’ choices: the selection of a subset of mineral for a given stratum. Because of a model with a non-computable likelihood, an approximate Bayesian method (ABC) assisted with a density-based clustering algorithm can characterize the mineral composition of the geological layer. The classification step is necessary to deal with the identifiability issue of the minerals. At last, the workflow is tested on a study case.
|
145 |
Classification par réseaux de neurones dans le cadre de la scattérométrie ellipsométrique / Neural classification in ellipsometric scatterometryZaki, Sabit Fawzi Philippe 12 December 2016 (has links)
La miniaturisation des composants impose à l’industrie de la micro-électronique de trouver des techniques de caractérisation fiables rapides et si possible à moindre coût. Les méthodes optiques telles que la scattérométrie se présentent aujourd’hui comme des alternatives prometteuses répondant à cette problématique de caractérisation. Toutefois, l’ensemble des méthodes scattérométriques nécessitent un certain nombre d’hypothèses pour assurer la résolution d’un problème inverse et notamment la connaissance de la forme géométrique de la structure à tester. Le modèle de structure supposé conditionne la qualité même de la caractérisation. Dans cette thèse, nous proposons l’utilisation des réseaux de neurones comme outils d’aide à la décision en amont de toute méthode de caractérisation. Nous avons validé l’utilisation des réseaux de neurones dans le cadre de la reconnaissance des formes géométriques de l’échantillon à tester par la signature optique utilisée dans toute étape de caractérisation scattérométrique. Tout d’abord, le cas d’un défaut lithographique particulier lié à la présence d’une couche résiduelle de résine au fond des sillons est étudié. Ensuite, nous effectuons une analyse de détection de défaut de modèle utilisé dans la résolution du problème inverse. Enfin nous relatons les résultats obtenus dans le cadre de la sélection de modèles géométriques par réseaux de neurones en amont d’un processus classique de caractérisation scattérométrique. Ce travail de thèse a montré que les réseaux de neurones peuvent bien répondre à la problématique de classification en scattérométrie ellipsométrique et que l’utilisation de ces derniers peut améliorer cette technique optique de caractérisation / The miniaturization of components in the micro-electronics industry involves the need of fast reliable technique of characterization with lower cost. Optical methods such as scatterometry are today promising alternative to this technological need. However, scatterometric method requires a certain number of hypothesis to ensure the resolution of an inverse problem, in particular the knowledge of the geometrical shape of the structure under test. The assumed model of the structure determines the quality of the characterization. In this thesis, we propose the use of neural networks as decision-making tools upstream of any characterization method. We validated the use of neural networks in the context of recognition of the geometrical shapes of the sample under testing by the use of optical signature in any scatterometric characterization process. First, the case of lithographic defect due to the presence of a resist residual layer at the bottom of the grooves is studied. Then, we carry out an analysis of model defect in the inverse problem resolution. Finally, we report results in the context of selection of geometric models by neural networks upstream of a classical scatterometric characterization process. This thesis has demonstrated that neural networks can well answer the problem of classification in ellipsometric scatterometry and their use can improve this optical characterization technique
|
146 |
Étude quantitative de la tomographie optique diffuse de luminescence : Application à la localisation de sources en imagerie moléculaire / Quantitative study of luminescence diffuse optical tomography : Application to source localisation in molecular imagingBoffety, Matthieu 23 February 2010 (has links)
L’imagerie moléculaire occupe une place majeure dans le domaine de la recherche préclinique. Parmi les modalités existantes, les techniques optiques fondées sur la détection d’un rayonnement visible ou proche infrarouge sont les plus récentes et sont principalement représentées par les méthodes de tomographie optique de luminescence. Ces méthodes permettent une caractérisation 3D d’un milieu biologique par la reconstruction de cartes de concentration ou la localisation de marqueurs luminescents sensibles à des processus biologiques et chimiques se déroulant à l’échelle de la cellule ou de la molécule. La tomographie de luminescence se fonde sur un modèle de propagation de la lumière dans les tissus, un protocole d’acquisition du signal en surface du milieu et une procédure numérique d’inversion de ces mesures afin de reconstruire les paramètres d’intérêts. Ce travail de thèse s’articule donc autour de ces trois axes et apporte un élément de réponse à chacun des problèmes. L’objectif principal de cette étude est d’introduire et de présenter des outils d’évaluation des performances théoriques d’une méthode de tomographie optique. L’un des aboutissements majeurs est la réalisation de reconstructions tomographiques expérimentales à partir d’images acquises par un imageur optique conçu pour l’imagerie planaire 2D et développé par la société Quidd. Dans un premier temps nous abordons la théorie du transport en milieu diffusant afin de poser les concepts et outils sur lesquels vont s’appuyer l’ensemble des travaux. Nous présentons particulièrement deux modèles de propagation différents ainsi que les méthodes de résolution et les difficultés théoriques qui leur sont liées. Dans une deuxième partie nous introduisons les outils statistiques utilisés pour caractériser les systèmes tomographiques et leur résolution potentielle. Nous définissons une procédure et nous l’appliquons à l’étude de quelques situations simples en tomographie de luminescence. La dernière partie de ce travail présente la mise au point d’une procédure d’inversion. Après avoir présenté le cadre théorique dans lequel cette procédure s’inscrit nous la validons à partir de données numériques avant de l’appliquer avec succès à des mesures expérimentales. / Molecular imaging is a major modality in the field of preclinical research. Among the existing methods, techniques based on optical detection of visible or near infrared radiation are the most recent and are mainly represented by luminescence optical tomography techniques. These methods allow for 3D characterization of a biological medium by reconstructing maps of concentration or localisation of luminescent beacons sensitive to biological and chemical processes at the molecular or cellular scale. Luminescence optical tomography is based on a model of light propagation in tissues, a protocol for acquiring surface signal and a numerical inversion procedure used to reconstruct the parameters of interest. This thesis is structured around these three axes and provides an answer to each problem. The main objective of this study is to introduce and present the tools to evaluate the theoretical performances of optical tomography methods. One of its major outcomes is the realisation of experimental tomographic reconstructions from images acquired by an optical imager designed for 2D planar imaging and developed by the company Quidd. In a first step we develop the theory of transport in scattering medium to establish the concept on which our work will rely. We present two different propagation models as well as resolution methods and theoretical difficulties associated with them. In a second part we introduce the statistical tools used to characterise tomographic systems. We define and apply a procedure to simple situations in luminescence optical tomography. The last part of this work presents the development of an inversion procedure. After introducing the theoretical frameworkwe validate the procedure fromnumerical data before successfully applying it to experimentalmeasurements.
|
147 |
Modélisation et imagerie électrocardiographiques / Modeling and imaging of electrocardiographic activityEl Houari, Karim 14 December 2018 (has links)
L'estimation des solutions du problème inverse en Électrocardiographie (ECG) représente un intérêt majeur dans le diagnostic et la thérapie d'arythmies cardiaques par cathéter. Ce dernier consiste à fournir des images 3D de la distribution spatiale de l'activité électrique du cœur de manière non-invasive à partir des données anatomiques et électrocardiographiques. D'une part ce problème est rendu difficile à cause de son caractère mal-posé. D'autre part, la validation des méthodes proposées sur données cliniques reste très limitée. Une alternative consiste à évaluer ces méthodes sur des données simulées par un modèle électrique cardiaque. Pour cette application, les modèles existants sont soit trop complexes, soit ne produisent pas un schéma de propagation cardiaque réaliste. Dans un premier temps, nous avons conçu un modèle cœur-torse basse-résolution qui génère des cartographies cardiaques et des ECGs réalistes dans des cas sains et pathologiques. Ce modèle est bâti sur une géométrie coeur-torse simplifiée et implémente le formalisme monodomaine en utilisant la Méthode des Éléments Finis (MEF). Les paramètres ont été identifiés par une approche évolutionnaire et leur influence a été analysée par une méthode de criblage. Dans un second temps, une nouvelle approche pour résoudre le problème inverse a été proposée et comparée aux méthodes classiques dans les cas sains et pathologiques. Cette méthode utilise un a priori spatio-temporel sur l'activité électrique cardiaque ainsi que le principe de contradiction afin de trouver un paramètre de régularisation adéquat. / The estimation of solutions of the inverse problem of Electrocardiography (ECG) represents a major interest in the diagnosis and catheter-based therapy of cardiac arrhythmia. The latter consists in non-invasively providing 3D images of the spatial distribution of cardiac electrical activity based on anatomical and electrocardiographic data. On the one hand, this problem is challenging due to its ill-posed nature. On the other hand, validation of proposed methods on clinical data remains very limited. Another way to proceed is by evaluating these methods performance on data simulated by a cardiac electrical model. For this application, existing models are either too complex or do not produce realistic cardiac patterns. As a first step, we designed a low-resolution heart-torso model that generates realistic cardiac mappings and ECGs in healthy and pathological cases. This model is built upon a simplified heart torso geometry and implements the monodomain formalism by using the Finite Element Method (FEM). Parameters were identified using an evolutionary approach and their influence were analyzed by a screening method. In a second step, a new approach for solving the inverse problem was proposed and compared to classical methods in healthy and pathological cases. This method uses a spatio-temporal a priori on the cardiac electrical activity and the discrepancy principle for finding an adequate regularization parameter.
|
148 |
Régularisation et temps conjugués bang-bang pour des problèmes de contrôle optimal / Regularization and bang-bang conjugate times in optimal controlSilva, Cristiana 11 October 2010 (has links)
On considère le problème de contrôle optimal de temps minimal pour des systèmes affine et mono-entrée en dimension finie, avec conditions initiales et finales fixées, où le contrôle scalaire prend ses valeurs dans un intervalle fermé. Lors de l'application d'une méthode de tir pour résoudre ce problème, on peut rencontrer des obstacles numériques car la fonction de tir n'est pas lisse lorsque le contrôle est bang-bang. Pour ces systèmes, dans le cas bang-bang, un concept théorique de temps conjugué a été défini, toutefois les algorithmes de calcul direct sont difficiles à appliquer. En outre, les questions théoriques et pratiques de la théorie du temps conjugué sont bien connues dans le cas lisse, et des outils efficaces de mise en oeuvre sont disponibles. On propose une procédure de régularisation pour laquelle les solutions du problème de temps minimal dépendent d'un paramètre réel positif suffisamment petit et sont définis par des fonctions lisses en temps, ce qui facilite l'application de la méthode de tir simple. Sous des hypothèses convenables, nous prouvons un résultat de convergence forte des solutions du problème régularisé vers la solution du problème initial, lorsque le paramètre réel tend vers zéro. Le calcul des temps conjugués pour les trajectoires localement optimales du problème régularisé est standard. Nous prouvons, sous des hypothèses appropriées, la convergence du premier temps conjugué du problème régularisé vers le premier temps conjugué du problème de contrôle bang-bang initial, quand le paramètre réel tend vers zéro. Ainsi, on obtient une procédure algorithmique efficace pour calculer les temps conjugués dans le cas bang-bang. / In this thesis we consider a minimal time control problem for single-input control-affine systems in finite dimension with fixed initial and final conditions, where the scalar control take values on a closed interva1. When applying a shooting method for solving this problem, one may encounter numerical obstacles due to the fact that the shooting function is non smooth whenever the control is bang-bang. For these systems a theoretical concept of conjugate time has been defined in the bang-bang case, however direct algorithms of computation are difficult to apply. Besides, theoretical and practical issues for conjugate time theory are well known in the smooth case, and efficient implementation tools are available. We propose a regularization procedure for which the solutions of the minimal time problem depend on a small enough real positive parameter and are defined by smooth functions with respect to the time variable, facilitating the application of a single shooting method. Under appropriate assumptions, we prove a strong convergence result of the solutions of the regularized problem towards the solution of the initial problem, when the real parameter tends to zero. The conjugate times computation of the locally optimal trajectories for the regularized problem falls into the standard theory. We prove, under appropriate assumptions, the convergence of the first conjugate time of the regularized problem towards the first conjugate time of the initial bang-bang control problem, when the real parameter tends to zero. As a byproduct, we obtain an efficient algorithmic way to compute conjugate times in the bang-bang case.
|
149 |
L'apport d'un logiciel de simulation d'algorithmes dans le processus enseignement-apprentissage de l'algorithmique chez des apprenants débutants : cas de l'ENSET de Libreville / The contribution of an algorithm simulation software in the algorithmic teaching-learning process for novice learners : case of the Libreville ENSETOvono, Médard-Sylvain 04 October 2018 (has links)
Cette thèse a pour objet l’étude de l'apport de l’introduction des technologies de l'information et de la communication pour l'enseignement (TICE) dans le processus enseignement-apprentissage de l'algorithmique chez les apprenants débutants, en particulier une application de simulation d'algorithmes (AlgoBox). L'utilisation de cet artefact computationnel a pour objectif de proposer une contribution afin de juguler le problème du fort taux d'échec constaté par les responsables administratifs et pédagogiques depuis plusieurs années dans l'enseignement de l'algorithmique et de la programmation à l'Ecole Normale Supérieure de l’Enseignement Technique (ENSET) de Libreville. Ainsi, la mise en place d'un dispositif expérimental conformément aux hypothèses émises et faisant suite à une première expérimentation d'identification et d'analyse de certains indicateurs, a permis de faire l'étude de l'apport du logiciel de simulation d'algorithme. Au terme de cette recherche, il est établi une légère augmentation des performances des apprenants vraisemblablement due non seulement à l’apport de l’artefact, mais aussi à la réactivation des connaissances liées aux savoirs implicites portées par la tâche prescrite. Il convient donc de préconiser d’accompagner l’usage de cette application par la mise en œuvre d’une nouvelle approche afin de permettre la construction d’une pédagogie adaptée (Ginestié, 2008). / This thesis has for object to study of the contribution of the introduction of the TICE's in the teaching-learning process of the algorithmics to the novice learners, in particular an application of simulation of algorithmics (AlgoBox). The use of this computational artifact aims at proposing a contribution in order to solvat the problem of the high rate of failure noticed by the administratives and pedagogicals responsibles for several years in the teaching of the algorithmics and programmations at Ecole Normale Supérieure de l'Enseignement Technique (ENSET) of Libreville.Thereby the implementation of an experimental device according to the emitted hypotheses and following upon a first experiment of identification and analysis of certain indicators, has allowed making the study of the contribution of the simulation software of algorithm. At the end of this research, it is therefore note a slight increase in the performances of the learners most probably due not only to the contribution of the artifact, but also to the reactivation of implicit knowledge carried out by the prescribed task. It is thus advisable to foresee to accompany the use of this application by the implementation a new approach so as to allow the construction of an adapted pedagogy (Ginestie, 2008).
|
150 |
Inversion for textured images : unsupervised myopic deconvolution, model selection, deconvolution-segmentation / Inversion pour image texturée : déconvolution myope non supervisée, choix de modèles, déconvolution-segmentationVăcar, Cornelia Paula 19 September 2014 (has links)
Ce travail est dédié à la résolution de plusieurs problèmes de grand intérêt en traitement d’images : segmentation, choix de modèle et estimation de paramètres, pour le cas spécifique d’images texturées indirectement observées (convoluées et bruitées). Dans ce contexte, les contributions de cette thèse portent sur trois plans différents : modéle, méthode et algorithmique.Du point de vue modélisation de la texture, un nouveaumodèle non-gaussien est proposé. Ce modèle est défini dans le domaine de Fourier et consiste en un mélange de Gaussiennes avec une Densité Spectrale de Puissance paramétrique.Du point de vueméthodologique, la contribution est triple –troisméthodes Bayésiennes pour résoudre de manière :–optimale–non-supervisée–des problèmes inverses en imagerie dans le contexte d’images texturées ndirectement observées, problèmes pas abordés dans la littérature jusqu’à présent.Plus spécifiquement,1. la première méthode réalise la déconvolution myope non-supervisée et l’estimation des paramètres de la texture,2. la deuxième méthode est dédiée à la déconvolution non-supervisée, le choix de modèle et l’estimation des paramètres de la texture et, finalement,3. la troisième méthode déconvolue et segmente une image composée de plusieurs régions texturées, en estimant au même temps les hyperparamètres (niveau du signal et niveau du bruit) et les paramètres de chaque texture.La contribution sur le plan algorithmique est représentée par une nouvelle version rapide de l’algorithme Metropolis-Hastings. Cet algorithme est basé sur une loi de proposition directionnelle contenant le terme de la ”direction de Newton”. Ce terme permet une exploration rapide et efficace de l’espace des paramètres et, de ce fait, accélère la convergence. / This thesis is addressing a series of inverse problems of major importance in the fieldof image processing (image segmentation, model choice, parameter estimation, deconvolution)in the context of textured images. In all of the aforementioned problems theobservations are indirect, i.e., the textured images are affected by a blur and by noise. Thecontributions of this work belong to three main classes: modeling, methodological andalgorithmic. From the modeling standpoint, the contribution consists in the development of a newnon-Gaussian model for textures. The Fourier coefficients of the textured images are modeledby a Scale Mixture of Gaussians Random Field. The Power Spectral Density of thetexture has a parametric form, driven by a set of parameters that encode the texture characteristics.The methodological contribution is threefold and consists in solving three image processingproblems that have not been tackled so far in the context of indirect observationsof textured images. All the proposed methods are Bayesian and are based on the exploitingthe information encoded in the a posteriori law. The first method that is proposed is devotedto the myopic deconvolution of a textured image and the estimation of its parameters.The second method achieves joint model selection and model parameters estimation froman indirect observation of a textured image. Finally, the third method addresses the problemof joint deconvolution and segmentation of an image composed of several texturedregions, while estimating at the same time the parameters of each constituent texture.Last, but not least, the algorithmic contribution is represented by the development ofa new efficient version of the Metropolis Hastings algorithm, with a directional componentof the proposal function based on the”Newton direction” and the Fisher informationmatrix. This particular directional component allows for an efficient exploration of theparameter space and, consequently, increases the convergence speed of the algorithm.To summarize, this work presents a series of methods to solve three image processingproblems in the context of blurry and noisy textured images. Moreover, we present twoconnected contributions, one regarding the texture models andone meant to enhance theperformances of the samplers employed for all of the three methods.
|
Page generated in 0.1674 seconds