Spelling suggestions: "subject:"destimation dde paramètres"" "subject:"destimation dde aramètres""
61 |
Estimation de paramètres de modèles de neurones biologiques sur une plate-forme de SNN (Spiking Neural Network) implantés "insilico"Buhry, Laure 21 September 2010 (has links)
Ces travaux de thèse, réalisés dans une équipe concevant des circuits analogiques neuromimétiques suivant le modèle d’Hodgkin-Huxley, concernent la modélisation de neurones biologiques, plus précisément, l’estimation des paramètres de modèles de neurones. Une première partie de ce manuscrit s’attache à faire le lien entre la modélisation neuronale et l’optimisation. L’accent est mis sur le modèle d’Hodgkin- Huxley pour lequel il existait déjà une méthode d’extraction des paramètres associée à une technique de mesures électrophysiologiques (le voltage-clamp) mais dont les approximations successives rendaient impossible la détermination précise de certains paramètres. Nous proposons dans une seconde partie une méthode alternative d’estimation des paramètres du modèle d’Hodgkin-Huxley s’appuyant sur l’algorithme d’évolution différentielle et qui pallie les limitations de la méthode classique. Cette alternative permet d’estimer conjointement tous les paramètres d’un même canal ionique. Le troisième chapitre est divisé en trois sections. Dans les deux premières, nous appliquons notre nouvelle technique à l’estimation des paramètres du même modèle à partir de données biologiques, puis développons un protocole automatisé de réglage de circuits neuromimétiques, canal ionique par canal ionique. La troisième section présente une méthode d’estimation des paramètres à partir d’enregistrements de la tension de membrane d’un neurone, données dont l’acquisition est plus aisée que celle des courants ioniques. Le quatrième et dernier chapitre, quant à lui, est une ouverture vers l’utilisation de petits réseaux d’une centaine de neurones électroniques : nous réalisons une étude logicielle de l’influence des propriétés intrinsèques de la cellule sur le comportement global du réseau dans le cadre des oscillations gamma. / These works, which were conducted in a research group designing neuromimetic integrated circuits based on the Hodgkin-Huxley model, deal with the parameter estimation of biological neuron models. The first part of the manuscript tries to bridge the gap between neuron modeling and optimization. We focus our interest on the Hodgkin-Huxley model because it is used in the group. There already existed an estimation method associated to the voltage-clamp technique. Nevertheless, this classical estimation method does not allow to extract precisely all parameters of the model, so in the second part, we propose an alternative method to jointly estimate all parameters of one ionic channel avoiding the usual approximations. This method is based on the differential evolution algorithm. The third chaper is divided into three sections : the first two sections present the application of our new estimation method to two different problems, model fitting from biological data and development of an automated tuning of neuromimetic chips. In the third section, we propose an estimation technique using only membrane voltage recordings – easier to mesure than ionic currents. Finally, the fourth and last chapter is a theoretical study preparing the implementation of small neural networks on neuromimetic chips. More specifically, we try to study the influence of cellular intrinsic properties on the global behavior of a neural network in the context of gamma oscillations.
|
62 |
Statistical detection for digital image forensics / Détection statistique pour la criminalistique des images numériquesQiao, Tong 25 April 2016 (has links)
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent un rôle de plus en plus important. Les logiciels sophistiqués de retouche d’images se sont démocratisés et permettent de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu’il s’agit de savoir si ce que l’on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images. Trois problèmes sont abordés : l'identification de l'origine d'une image, la détection d'informations cachées dans une image et la détection d'un exemple falsification : le rééchantillonnage. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et proposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La méthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les paramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les performances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée / The remarkable evolution of information technologies and digital imaging technology in the past decades allow digital images to be ubiquitous. The tampering of these images has become an unavoidable reality, especially in the field of cybercrime. The credibility and trustworthiness of digital images have been eroded, resulting in important consequences in terms of political, economic, and social issues. To restore the trust to digital images, the field of digital forensics was born. Three important problems are addressed in this thesis: image origin identification, detection of hidden information in a digital image and an example of tampering image detection : the resampling. The goal is to develop a statistical decision approach as reliable as possible that allows to guarantee a prescribed false alarm probability. To this end, the approach involves designing a statistical test within the framework of hypothesis testing theory based on a parametric model that characterizes physical and statistical properties of natural images. This model is developed by studying the image processing pipeline of a digital camera. As part of this work, the difficulty of the presence of unknown parameters is addressed using statistical estimation, making the application of statistical tests straightforward in practice. Numerical experiments on simulated and real images have highlighted the relevance of the proposed approach
|
63 |
Contribution à la modélisation, l'identification et la commande d'un hélicoptère miniature / Contribution to small-scale helicopter modeling, identification and controlRoussel, Emmanuel 12 October 2017 (has links)
La stabilisation et l’automatisation du vol de tout véhicule aérien nécessite la mise en oeuvre d’algorithmes de commande. La synthèse et la simulation des lois de commande reposent sur un modèle mathématique du véhicule, qui doit être de complexité et de précision appropriées. Cette thèse présente une méthodologie complète d’identification appliquée à un hélicoptère coaxialminiature. L’étude théorique de son comportement en vol permet d’établir plusieurs modèles basés sur la mécanique du vol, qui diffèrent par les phénomènes aérodynamiques pris en compte. Ils sont identifiés, comparés et validés grâce à des données de vol, mettant en évidence l’importance de certains phénomènes dans la précision du modèle. Différentes lois de commande sont alors étudiées et évaluées en simulation puis par des expérimentations sur un prototype. Les résultats obtenus sont conformes aux simulations numériques, validant ainsi l’ensemble de la démarche. / Control algorithms are at the heart of the stability and automatic flight capabilities of any aerial vehicle. Synthesis and simulation of control laws are based on a mathematicalmodel of the vehicle, which must be a trade-off between simplicity and accuracy. This work presents a complete system identification methodology applied on a miniature coaxial helicopter. Based on flight mechanics and aerodynamics, several models are built. They differ in the aerodynamic phenomena taken into account. They are identified, compared and validated thanks to flight data, highlighting important phenomena in the accuracy of the model. Several flight control strategies are then studied and evaluated through simulations and experiments with a prototype. The results are in accordance with numerical simulations, thus validating the whole approach.
|
64 |
Analyse de sensibilité et estimation de paramètres pour la modélisation hydrologique : potentiel et limitations des méthodes variationnellesCastaings, William 24 October 2007 (has links) (PDF)
Comme tout évènement géophysique, la transformation de la pluie en débit dans les rivières est caractérisée par la complexité des processus engagés et par l'observation partielle, parfois très limitée, de la réponse hydrologique du bassin versant ainsi que du forçage atmosphérique auquel il est soumis. Il est donc essentiel de comprendre, d'analyser et de réduire les incertitudes inhérentes à la modélisation hydrologique (analyse de sensibilité, assimilation de données, propagation d'incertitudes). Les méthodes variationnelles sont très largement employées au sein d'autres disciplines (ex. météorologie, océanographie ...) confrontés aux mêmes challenges. Dans le cadre de ce travail, nous avons appliqué ce type de méthodes à des modèles représentant deux types de fonctionnement des hydrosystèmes à l'échelle du bassin versant. Le potentiel et les limitations de l'approche variationnelle pour la modélisation hydrologique sont illustrés avec un modèle faisant du ruissellement par dépassement de la capacité d'infiltration le processus prépondérant pour la genèse des écoulements superficiels (MARINE) ainsi qu'avec un modèle basé sur le concept des zones contributives d'aire variable (TOPMODEL). L'analyse de sensibilité par linéarisation ou basée sur la méthode de l'état adjoint permet une analyse locale mais approfondie de la relation entre les facteurs d'entrée de la modélisation et les variables pronostiques du système. De plus, le gradient du critère d'ajustement aux observations calculé par le modèle adjoint permet guider de manière très efficace un algorithme de descente avec contraintes de bornes pour l'estimation des paramètres. Les résultats obtenus sont très encourageants et plaident pour une utilisation accrue de l'approche variationnelle afin d'aborder les problématiques clés que sont l'analyse de la physique décrite dans les modèles hydrologiques et l'estimation des variables de contrôle (calibration des paramètres et mise à jour de l'état par assimilation de données).
|
65 |
Une famille de distributions symétriques et leptocurtiques représentée par la différence de deux variables aléatoires gammaAugustyniak, Maciej January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
66 |
Modélisation et estimation des paramètres liés au succès reproducteur d'un ravageur de la vigne (Lobesia botrana DEN. & SCHIFF.) / Modeling and parameter estimation retated to the reproductive success of the european grapevinemoth (Lobesia botrana DEN. & SCHIFF.)Picart, Delphine 12 February 2009 (has links)
L'objectif de ce travail de thèse est de développer un modèle mathématique pour l'étude et la compréhension de la dynamique des populations d'un insecte ravageur, l'Eudémis de la vigne (Lobesia botrana Den. & Schiff.), dans son écosystème. Le modèle proposé est un système d'équations aux dérivées partielles de type hyperbolique qui décrit les variations numériques au cours du temps de la population en fonction des stades de développement, du sexe des individus et des conditions environnementales. La ressource alimentaire, la température, l'humidité et la prédation sont les principaux facteurs environnementaux du modèle expliquant les fluctuations du nombre d'individus au cours du temps. Les différences de développement qui existent dans une cohorte d'Eudémis sont aussi modélisées pour affiner les prédictions du modèle. A partir de données expérimentales obtenues par les entomologistes de l'INRA, situé à Bordeaux, les paramètres du modèle sont estimés. Ce modèle ainsi ajusté nous permet alors d’étudier quelques aspects biologiques et écologiques de l’insecte comme par exemple l'impact de scénarios climatiques sur la ponte des femelles ou sur la dynamique d’attaque de la vigne par les jeunes larves. Les analyses mathématique et numérique du modèle mathématique et des problèmes d'estimation des paramètres sont développées dans cette thèse. / The objective of the thesis is to develop a mathematical model for studying the population dynamics of the European grapevine moth (Lobesia botrana Den. & Schiff.) in its ecosystem. The model proposed is a system of hyperbolic equations that describe the numerical variations in time of the population with respect to developmental stage, the gender and the environmental conditions. The food, the temperature, the humidity and the predation are the main environmental factors of the model that explain the fluctuations of the population in time. The differences in growth inside a cohort are modeled in order to precise the model simulations. We use experimental data obtained by entomologists of the National Research Institut of Agronomy to estimate the parameters of the model. This ajusted model allows us to study some biological and ecological aspects of this pest like for example the impact of climate change on the female laying or on the young larvae dynamic, main actors in the depredation of the Vine. The mathematical analysis and the numerical analysis of the mathematical model and of the parameters estimation problems are presented in this thesis.
|
67 |
Modélisation mathématique et simulation numérique de populations neuronales thalamo-corticales dans le contexte de l'anesthésie générale / Analytical and numerical studies of thalamo-cortical neural population models during general anesthesiaHashemi, Meysam 14 January 2016 (has links)
Bien que l’anesthésie générale soit un outil indispensable dans la chirurgie médicale d’aujourd’hui, ses mécanismes sous-jacents précis sont encore inconnus. Au cours de la sédation induite par le propofol les actions anesthésiques à l’échelle microscopique du neurone isolé conduisent à des changements spécifiques à l’échelle macroscopique qui sont observables comme les signaux électroencéphalogrammes (EEG). Pour une concentration faible en propofol, ces changements caractéristiques comprennent une augmentation de l’activité dans les bandes de fréquence delta (0.5-4 Hz) et alpha (8 13 Hz) dans la région frontal, une l’activité augmentée de delta et une l’activité diminuée de alpha dans la région occipitale. Dans cette thèse, nous utilisons des modèles de populations neuronales thalamo-corticales basés sur des données expérimentales. Les effets de propofol sur les synapses et sur les récepteurs extra-synaptiques GABAergiques situés dans le cortex et le thalamus sont modélisés afin de comprendre les mécanismes sous-jacents aux changements observés dans certaines puissances de l’EEG spectrale. Il est démontré que les modèles reproduisent bien les spectrales caractéristiques observées expérimentalement. Une des conclusions principales de ce travail est que l’origine des delta rythmes est fondamentalement différente de celle des alpha rythmes. Nos résultats indiquent qu’en fonction des valeurs moyennes des potentiels de l’état du système au repos, une augmentation ou une diminution des fonctions de gain thalamo-corticale résulte respectivement en une augmentation ou une diminution de alpha puissance. En revanche, l’évolution de la delta puissance est plutôt indépendant de l’état du système au repos; l'amélioration de la puissance spectrale de delta bande résulte de l’inhibition GABAergique synaptique ou extra-synaptique pour les fonctions de gain non linéaire à la fois croissante et décroissante. De plus, nous cherchons à identifier les paramètres d’un modèle de thalamo-corticale en ajustant le spectre de puissance de modèle pour les enregistrements EEG. Pour ce faire, nous considérons la tâche de l’estimation des paramètres dans les modèles qui sont décrits par un ensemble d’équations différentielles ordinaires ou bien stochastiques avec retard. Deux études de cas portant sur des données pseudo-expérimentales bruyantes sont d’abord effectuées pour comparer les performances des différentes méthodes d’optimisation. Les résultats de cette élaboration montrent que la méthode utilisée dans cette étude est capable d’estimer avec précision les paramètres indépendants du modèle et cela nous permet d’éviter les coûts de calcul des intégrations numériques. En considérant l’ensemble, les conclusions de cette thèse apportent de nouveaux éclairages sur les mécanismes responsables des changements spécifiques qui sont observées pendant la sédation propofol-induite dans les modèles de EEG. / Although general anaesthesia is an indispensable tool in today’s medical surgery, its precise underlying mechanisms are still unknown. During the propofol-induced sedation, the anaesthetic actions on the microscopic single neuron scale lead to specific changes in macroscopic-scale observables such as electroencephalogram (EEG) signals. For low concentration of propofol these characteristic changes comprised increased activity in the delta (0.5-4 Hz) and alpha (8-13 Hz) frequency bands over the frontal head region, but increased delta and decreased alpha power activity over the occipital region. In this thesis, we employ thalamo-cortical neural population models, and based on the experimental data, the propofol effects on the synaptic and extrasynaptic GABAergic receptors located in the cortex and thalamus are modelized to understand the mechanisms underlying the observed certain changes in EEG-spectral power. It is shown that the models reproduce well the characteristic spectral features observed experimentally. A key finding of this work is that the origin of delta rhythm is fundamentally different from the alpha rhythm. Our results indicate that dependent on the mean potential values of the system resting states, an increase or decrease in the thalamo-cortical gain functions results in an increase or decrease in the alpha power, respectively. In contrast, the evolution of the delta power is rather independent of the system resting states; the enhancement of spectral power in the delta band results from the increased synaptic or extra-synaptic GABAergic inhibition for both increasing and decreasing nonlinear gain functions. Furthermore, we aim to identify the parameters of a thalamo-cortical model by fitting the model power spectrum to the EEG recordings. To this end, we address the task of parameter estimation in the models that are described by a set of stochastic ordinary or delay differential equations. Two case studies dealing with noisy pseudo-experimental data are first carried out to compare the performance of different optimization methods. The results of this elaboration show that the method used in this study is able to accurately estimate the independent model parameters while it allows us to avoid the computational costs of the numerical integrations. Taken together, the findings of this thesis provide new insights into the mechanisms responsible for the specific changes in EEG patterns that are observed during propofol-induced sedation.
|
68 |
Modélisation de l’hétérogénéité tumorale par processus de branchement : cas du glioblastome / Modeling of tumor heterogeneity by branching process : case of glioblastomaObara, Tiphaine 07 October 2016 (has links)
Grâce aux progrès de la recherche, on sait aujourd’hui guérir près d’un cancer sur deux. Cependant, certaines tumeurs, telles que les glioblastomes restent parmi les plus agressives et les plus difficiles à traiter. La cause de cette résistance aux traitements pourrait provenir d’une sous-population de cellules ayant des caractéristiques communes aux cellules souches que l’on appelle cellules souches cancéreuses. De nombreux modèles mathématiques et numériques de croissance tumorale existent déjà mais peu tiennent compte de l’hétérogénéité intra-tumorale, qui est aujourd’hui un véritable challenge. Cette thèse s’intéresse à la dynamique des différentes sous-populations cellulaires d’un glioblastome. Elle consiste en l’élaboration d’un modèle mathématique de croissance tumorale reposant sur un processus de branchement de Bellman-Harris, à la fois multi-type et dépendant de l’âge. Ce modèle permet d’intégrer l’hétérogénéité cellulaire. Des simulations numériques reproduisent l’évolution des différents types de cellules et permettent de tester l’action de différents schémas thérapeutiques sur le développement tumoral. Une méthode d’estimation des paramètres du modèle numérique fondée sur le pseudo-maximum de vraisemblance a été adaptée. Cette approche est une alternative au maximum de vraisemblance dans le cas où la distribution de l’échantillon est inconnue. Enfin, nous présentons les expérimentations biologiques qui ont été mises en place dans le but de valider le modèle numérique / The latest advances in cancer research are paving the way to better treatments. However, some tumors such as glioblastomas remain among the most aggressive and difficult to treat. The cause of this resistance could be due to a sub-population of cells with characteristics common to stem cells. Many mathematical and numerical models on tumor growth already exist but few take into account the tumor heterogeneity. It is now a real challenge. This thesis focuses on the dynamics of different cell subpopulations in glioblastoma. It involves the development of a mathematical model of tumor growth based on a multitype, age-dependent branching process. This model allows to integrate cellular heterogeneity. Numerical simulations reproduce the evolution of different types of cells and simulate the action of several therapeutic strategies. A method of parameters estimation based on the pseudo-maximum likelihood has been developed. This approach is an alternative to the maximum likelihood in the case where the sample distribution is unknown. Finally, we present the biological experiments that have been implemented in order to validate the numerical model
|
69 |
Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes / Spatial resolution improvement of hyperspectral images by deconvolution and joint unmixing-deconvolutionSong, Yingying 13 December 2018 (has links)
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances / A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
|
70 |
Vers une méthode de restauration aveugle d’images hyperspectrales / Towards a blind restoration method of hyperspectral imagesZhang, Mo 06 December 2018 (has links)
Nous proposons dans cette thèse de développer une méthode de restauration aveugle d'images flouées et bruitées où aucune connaissance a priori n'est exigée. Ce manuscrit est composé de trois chapitres : le 1er chapitre est consacré aux travaux de l'état de l'art. Les approches d'optimisation pour la résolution du problème de restauration y sont d'abord discutées. Ensuite les principales méthodes de restauration, dites semi-aveugles car nécessitant un minimum de connaissance a priori sont analysées. Parmi ces méthodes, cinq sont retenues pour évaluation. Le 2ème chapitre est dédié à la comparaison des performances des méthodes retenues dans le chapitre précédent. Les principaux critères objectifs d'évaluation de la qualité des images restaurées sont présentés. Parmi ces critères, la norme L1 de l'erreur d'estimation est sélectionnée. L'étude comparative menée sur une banque d'images monochromes, dégradées artificiellement par deux fonctions floues de supports différents et trois niveaux de bruit a permis de mettre en évidence les deux méthodes les plus pertinentes. La première repose sur une approche alternée mono-échelle où la PSF et l'image sont estimées dans une seule étape. La seconde utilise une approche hybride multi-échelle qui consiste tout d'abord à estimer de manière alternée la PSF et une image latente, puis dans une étape suivante séquentielle, à restaurer l'image. Dans l'étude comparative conduite, l'avantage revient à cette dernière. Les performances de ces méthodes serviront de référence pour comparer ensuite la méthode développée. Le 3ème chapitre porte sur la méthode développée. Nous avons cherché à rendre aveugle l'approche hybride retenue dans le chapitre précédent tout en améliorant la qualité d'estimation de la PSF et de l'image restaurée. Les contributions ont porté sur plusieurs points. Une première série d'améliorations concerne la redéfinition des échelles, celle de l'initialisation de l'image latente à chaque niveau d'échelle, l'évolution des paramètres pour la sélection des contours pertinents servant de support à l'estimation de la PSF et enfin, la définition d'un critère d'arrêt aveugle. Une seconde série de contributions a porté sur l'estimation aveugle des deux paramètres de régularisation impliqués pour éviter d'avoir à les fixer empiriquement. Chaque paramètre est associé à une fonction coût distincte l'une pour l'estimation de la PSF et la seconde pour l'estimation d'une image latente. Dans l'étape séquentielle qui suit, nous avons cherché à affiner le support de la PSF estimée dans l'étape alternée, avant de l'exploiter dans le processus de restauration de l'image. A ce niveau, la seule connaissance a priori nécessaire est une borne supérieure du support de la PSF. Les différentes évaluations conduites sur des images monochromes et hyperspectrales dégradées artificiellement par plusieurs flous de type mouvement, de supports différents, montrent une nette amélioration de la qualité de restauration obtenue par l'approche développée par rapport aux deux meilleures approches de l'état de l'art retenues. / We propose in this thesis manuscript to develop a blind restoration method of single component blurred and noisy images where no prior knowledge is required. This manuscript is composed of three chapters: the first chapter focuses on state-of-art works. The optimization approaches for resolving the restoration problem are discussed first. Then, the main methods of restoration, so-called semi-blind ones because requiring a minimum of a priori knowledge are analysed. Five of these methods are selected for evaluation. The second chapter is devoted to comparing the performance of the methods selected in the previous chapter. The main objective criteria for evaluating the quality of the restored images are presented. Of these criteria, the l1 norm for the estimation error is selected. The comparative study conducted on a database of monochromatic images, artificially degraded by two blurred functions with different support size and three levels of noise, revealed the most two relevant methods. The first one is based on a single-scale alternating approach where both the PSF and the image are estimated alternatively. The second one uses a multi-scale hybrid approach, which consists first of alternatingly estimating the PSF and a latent image, then in a sequential next step, restoring the image. In the comparative study performed, the benefit goes to the latter. The performance of both these methods will be used as references to then compare the newly designed method. The third chapter deals with the developed method. We have sought to make the hybrid approach retained in the previous chapter as blind as possible while improving the quality of estimation of both the PSF and the restored image. The contributions covers a number of points. A first series concerns the redefinition of the scales that of the initialization of the latent image at each scale level, the evolution of the parameters for the selection of the relevant contours supporting the estimation of the PSF and finally the definition of a blind stop criterion. A second series of contributions concentrates on the blind estimation of the two regularization parameters involved in order to avoid having to fix them empirically. Each parameter is associated with a separate cost function either for the PSF estimation or for the estimation of a latent image. In the sequential step that follows, we refine the estimation of the support of the PSF estimated in the previous alternated step, before exploiting it in the process of restoring the image. At this level, the only a priori knowledge necessary is a higher bound of the support of the PSF. The different evaluations performed on monochromatic and hyperspectral images artificially degraded by several motion-type blurs with different support sizes, show a clear improvement in the quality of restoration obtained by the newly designed method in comparison to the best two state-of-the-art methods retained.
|
Page generated in 0.151 seconds