• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 15
  • 4
  • Tagged with
  • 47
  • 47
  • 20
  • 20
  • 16
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Vers une prise en compte des erreurs-modèle en assimilation de données 4D-variationnelle. <br />Application à un modèle réaliste d'océan

Vidard, Arthur 20 December 2001 (has links) (PDF)
L'assimilation de données est une classe de méthode mathématiques très usitées en météorologie ou en océanographie. Elle permettent de recomposer de façon adéquate l'état du système au moyen des informations fournies par le modèle d'une part et les observations d'autre part. Parmi celles-ci, les méthodes d'assimilation variationnelles ont connu récemment un fort développement jusqu'à fournir les méthodes opérationnelles dans les principaux centres de météorologie. Cependant ces méthodes ne prennent généralement pas en compte l'inexactitude des modèles. Tout au long de cette thèse, on s'est attaché à décrire et expérimenter des variantes " modèle inexacte " de la méthode 4D-Variationnelle applicable tant du point de vue algorithmique que du coût en temps de calcul.<br />Deux méthodes sont étudiées plus en détail. Premièrement, le Nudging optimal qui consiste en adjoindre au 4D-Var un rappel newtonien de l'état du modèle vers les observations et dont l'amplitude sera estimé par contrôle optimal. D'autre part le " contrôle de l'erreur systématique " considère l'erreur modèle comme étant un terme ne variant pas, ou très peu, dans le temps, ce terme étant également estimé par contrôle.<br />Dans un premier temps ces méthodes sont appliquées à des cas académiques de modèles simplifiés en assimilant des données simulées. La méthode de contrôle de la part systématique de l'erreur est ensuite appliquée à un modèle d'océan aux équations primitives dans le cadre d'une expérience réaliste afin de valider les bons résultats obtenus pour les configurations académiques.
12

Analyse mathématique de modèles de diffusion en milieu poreux élastique

Saint-Macary, Patrick 26 November 2004 (has links) (PDF)
La propagation d'ondes élastiques dans un milieu poreux saturé de fluide est un phénomène complexe intervenant dans de nombreuses applications comme la prospection d'hydrocarbures. Ce phénomène est transcrit au moyen d'un système couplé d'équations hyperbolique-parabolique dû à M. A. Biot d'inconnues u, déplacement de la structure et p, pression du fluide. La première équation décrit l'évolution en temps de u tandis que la seconde est une équation de diffusion obtenue en injectant la loi de Darcy dans la loi de conservation de la masse. Le couplage représente les effets dits de consolidation dus aux interactions entre le fluide et la structure poreuse. Un terme de consolidation secondaire peut intervenir dans la première équation et si on le néglige, le système obtenu correspond à un modèle utilisé en thermoélasticité. Un autre cas limite du modèle de Biot est le cas quasi-statique où la densité de la structure est négligeable. Enfin, un modèle non linéaire peut s'obtenir en perturbant le potentiel d'élasticité linéaire par un potentiel non linéaire représenté par un q-Laplacien. On montre ici l'existence et l'unicité des solutions des modèles de Biot linéaire et non linéaire dans différents cas variant en fonction des paramètres physiques. On utilise des méthodes d'approximation de Galerkin, des techniques de régularisation et de pénalisation pour l'existence et des fonctions-test de Ladyzenskaja pour les résultats d'unicité. On compare les modèles thermoélastique et quasi-statique au modèle complet en estimant dans chaque cas les taux de convergence en fonction des paramètres avant d'étudier le comportement en temps long du modèle.
13

Quelques modèles non linéaires en mécanique quantique

Lewin, Mathieu 21 June 2004 (has links) (PDF)
Cette thèse est consacrée à l'étude de trois modèles non linéaires issus de la mécanique quantique. Dans la première partie, nous démontrons l'existence d'un minimum et d'états excités approchés pour les modèles multi-configurations décrivant la structure électronique des molécules. Ces points critiques peuvent être calculés grâce à un nouvel algorithme. Des résultats numériques sont présentés pour le premier état excité de systèmes à deux électrons. Dans la seconde partie, nous étudions un lemme du col modélisant des réactions chimiques avec le modèle de Schrödinger indépendant du temps. Nous prouvons l'existence d'un point selle, sous l'hypothèse que les molécules à l'infini sont chargées ou polarisées. La dernière partie est consacrée à l'étude de la polarisation du vide grâce au modèle Bogoliubov-Dirac-Fock, une théorie relativiste de champ moyen issue de l'électrodynamique quantique. Nous montrons que l'énergie étudiée possède un minimum qui est le vide polarisé.
14

Segmentation par contours actifs basés alpha-divergences : application à la segmentation d'images médicales et biomédicales

Meziou, Leïla 28 November 2013 (has links) (PDF)
La segmentation de régions d'intérêt dans le cadre de l'analyse d'images médicales et biomédicales reste encore à ce jour un challenge en raison notamment de la variété des modalités d'acquisition et des caractéristiques associées (bruit par exemple).Dans ce contexte particulier, cet exposé présente une méthode de segmentation de type contour actif dont l 'énergie associée à l'obtention de l'équation d'évolution s'appuie sur une mesure de similarité entre les densités de probabilités (en niveau de gris) des régions intérieure et extérieure au contour au cours du processus itératif de segmentation. En particulier, nous nous intéressons à la famille particulière des alpha-divergences. L'intérêt principal de cette méthode réside (i) dans la flexibilité des alpha-divergences dont la métrique intrinsèque peut être paramétrisée via la valeur du paramètre alpha et donc adaptée aux distributions statistiques des régions de l'image à segmenter ; et (ii) dans la capacité unificatrice de cette mesure statistique vis-à-vis des distances classiquement utilisées dans ce contexte (Kullback- Leibler, Hellinger...). Nous abordons l'étude de cette mesure statistique tout d'abord d'un point de vue supervisé pour lequel le processus itératif de segmentation se déduit de la minimisation de l'alpha-divergence (au sens variationnel) entre la densité de probabilité courante et une référence définie a priori. Puis nous nous intéressons au point de vue non supervisé qui permet de s'affranchir de l'étape de définition des références par le biais d'une maximisation de distance entre les densités de probabilités intérieure et extérieure au contour. Par ailleurs, nous proposons une démarche d'optimisation de l'évolution du paramètre alpha conjointe au processus de minimisation ou de maximisation de la divergence permettant d'adapter itérativement la divergence à la statistique des données considérées. Au niveau expérimental, nous proposons une étude comparée des différentes approches de segmentation : en premier lieu, sur des images synthétiques bruitées et texturées, puis, sur des images naturelles. Enfin, nous focalisons notre étude sur différentes applications issues des domaines biomédicaux (microscopie confocale cellulaire) et médicaux (radiographie X, IRM) dans le contexte de l'aide au diagnotic. Dans chacun des cas, une discussion sur l'apport des alpha-divergences est proposée.
15

Méthodes variationnelles pour la segmentation avec application à la réalité augmentée / Variational methods for segmentation with application to augmented reality

Julian, Pauline 12 October 2012 (has links)
Dans cette thèse, nous nous intéressons au problème de la segmentation de portraits numériques. Nous appelons portrait numérique la photographie d’une personne avec un cadre allant grossièrement du gros plan au plan poitrine. Le problème abordé dans ce travail est un cas spécifique de la segmentation d’images où il s’agit notamment de définir précisément la frontière de la région « cheveux ». Ce problème est par essence très délicat car les attributs de la région « cheveux » (géométrie, couleur, texture) présentent une grande variabilité à la fois entre les personnes et au sein de la région. Notre cadre applicatif est un système d’« essayage virtuel » de lunettes à destination du grand public, il n’est pas possible de contrôler les conditions de prise de vue comme l’éclairage de la scène ou la résolution des images, ce qui accroît encore la diculté du problème. L’approche proposée pour la segmentation de portraits numériques est une approche du plus grossier au plus fin procédant par étapes successives. Nous formulons le problème comme celui d’une segmentation multi-régions, en introduisant comme « régions secondaires », les régions adjacentes à la région « cheveux » , c.-à-d. les régions « peau » et « fond ». La méthode est fondée sur l’apparence (appearance-based method) et a comme spécificité le fait de déterminer les descripteurs de régions les plus adaptés à partir d’une base d’images d’apprentissage et d’outils statistiques. À la première étape de la méthode, nous utilisons l’information contextuelle d’un portrait numérique — connaissances a priori sur les relations spatiales entre régions— pour obtenir des échantillons des régions « cheveux », « peau » et « fond ». L’intérêt d’une approche fondée sur l’apparence est de pouvoir s’adapter à la fois aux conditions de prises de vue ainsi qu’aux attributs de chaque régions. Au cours de cette étape, nous privilégions les modèles de forme polygonaux couplés aux contours actifs pour assurer la robustesse du modèle. Lors de la seconde étape, à partir des échantillons détectés à l’étape précédente, nous introduisons un descripteur prenant en compte l’information de couleur et de texture. Nous proposons une segmentation grossière par classification en nous appuyant à nouveau sur l’information contextuelle : locale d’une part grâce aux champs de Markov, globale d’autre part grâce à un modèle a priori de segmentation obtenu par apprentissage qui permet de rendre les résultats plus robustes. La troisième étape ane les résultats en définissant la frontière des « cheveux » comme une région de transition. Cette dernière contient les pixels dont l’apparence provient du mélange de contributions de deux régions (« cheveux »et « peau » ou «fond »). Ces deux régions de transition sont post-traitées par un algorithme de «démélange » (digital matting) pour estimer les coecients de transparence entre « cheveux » et « peau », et entre « cheveux » et « fond ». À l’issue de ces trois étapes, nous obtenons une segmentation précise d’un portrait numérique en trois « calques », contenant en chaque pixel l’information de transparence entre les régions « cheveux », « peau » et « fond ». Les résultats obtenus sur une base d’images de portraits numériques ont mis en évidence les bonnes performances de notre méthode. / In this thesis, we are interested in the problem of the segmentation of digital portraits. We call digital portrait the photography of a person with a frame roughly ranging from the close-up to the chest plane. The problem addressed in this work is a specific case of the segmentation of images where it is especially necessary to define precisely the border of the "hair" region. This problem is inherently very delicate because the attributes of the "hair" region (geometry, color, texture) present an important variability between people and within the region. Our application is a system of "virtual fitting" of glasses for the general audience, it is not possible to control the shooting conditions such as stage lighting or image resolution, which increases the difficulty of the problem. The approach proposed for the segmentation of digital portraits is an approach « coarse to fine », proceeding in successive stages. We formulate the problem as a multi-region segmentation, introducing as "secondary regions" regions adjacent to the "hair" region, ie, the "skin" and "background" regions. The method is based on appearance-based method and has as a specificity the determination of the descriptors of regions most adapted from a database of learning and statistical tools. In the first step of the method, we use the contextual information of a Digital portrait - a priori knowledge about the spatial relations between regions - to obtain samples of the regions "hair", "skin" and "background". The value of an appearance-based approach is to be able to adapt to both the shooting conditions and the attributes of each region. During this stage, we prefer polygonal shape models coupled with active contours to ensure the robustness of the model. In the second step, from the samples detected in the previous step, we introduce a descriptor taking into account the color and texture information. We propose a rough segmentation by classification by relying on the contextual information: local on the one hand thanks to the Markov fields, global on the other hand thanks to an a priori model of segmentation obtained by learning which il allow to obtain robust results. The third stage refines the results by defining the border of "hair" as a transition region. This région contains the pixels whose appearance comes from the mixture of contributions of two regions ("hair" and "skin" or "background"). These two transition regions are post-processed by a digital matting algorithm to estimate the coefficients of transparency between "hair" and "skin", and between "hair" and "background". At the end of these three steps, we obtain a precise segmentation of a digital portrait into three "layers", containing in each pixel the information of transparency between the regions "hair", "skin" and "background". The results obtained on the basis of images of digital portraits have highlighted the good performance of our method.
16

Segmentation par contours actifs basés alpha-divergences : application à la segmentation d’images médicales et biomédicales / Active contours segmentation based on alpha-divergences : Segmentation of medical and biomedical images

Meziou, Leïla Ikram 28 November 2013 (has links)
La segmentation de régions d'intérêt dans le cadre de l'analyse d'images médicales et biomédicales reste encore à ce jour un challenge en raison notamment de la variété des modalités d'acquisition et des caractéristiques associées (bruit par exemple).Dans ce contexte particulier, cet exposé présente une méthode de segmentation de type contour actif dont l ‘énergie associée à l'obtention de l'équation d'évolution s'appuie sur une mesure de similarité entre les densités de probabilités (en niveau de gris) des régions intérieure et extérieure au contour au cours du processus itératif de segmentation. En particulier, nous nous intéressons à la famille particulière des alpha-divergences. L'intérêt principal de cette méthode réside (i) dans la flexibilité des alpha-divergences dont la métrique intrinsèque peut être paramétrisée via la valeur du paramètre alpha et donc adaptée aux distributions statistiques des régions de l'image à segmenter ; et (ii) dans la capacité unificatrice de cette mesure statistique vis-à-vis des distances classiquement utilisées dans ce contexte (Kullback- Leibler, Hellinger...). Nous abordons l'étude de cette mesure statistique tout d'abord d'un point de vue supervisé pour lequel le processus itératif de segmentation se déduit de la minimisation de l'alpha-divergence (au sens variationnel) entre la densité de probabilité courante et une référence définie a priori. Puis nous nous intéressons au point de vue non supervisé qui permet de s'affranchir de l'étape de définition des références par le biais d'une maximisation de distance entre les densités de probabilités intérieure et extérieure au contour. Par ailleurs, nous proposons une démarche d'optimisation de l'évolution du paramètre alpha conjointe au processus de minimisation ou de maximisation de la divergence permettant d'adapter itérativement la divergence à la statistique des données considérées. Au niveau expérimental, nous proposons une étude comparée des différentes approches de segmentation : en premier lieu, sur des images synthétiques bruitées et texturées, puis, sur des images naturelles. Enfin, nous focalisons notre étude sur différentes applications issues des domaines biomédicaux (microscopie confocale cellulaire) et médicaux (radiographie X, IRM) dans le contexte de l'aide au diagnotic. Dans chacun des cas, une discussion sur l'apport des alpha-divergences est proposée. / In the particular field of Computer-Aided-Diagnosis, the segmentation of particular regions of interest corresponding usually to organs is still a challenging issue mainly because of the various existing for which the charateristics of acquisition are very different (corrupting noise for instance). In this context, this PhD work introduces an original histogram-based active contour segmentation using alpha-divergence family as similarity measure. The method keypoint are twofold: (i) the flexibility of alpha-divergences whose metric could be parametrized using alpha value can be adaptedto the statistical distribution of the different regions of the image and (ii) the ability of alpha-divergence ability to enbed standard distances like the Kullback-Leibler's divergence or the Hellinger's one makes these divergences an interesting unifying tool.In this document, first, we propose a supervised version of proposed approach:. In this particular case, the iterative process of segmentation comes from alpha-divergenceminimization between the current probability density function and a reference one which can be manually defined for instance. In a second part, we focus on the non-supervised version of the method inorder to be able.In that particular case, the alpha-divergence maximization between probabilitydensity functions of inner and outer regions defined by the active contour is maximized. In addition, we propose an optimization scheme of the alpha parameter jointly with the optimization of the divergence in order to adapt iteratively the divergence to the inner statistics of processed data. Furthermore, a comparative study is proposed between the different segmentation schemes : first, on synthetic images then, on natural images. Finally, we focus on different kinds of biomedical images (cellular confocal microscopy) and medical ones (X-ray) for computer-aided diagnosis.
17

Image matching for 3D reconstruction using complementary optical and geometric information / Appariement d'images pour la reconstruction 3D en utilisant l'information optique et géométrique

Galindo, Patricio A. 20 January 2015 (has links)
L’appariement d’images est un sujet central de recherche en vision par ordinateur. La recherche sur cette problématique s’est longuement concentrée sur ses aspects optiques, mais ses aspects géométriques ont reçu beaucoup moins d’attention. Cette thèse promeut l’utilisation de la géométrie pour compléter les informations optique dans les tâches de mise en correspondance d’images. Tout d’abord, nous nous penchons sur les méthodes globales pour lesquelles les occlusions et arêtes vives posent des défis. Dans ces scenarios, le résultat est fortement dépendant de la contribution du terme de régularisation. À l'aide d’une caractérisation géométrique de ce comportement, nous formulons une méthode d’appariement qui dirige les lignes de la grille loin des régions problématiques. Bien que les méthodes variationnelles fournissent des résultats qui se comportent bien en général, les méthodes locales basées sur la propagation de correspondances fournissent des résultats qui s’adaptent mieux à divers structures 3D mais au détriment de la cohérence globale de la surface reconstruite. Par conséquent, nous présentons une nouvelle méthode de propagation guidée par des reconstructions locales de surface / AbstractImage matching is a central research topic in computer vision which has been mainly focused on optical aspects. The aim of the work presented herein consists in the direct use of geometry to complement optical information in the tasks of 2D matching. First, we focus on global methods based on the calculus of variations. In such methods occlusions and sharp features raise difficult challenges. In these scenarios only the contribution of the regularizer accounts for results. Based on a geometric characterization of this behaviour, we formulate a variational matching method that steers grid lines away from problematic regions. While variational methods provide well behaved results, local methods based on match propagation provide results that adapt closely to varying 3D structures although choppy in nature. Therefore, we present a novel method to propagate matches using local information about surface regularity correcting 3D positions along with corresponding 2D matchings
18

Simulation of thermomechanical properties of U-PuO2 nuclear fuel under irradiation / Simulations des propriétés thermomécaniques du combustible nucléaire (U,PuO2) sous irradiation

Balboa lópez, Hector 10 December 2018 (has links)
L’objectif de cette thèse a été d’utiliser une approche numérique pour étudier l’impact des dommages d'irradiation sur la microstructure du combustible nucléaire composé d'un mélange d’oxyde de plutonium et d’uranium (MOX). Cette approche, réalisée à l'échelle atomique, repose sur l'utilisation de potentiels empiriques développés dans la littérature pour l'oxyde mixte $(U,Pu)O_2$ dans l’approximation des interactions d’ions rigides.Une première étape a été une analyse critique des propriétés structurales, thermodynamiques et mécaniques prédites par 5 potentiels de la littérature. Les calculs de dynamique moléculaire ont été réalisés à l'aide du code LAMMPS, sur l'ensemble de la gamme de composition de $UO_2$ à $PuO_2$ et à des températures comprises entre 300 K et le point de fusion. Nous montrons que les potentiels les plus satisfaisants sont ceux développés par Cooper et Potashnikov. Ces deux potentiels reproduisent correctement la stabilité thermodynamique des phases ainsi que l'évolution en température des paramètres de maille et de la chaleur spécifique. Cependant le comportement mécanique des oxydes est différent selon le potentiel choisi. Tout d'abord, on note que les constantes élastiques et le facteur d'anisotropie obtenus par le potentiel Cooper sont plus fidèles aux recommandations de la littérature. Ensuite, nous montons que la propagation d'une fracture induit une transformation de phase en pointe de fissure avec le potentiel de Cooper alors qu'une fissuration fragile est observée avec le potentiel Potashnikov.Une seconde étape a été l'étude des dommages d'irradiation dans les oxydes mixtes en se limitant à l'utilisation des deux potentiels de Cooper et de Potashnikov. Des calculs de dynamique moléculaire de cascades de déplacement ont été réalisés à différentes énergies, température et compositions en plutonium. Ensuite, afin d'évaluer les dommages d'irradiation sur des temps plus longs que ceux accessibles en dynamique moléculaire, la méthode d’accumulation de défauts a été utilisée. Pour les deux potentiels, l’évolution des dommages primaires avec l’augmentation de la dose suit globalement les mêmes étapes que celles trouvées précédemment dans $UO_2$. Tout d’abord, les défauts ponctuels sont créés. Par la suite, ils se regroupent et forment de petites boucles de Frank, qui après se transforment en dislocations parfaites. Cependant, la cinétique de la recombinaison de défauts ponctuels est significativement plus lente avec le potentiel de Cooper ce qui conduit à la création de petites régions désordonnées pour les cascades d'énergie élevée. L’effet de la teneur en plutonium est analysé. Nous montrons en particulier que la densité de dislocations crée diminue lorsque la teneur en plutonium augmente.Bien que la dynamique moléculaire a été décrite comme un microscope moléculaire en raison de sa capacité à décrire avec précision des systèmes atomiques, elle présente un inconvénient majeur, celui lié aux temps de l’ordre de la femto-seconde nécessaires pour résoudre les vibrations atomiques. Cela limite le temps total de simulation approximativement quelques nanosecondes. Afin de stimuler les processus, tels que la diffusion de cations, un autre outil de calcul est nécessaire. Les techniques de Monte Carlo (KMC) atomiques peuvent simuler de plus longtemps que la dynamique moléculaire . Cependant, pour que KMC fonctionne avec précision, il est nécessaire de connaître a priori tous les mécanismes de transition entre les états possibles. Pour cette raison, la method de Monte Carlo cinétique adaptative (aKMC) est choisie pour surmonter ces limitations. Cette méthode détermine les états de transition disponibles pendant la simulation. De cette manière, elle entraîne le système dans des états imprévus via des mécanismes complexes. La puissance de cet outil s'est révélée efficace pour découvrir la recombinaison de cations sur de plus longues périodes de temps que la DM. / The objective of this doctoral research is to use a numerical approach to study the impact of irradiation damage on the microstructure of the mixed uranium-plutonium oxide fuel (MOX). This numerical approach comprises mainly the use of Molecular Dynamics (MD) using empirical potential. Several empirical potentials for $(U,Pu)O_2$ can be found in the literature. The results of these potentials can exhibit significant differences. For this reason an extensive assessment of the main empirical potential found in the literature had to be performed.Five empirical interatomic potentials were assessed in the approximation of rigid ions and pair interactions for the $(U_{1-y},Pu_y)O_2$ solid solution. Simulations were carried out on the structural, thermodynamics and mechanical properties over the full range of plutonium composition, meaning from pure $UO_2$ to pure $PuO_2$ and for temperatures ranging from 300 K up to the melting point. The best results are obtained by potentials referred as Cooper and Potashnikov. The first one reproduces more accurately recommendations for the thermodynamics and mechanical properties exhibiting ductile-like behaviour during crack propagation, whereas the second one gives brittle behaviour at low temperature.From our results from the empirical potentials assessment, we can move to the radiation damage using only two potentials (Cooper and Potashnikov). In order to know the main source of defect during irradiation, MD displacement cascades were simulated. This revealed the damage created due to varying projectile energies. In addition, the Frenkel pair accumulation method was chosen to investigate the dose effect. This method circumvents the highly computing time demanding accumulation of displacement cascade by directly creating their final states, i.e. mainly point defects. Overall, results obtained with both potentials show the same trend. However, kinetics of point defect recombination are significantly slower with Cooper potential implying creation of small disordered region with high energy displacement cascades. The evolution of the primary damage with increasing dose follows the same steps as those found previously in pure $UO_2$. First, point defects are created. Subsequently, they cluster and form small Frank loops, which in turn transform and grow into unfaulted loops. We demonstrate also that increasing temperatures accelerate the production of dislocations shifting their creation to lower doses. The effect of the plutonium content is also evidenced, especially with Cooper potential. It shows that the dislocation density decreases when the plutonium content increases.Although, MD has been described as a molecular microscope due to its ability to discribe accuratily systems of atoms, it has a large drawback that is the short time steps of the order of femto-seconds needed to resolve the atomic vibrations. This limits the time typically few microsecond. In order to invetigate processess, such as, cation diffusion and rare-event annihilation of defects after cascaces, another computational tool is required. Atomistic or object kinetic Monte Carlo (KMC) techniques can run for longer timescales than MD. However, for KMC to work accurately, all of the possible inter-state transition mechanisms and their associated rates need to be known a priori. For this reason, the adaptive kinetic Monte Carlo (AKMC) is chosen to overcome these limitations. This method determines the available transition states during simulation. In this way, it takes the system into unforeseen states via complex mechanisms. The power and range of this tool proved to be efficient to discover cation Frenkel pair recombination over a longer periods of time than MD.
19

Segmentation of irises acquired in degraded conditions / Segmentation d’iris acquis en conditions dégradées

Lefevre, Thierry 30 January 2013 (has links)
Les performances des systèmes de reconnaissances basés sur l'iris sont très négativement affectées par les relâchements des contraintes lors de l'acquisition des images (sujet mobile ou faiblement coopératif, image acquise loin du capteur…). L’objectif de cette thèse est de proposer une amélioration des algorithmes de segmentation traditionnels afin de pouvoir travailler dans de telles conditions. Nous avons identifié et traité quarte modules qui permettent de limiter l'impact des dégradations des images sur les performances du système de reconnaissance global : • Une localisation précise et robuste de la pupille dans l'image l'œil. Pour cela, nous avons développé une méthode qui supprime les cils et les sourcils de l'image pour faciliter la détection de la pupille. • Une segmentation précise de la texture de l'iris dans l'image. Nous avons étudié plusieurs méthodes de la littérature des Contours Actifs et comparé l'impact de ces méthodes sur les performances de reconnaissances du système complet. • Une estimation précise et robuste des contours anatomique de l'iris indépendamment des occlusions dans l'image. Pour cela, nous avons dérivé les équations des Contours Actifs explicitement pour des cercles et des ellipses. Nous avons par ailleurs proposé une méthodologie efficace pour rendre la détection moins sensible aux minimas locaux. • Une méthode de détection des erreurs de segmentation. Il est en effet important de pouvoir avertir le système de reconnaissance global qu'une erreur s’est produite. Pour cela nous avons développé plusieurs critères d'évaluation de la qualité de segmentation. Nous avons ensuite fusionnés ces mesures en utilisant un algorithme de type <<Support Vector Regression>> (SVR) pour former une mesure de qualité globale évaluant la qualité de la segmentation / This thesis is focused on the development of robust segmentation algorithms for iris recognition systems working in degraded acquisition conditions. In controlled acquisition scenarios, iris segmentation is well handled by simple segmentation schemes, which modeled the iris borders by circles and assumed that the iris can only be occluded by eyelids. However, such simple models tend to fail when the iris is strongly occluded or off-angle, or when the iris borders are not sharp enough. In this thesis, we propose a complete segmentation system working efficiently despite the above-mentioned degradations of the input data. After a study of the recent state of the art in iris recognition, we identified four key issues that an iris segmentation system should handle when being confronted to images of poor quality, leading this way to four key modules for the complete system: • The system should be able locate the pupil in the image in order to initialize more complex algorithms. To address this problem, we propose an original and effective way to first segment dark elements in the image that can lead to mistakes of the pupil localization process. This rough segmentation detects high frequency areas of the image and then the system uses the pupil homogeneity as a criterion to identify the pupil area among other dark regions of the image. • Accurate segmentation of the iris texture in the eye image is a core task of iris segmentation systems. We propose to segment the iris texture by Active Contours because they meet both the requirement in robustness and accuracy required to perform segmentation on large databases of degraded images. We studied several Active Contours that varies in speed, robustness, accuracy and in the features they use to model the iris region. We make a comparative evaluation of the algorithms’ influence on the system performance. • A complete segmentation system must also accurately estimate the iris shape in occluded regions, in order to format the iris texture for recognition. We propose a robust and accurate scheme based on a variational formulation to fit an elliptic model on the iris borders. We explicitly derive evolution equations for ellipses using the Active Contours formalism. We also propose an effective way to limit the sensitivity of this process to initial conditions. This part of our work is currently under review for final acceptance in the international journal Computer Vision and Image Understanding (CVIU). • Finally, we address the main issue of automatic detection of segmentation failures of the system. Few works in the literature address measuring the quality of a segmentation algorithm, critical task for an operational system. We propose in this thesis a set of novel quality measures for segmentation and show a correlation between each of them with the intrinsic recognition performance of the segmented images. We perform fusion of the individual quality measures via a Support Vector Regression (SVR) algorithm, in order to propose a more robust global segmentation quality score
20

Étude de Quelques Problèmes Quasilinéaires Elliptiques Singuliers

Saoudi, Kamel 26 June 2009 (has links) (PDF)
L'objet de cette thèse concerne l' étude de quelques problèmes elliptiques singuliers. Dans les problémes que nous avons considérés, ce caractère singulier se caractérise par la présence d'une nonlinéarité qui explose au bord du domaine où le problème est posé. Plus précisément, dans le chapitre 2, nous abordons la question de la multiplicité de solutions pour un problème elliptique critique singulier en dimension $N\geq 3$. Dans le chapitre 3, Nous discutons la validité de la propriété $C^1$ versus $W^{1,p}_0 $ minimiseurs de l' énergie pour un problème quasilinéaire elliptique singulier. Enfin, dans le chapitre 4, nous présentons des résultats de bifurcation globale pour un problème semilinéaire elliptique singulier et critique en dimension 2 avec croissance sur-exponentielle.

Page generated in 0.5356 seconds