421 |
Microscopie de mélange à quatre ondes résolue en polarisation pour sonder l’ordre moléculaire dans les milieux biologiques / Polarization resolved four-wave mixing microscopy : a tool to probe molecular order in biological mediaBioud, Fatma Zohra 28 November 2013 (has links)
Nous avons développé une méthodologie basée sur phénomène de mélange à quatre ondre polarimétrique « Four wave Mixing FWM » et son équivalen résonant la diffusion Raman cohérente anti-Stokes (CARS, Coherent Anti-Stokes Raman Scattering) polarimétrique et réalisé des mesures sur des systèmes cristallins, simili biologiques : les membranes cellulaires connues sous le nom de « Multilamellar Vesicles MLV » et des échantillons de biologiques : la myeline, et ce, en variant les polarisations des lasers excitateurs, Pompe et Stokes. Le signal anti-Stokes émis est ensuite analysé afin d’en extraire les ordres 2 et 4 de la fonction de distribution angulaire des molécules actives constituant l’échantillon. Pour cela, plusieurs approches sont explorées telles que des algorithmes d’optimisation ou par décomposition en série de fourrier du signal polarimétrique. Ces multiples approches en traitement du signal permettent d’obtenir de manière rapide les coefficients des fonctions de distribution angulaire recherchées, et ainsi d’avoir des informations sur la symétrie des échantillons imagés, allant jusqu’à l’observation d’une symétrie d’ordre 4. La capacité de la microscopie non linéaire résolue en polarisation à sonder des ordres moléculaires est clairement démontrée et ainsi son intérêt dans l’étude de la relation entre la structure et la fonction de systèmes biologiques. / The capacity to quantify molecular orientational order in tissues is of a great interest since pathologies (skin lesion, neurodegenerative diseases, etc) can induce strong modifications in proteins’ organization. While numerous studies have been undertaken using polarization resolved second order nonlinear optical microscopy which is only specific to non-centrosymmetric organizations, higher order effects have been less explored. Four-wave mixing (FWM) microscopy and its resonant counterpart coherent anti-Stokes Raman scattering (CARS) can be of a great utility as label free diagnosis tools benefiting from less constraining symmetry rules. In this work, we implement incident polarizations tuning in FWM and CARS microscopy to probe molecular order, using a generic method to read-out symmetry information.Fourier analysis of the polarization-resolved FWM/CARS signal processed with an analytical model provides a fast and direct determination of the symmetry orders of the distribution function of the probed molecules. This method does not require a priori knowledge of the organization structure and provides quantitatively its second and fourth order symmetries. We applied this technique on different systems, from crystalline to less organized (multilamellar vesicles and proteins aggregates). We show that this new approach brings additional and more refined information on supra-molecular structures in complex media.
|
422 |
Paradigmes de segmentation de graphe : comparaisons et applications en traitement d'images / Graph segmentation paradigms : comparisons and applications in image processingAllène, Cédric 12 February 2009 (has links)
Les techniques de segmentation de graphe sont souvent utilisées en traitement d’images puisque ces dernières peuvent être vues comme des graphes valués. Dans cette thèse, nous montrons des liens existant entre plusieurs paradigmes de segmentation de graphes valués. Nous présentons tout d’abord différentes définitions de ligne de partage des eaux et sélectionnons celle dont le cadre permet la comparaison avec des forêts couvrantes particulières. Nous montrons qu’une telle ligne de partage des eaux relative à des marqueurs arbitraires est équivalente à une coupe induite par une forêt couvrante de chemins de moindre altitude. Ensuite, les coupes induites par des forêts couvrantes de poids minimum sont démontrées comme étant des cas particuliers ayant l’avantage d’éviter certaines segmentations non souhaitées. Enfin, nous montrons qu’une coupe minimale coïncide avec une coupe induite par une forêt couvrante de poids maximum pour certaines fonctions de poids particulières. Dans une seconde partie, nous présentons deux applications utilisant la segmentation de graphe : la renaissance d’images et le mélange de textures pour la reconstruction 3D / Graph segmentation techniques are often used in image processing since an image can be seen as a weighted graph. In this thesis, we show some links existing between several weighted graph segmentation paradigms. We first present different definitions of watersheds and select the one which framework allows comparison with specific spanning forests. We show that such a watershed relative to arbitrary markers is equivalent to a cut induced by a shortest path spanning forest. Then, cuts induced by minimum spanning forests are demonstrated as being particular cases which advantageously avoid some undesirable results. Finally, we show that minimum cuts coincide with cuts induced by maximum spanning forests for some particular weight functions. In a second part, we present two applications using graph segmentation : image renaissance and texture blending for 3D reconstruction
|
423 |
Modélisation et classification dynamique de données temporelles non stationnaires / Dynamic classification and modeling of non-stationary temporal dataEl Assaad, Hani 11 December 2014 (has links)
Cette thèse aborde la problématique de la classification non supervisée de données lorsque les caractéristiques des classes sont susceptibles d'évoluer au cours du temps. On parlera également, dans ce cas, de classification dynamique de données temporelles non stationnaires. Le cadre applicatif des travaux concerne le diagnostic par reconnaissance des formes de systèmes complexes dynamiques dont les classes de fonctionnement peuvent, suite à des phénomènes d'usures, des déréglages progressifs ou des contextes d'exploitation variables, évoluer au cours du temps. Un modèle probabiliste dynamique, fondé à la fois sur les mélanges de lois et sur les modèles dynamiques à espace d'état, a ainsi été proposé. Compte tenu de la structure complexe de ce modèle, une variante variationnelle de l'algorithme EM a été proposée pour l'apprentissage de ses paramètres. Dans la perspective du traitement rapide de flux de données, une version séquentielle de cet algorithme a également été développée, ainsi qu'une stratégie de choix dynamique du nombre de classes. Une série d'expérimentations menées sur des données simulées et des données réelles acquises sur le système d'aiguillage des trains a permis d'évaluer le potentiel des approches proposées / Nowadays, diagnosis and monitoring for predictive maintenance of railway components are important key subjects for both operators and manufacturers. They seek to anticipate upcoming maintenance actions, reduce maintenance costs and increase the availability of rail network. In order to maintain the components at a satisfactory level of operation, the implementation of reliable diagnostic strategy is required. In this thesis, we are interested in a main component of railway infrastructure, the railway switch; an important safety device whose failure could heavily impact the availability of the transportation system. The diagnosis of this system is therefore essential and can be done by exploiting sequential measurements acquired successively while the state of the system is evolving over time. These measurements consist of power consumption curves that are acquired during several switch operations. The shape of these curves is indicative of the operating state of the system. The aim is to track the temporal dynamic evolution of railway component state under different operating contexts by analyzing the specific data in order to detect and diagnose problems that may lead to functioning failure. This thesis tackles the problem of temporal data clustering within a broader context of developing innovative tools and decision-aid methods. We propose a new dynamic probabilistic approach within a temporal data clustering framework. This approach is based on both Gaussian mixture models and state-space models. The main challenge facing this work is the estimation of model parameters associated with this approach because of its complex structure. In order to meet this challenge, a variational approach has been developed. The results obtained on both synthetic and real data highlight the advantage of the proposed algorithms compared to other state of the art methods in terms of clustering and estimation accuracy
|
424 |
Study of charmless three-body decays of neutral B mesons with the LHCb spectrometer / Pas de titre en françaisSobczak, Krzysztof Grzegorz 15 December 2011 (has links)
Ce document de thèse décrit la recherche des désintégrations en trois corps des mésons beaux neutres qui contiennent un KS ou un pi 0 dans l'état final. Ces événements sont reconstruits au moyen du spectromètre LHCb installé auprès du collisionneur proton-proton LHC, sis au Cern à Genève. La phénoménologie des ces modes est riche et couvre la possibilité de mesurer tous les angles du triangle d'Unitarité de la matrice Cabibbo-Kobayashi-Maskawa (CKM) qui décrit les amplitudes de transition par courant chargé faible entre quarks. Une illustration portant sur la mesure de l'angle gamma est développée dans ce document plus en détail. L'accélérateur LHC et les éléments utiles du spectromètre LHCb sont rapportés en mettant l'accent sur le travail conduit au cours de cette thèse sur l'étalonnage et l'alignement du détecteur de pieds de gerbe du calorimètre électromagnétique. Nous avons construit une méthode de calibration du détecteur au moyen de particules qui le traversent au minimum d'ionisation. Les résultats et les performances de ces calibrations sont discutées. Une méthode de discrimination des pi 0 et des photons de haute énergie est présentée, bénéficiant des mesures des caractéristiques des cascades électromagnétiques dans le PreShower et le calorimètre. Ces informations sont combinées dans une analyse multivariable. La stratégie de contrôle des performances du discriminateur directement à partir des données est discutée et cet outil est appliqué à la recherche des états finals B to hh pi 0. Une recherche similaire des modes de désintégration B{d,s} to KShh, où h peut être un pion ou un kaon chargé a été conduite. Ce mode de désintégration permet de mesurer la phase faible du mélange des mésons Bd ou Bs et la comparaison de ces déterminations avec celles extraites des modes charmonia peut permettre de mettre en évidence une phase faible au-delà du Modèle Standard dans l'amplitude de désintégration. La première étape de cette analyse consiste à établir les signaux des modes non encore observés B{s} to KShh. Ce travail exploratoire présente la première observation du mode B{s} to KSK pi. / This thesis describes an exploratory work on three-body charmless neutral $B$ mesons decays containing either a $K_S$ or a $\pi^0$. The events are reconstructed with the LHCb spectrometer installed at Cern (Geneva, CH) recording the proton-proton collisions delivered by the Large Hadron Collider (LHC). The phenomenology of such modes is rich and covers the possibility to measure all angles of the unitarity triangle linked to the Cabibbo-Kobayashi-Maskawa (CKM) matrix. The single example of the $\gamma$ measurement is explored in this document. The LHC accelerator and the most relevant sub-detector elements of the LHCb spectrometer are described in details. In particular, emphasis is given to the calorimetry system for which the calibration and alignment of the PreShower (PRS) of the electromagnetic calorimeter has been performed. We used particles at minimum ionisation deposit for such a task. The calibration results until year 2011 are reported as well as the method of the PS alignment with respect to the tracking system of the spectrometer. A method to discriminate high energy $\pi^0$ and photon is introduced, based on electromagnetic cascade information combined into a multivariate analysis. The strategy to evaluate the performance is given and the tool is applied to the exploratory search of $B \to hh\pi^0$ final states. Additionally, we conducted a similar search for the modes $B_{d,s} \to K_Shh$, where $h$ can be either a charged kaon or a pion. The physics reach of such modes lies in the possibility of measuring the $\beta$ and $\beta_s$ CKM angles to be compared to their charmonia extraction. Differences in between these two determinations can be the sign of New Physics. The first step of this search is to establish the unobserved modes $B_{s} \to K_Shh$. We report in a fifth of the data 2011 statistics the first observation of the decay channel $B_{s} \to K_SK\pi$.
|
425 |
Dynamic stochastic block models, clustering and segmentation in dynamic graphs / Modèles à bloques stochastiques dynamiques pour la classification et la segmentation des graphes dynamiquesCorneli, Marco 17 November 2017 (has links)
Cette thèse porte sur l’analyse de graphes dynamiques, définis en temps discret ou continu. Nous introduisons une nouvelle extension dynamique du modèle a blocs stochastiques (SBM), appelée dSBM, qui utilise des processus de Poisson non homogènes pour modéliser les interactions parmi les paires de nœuds d’un graphe dynamique. Les fonctions d’intensité des processus ne dépendent que des classes des nœuds comme dans SBM. De plus, ces fonctions d’intensité ont des propriétés de régularité sur des intervalles temporels qui sont à estimer, et à l’intérieur desquels les processus de Poisson redeviennent homogènes. Un récent algorithme d’estimation pour SBM, qui repose sur la maximisation d’un critère exact (ICL exacte) est ici adopté pour estimer les paramètres de dSBM et sélectionner simultanément le modèle optimal. Ensuite, un algorithme exact pour la détection de rupture dans les séries temporelles, la méthode «pruned exact linear time» (PELT), est étendu pour faire de la détection de rupture dans des données de graphe dynamique selon le modèle dSBM. Enfin, le modèle dSBM est étendu ultérieurement pour faire de l’analyse de réseau textuel dynamique. Les réseaux sociaux sont un exemple de réseaux textuels: les acteurs s’échangent des documents (posts, tweets, etc.) dont le contenu textuel peut être utilisé pour faire de la classification et détecter la structure temporelle du graphe dynamique. Le modèle que nous introduisons est appelé «dynamic stochastic topic block model» (dSTBM). / This thesis focuses on the statistical analysis of dynamic graphs, both defined in discrete or continuous time. We introduce a new extension of the stochastic block model (SBM) for dynamic graphs. The proposed approach, called dSBM, adopts non homogeneous Poisson processes to model the interaction times between pairs of nodes in dynamic graphs, either in discrete or continuous time. The intensity functions of the processes only depend on the node clusters, in a block modelling perspective. Moreover, all the intensity functions share some regularity properties on hidden time intervals that need to be estimated. A recent estimation algorithm for SBM, based on the greedy maximization of an exact criterion (exact ICL) is adopted for inference and model selection in dSBM. Moreover, an exact algorithm for change point detection in time series, the "pruned exact linear time" (PELT) method is extended to deal with dynamic graph data modelled via dSBM. The approach we propose can be used for change point analysis in graph data. Finally, a further extension of dSBM is developed to analyse dynamic net- works with textual edges (like social networks, for instance). In this context, the graph edges are associated with documents exchanged between the corresponding vertices. The textual content of the documents can provide additional information about the dynamic graph topological structure. The new model we propose is called "dynamic stochastic topic block model" (dSTBM).Graphs are mathematical structures very suitable to model interactions between objects or actors of interest. Several real networks such as communication networks, financial transaction networks, mobile telephone networks and social networks (Facebook, Linkedin, etc.) can be modelled via graphs. When observing a network, the time variable comes into play in two different ways: we can study the time dates at which the interactions occur and/or the interaction time spans. This thesis only focuses on the first time dimension and each interaction is assumed to be instantaneous, for simplicity. Hence, the network evolution is given by the interaction time dates only. In this framework, graphs can be used in two different ways to model networks. Discrete time […] Continuous time […]. In this thesis both these perspectives are adopted, alternatively. We consider new unsupervised methods to cluster the vertices of a graph into groups of homogeneous connection profiles. In this manuscript, the node groups are assumed to be time invariant to avoid possible identifiability issues. Moreover, the approaches that we propose aim to detect structural changes in the way the node clusters interact with each other. The building block of this thesis is the stochastic block model (SBM), a probabilistic approach initially used in social sciences. The standard SBM assumes that the nodes of a graph belong to hidden (disjoint) clusters and that the probability of observing an edge between two nodes only depends on their clusters. Since no further assumption is made on the connection probabilities, SBM is a very flexible model able to detect different network topologies (hubs, stars, communities, etc.).
|
426 |
Modèles de mélange et de Markov caché non-paramétriques : propriétés asymptotiques de la loi a posteriori et efficacité / Non Parametric Mixture Models and Hidden Markov Models : Asymptotic Behaviour of the Posterior Distribution and EfficiencyVernet, Elodie, Edith 15 November 2016 (has links)
Les modèles latents sont très utilisés en pratique, comme en génomique, économétrie, reconnaissance de parole... Comme la modélisation paramétrique des densités d’émission, c’est-à-dire les lois d’une observation sachant l’état latent, peut conduire à de mauvais résultats en pratique, un récent intérêt pour les modèles latents non paramétriques est apparu dans les applications. Or ces modèles ont peu été étudiés en théorie. Dans cette thèse je me suis intéressée aux propriétés asymptotiques des estimateurs (dans le cas fréquentiste) et de la loi a posteriori (dans le cadre Bayésien) dans deux modèles latents particuliers : les modèles de Markov caché et les modèles de mélange. J’ai tout d’abord étudié la concentration de la loi a posteriori dans les modèles non paramétriques de Markov caché. Plus précisément, j’ai étudié la consistance puis la vitesse de concentration de la loi a posteriori. Enfin je me suis intéressée à l’estimation efficace du paramètre de mélange dans les modèles semi paramétriques de mélange. / Latent models have been widely used in diverse fields such as speech recognition, genomics, econometrics. Because parametric modeling of emission distributions, that is the distributions of an observation given the latent state, may lead to poor results in practice, in particular for clustering purposes, recent interest in using non parametric latent models appeared in applications. Yet little thoughts have been given to theory in this framework. During my PhD I have been interested in the asymptotic behaviour of estimators (in the frequentist case) and the posterior distribution (in the Bayesian case) in two particuliar non parametric latent models: hidden Markov models and mixture models. I have first studied the concentration of the posterior distribution in non parametric hidden Markov models. More precisely, I have considered posterior consistency and posterior concentration rates. Finally, I have been interested in efficient estimation of the mixture parameter in semi parametric mixture models.
|
427 |
Modèle de mélange et modèles linéaires généralisés, application aux données de co-infection (arbovirus & paludisme) / Mixture model and generalized linear models, application to co-infection data (arbovirus & malaria)Loum, Mor Absa 28 August 2018 (has links)
Nous nous intéressons, dans cette thèse, à l'étude des modèles de mélange et des modèles linéaires généralisés, avec une application aux données de co-infection entre les arbovirus et les parasites du paludisme. Après une première partie consacrée à l'étude de la co-infection par un modèle logistique multinomial, nous proposons dans une deuxième partie l'étude des mélanges de modèles linéaires généralisés. La méthode proposée pour estimer les paramètres du mélange est une combinaison d'une méthode des moments et d'une méthode spectrale. Nous proposons à la fin une dernière partie consacrée aux mélanges de valeurs extrêmes en présence de censure. La méthode d'estimation proposée dans cette partie se fait en deux étapes basées sur la maximisation d'une vraisemblance. / We are interested, in this thesis, to the study of mixture models and generalized linear models, with an application to co-infection data between arboviruses and malaria parasites. After a first part dedicated to the study of co-infection using a multinomial logistic model, we propose in a second part to study the mixtures of generalized linear models. The proposed method to estimate the parameters of the mixture is a combination of a moment method and a spectral method. Finally, we propose a final section for studing extreme value mixtures under random censoring. The estimation method proposed in this section is done in two steps based on the maximization of a likelihood.
|
428 |
Photon-pair generation in hollow-core photonic-crystal fiber / Génération de paires de photons dans les fibres à cristaux photoniques à coeur creuxCordier, Martin 17 May 2019 (has links)
Les sources de paires de photons sont un composant essentiel des technologies émergentes en information quantique. De nombreux travaux ont permis des avancées importantes utilisant des processus non linéaires d'ordre 2 dans les cristaux et les guides d'ondes, et d'ordre 3 dans les fibres. Les limitations viennent dans le premier cas, des pertes et en particulier des pertes de couplage avec les fibres optiques et dans le second cas, du bruit dû à l'effet Raman dont le spectre est très large dans les fibres de silice. Ce projet propose une nouvelle architecture basée sur des fibres à cristal photonique à coeur creux (FCPCC) que l'on peut remplir de liquide ou de gaz non linéaire. Cette configuration permet la génération paramétrique de paires de photons corrélés par mélange à quatre ondes sans l'inconvénient de la diffusion Raman. Cette technologie offre une large gamme de paramètres à explorer en s'appuyant sur les propriétés physiques et linéaires contrôlables des FCPCC et la possibilité de remplissage de ces fibres avec des fluides aux propriétés non-linéaires variées. En effet, par une conception judicieuse de la FCPCC et un choix approprié du liquide ou du gaz, il est possible de (i) contrôler la dispersion et la transmission pour générer des photons corrélés sur une large gamme spectrale avec la condition d'accord de phase la plus favorable, (ii) d'ajuster la taille de coeur de la fibre et/ou sa forme pour augmenter sa non-linéarité ou son efficacité de couplage avec d'autres fibres et (iii) de s'affranchir totalement de l'effet Raman si on utilise par exemple un gaz monoatomique, ou d'obtenir des raies Raman fines, aisément discriminables des raies paramétriques dans le cas d'un liquide. / Photon pair sources are an essential component of the emerging quantum information technology. Despite ingenious proposals being explored in the recent years based on either second order nonlinear processes in crystals and waveguides or on third order processes in fibers, limitations remain, due to losses and specifically coupling losses in the former case and due to Raman generation in silica, giving rise to a broad spectrum noise in the latter. These limitations have been challenging to lift because of the limited alternative nonlinear materials that fulfil the conditions for the generation of bright and high fidelity photon pairs in integrable photonic structures. In the present project, we develop a new and versatile type of photonic architecture for quantum information applications that offers access to a variety of nonlinear optical materials that are micro-structured in optical fiber forms to generate photon pairs, without the drawback of Raman scattering and with a large design parameter-space. Indeed, with a careful design of the HCPCF along with the appropriate choice of fluid, one can (i) control the dispersion and the transmission to generate photons with the most favourable phase-matching condition over a large spectral range, (ii) adjust the fibre core size and/or shape to enhance nonlinearity or the coupling efficiency with other fibres, (iii) totally suppress the Raman effect in monoatomic gases for instance or have only narrow and separated Raman lines that can thus be easily separated from the useful parametric lines in liquids.
|
429 |
Fusion techniques for iris recognition in degraded sequences / Techniques de fusion pour la reconnaissance de personne par l’iris dans des séquences dégradéesOthman, Nadia 11 March 2016 (has links)
Parmi les diverses modalités biométriques qui permettent l'identification des personnes, l'iris est considéré comme très fiable, avec un taux d'erreur remarquablement faible. Toutefois, ce niveau élevé de performances est obtenu en contrôlant la qualité des images acquises et en imposant de fortes contraintes à la personne (être statique et à proximité de la caméra). Cependant, dans de nombreuses applications de sécurité comme les contrôles d'accès, ces contraintes ne sont plus adaptées. Les images résultantes souffrent alors de diverses dégradations (manque de résolution, artefacts...) qui affectent négativement les taux de reconnaissance. Pour contourner ce problème, il est possible d’exploiter la redondance de l’information découlant de la disponibilité de plusieurs images du même œil dans la séquence enregistrée. Cette thèse se concentre sur la façon de fusionner ces informations, afin d'améliorer les performances. Dans la littérature, diverses méthodes de fusion ont été proposées. Cependant, elles s’accordent sur le fait que la qualité des images utilisées dans la fusion est un facteur crucial pour sa réussite. Plusieurs facteurs de qualité doivent être pris en considération et différentes méthodes ont été proposées pour les quantifier. Ces mesures de qualité sont généralement combinées pour obtenir une valeur unique et globale. Cependant, il n'existe pas de méthode de combinaison universelle et des connaissances a priori doivent être utilisées, ce qui rend le problème non trivial. Pour faire face à ces limites, nous proposons une nouvelle manière de mesurer et d'intégrer des mesures de qualité dans un schéma de fusion d'images, basé sur une approche de super-résolution. Cette stratégie permet de remédier à deux problèmes courants en reconnaissance par l'iris: le manque de résolution et la présence d’artefacts dans les images d'iris. La première partie de la thèse consiste en l’élaboration d’une mesure de qualité pertinente pour quantifier la qualité d’image d’iris. Elle repose sur une mesure statistique locale de la texture de l’iris grâce à un modèle de mélange de Gaussienne. L'intérêt de notre mesure est 1) sa simplicité, 2) son calcul ne nécessite pas d'identifier a priori les types de dégradations, 3) son unicité, évitant ainsi l’estimation de plusieurs facteurs de qualité et un schéma de combinaison associé et 4) sa capacité à prendre en compte la qualité intrinsèque des images mais aussi, et surtout, les défauts liés à une mauvaise segmentation de la zone d’iris. Dans la deuxième partie de la thèse, nous proposons de nouvelles approches de fusion basées sur des mesures de qualité. Tout d’abord, notre métrique est utilisée comme une mesure de qualité globale de deux façons différentes: 1) comme outil de sélection pour détecter les meilleures images de la séquence et 2) comme facteur de pondération au niveau pixel dans le schéma de super-résolution pour donner plus d'importance aux images de bonnes qualités. Puis, profitant du caractère local de notre mesure de qualité, nous proposons un schéma de fusion original basé sur une pondération locale au niveau pixel, permettant ainsi de prendre en compte le fait que les dégradations peuvent varier d’une sous partie à une autre. Ainsi, les zones de bonne qualité contribueront davantage à la reconstruction de l'image fusionnée que les zones présentant des artéfacts. Par conséquent, l'image résultante sera de meilleure qualité et pourra donc permettre d'assurer de meilleures performances en reconnaissance. L'efficacité des approches proposées est démontrée sur plusieurs bases de données couramment utilisées: MBGC, Casia-Iris-Thousand et QFIRE à trois distances différentes. Nous étudions séparément l'amélioration apportée par la super-résolution, la qualité globale, puis locale dans le processus de fusion. Les résultats montrent une amélioration importante apportée par l'utilisation de la qualité globale, amélioration qui est encore augmentée en utilisant la qualité locale / Among the large number of biometric modalities, iris is considered as a very reliable biometrics with a remarkably low error rate. The excellent performance of iris recognition systems are obtained by controlling the quality of the captured images and by imposing certain constraints on users, such as standing at a close fixed distance from the camera. However, in many real-world applications such as control access and airport boarding these constraints are no longer suitable. In such non ideal conditions, the resulting iris images suffer from diverse degradations which have a negative impact on the recognition rate. One way to try to circumvent this bad situation is to use some redundancy arising from the availability of several images of the same eye in the recorded sequence. Therefore, this thesis focuses on how to fuse the information available in the sequence in order to improve the performance. In the literature, diverse schemes of fusion have been proposed. However, they agree on the fact that the quality of the used images in the fusion process is an important factor for its success in increasing the recognition rate. Therefore, researchers concentrated their efforts in the estimation of image quality to weight each image in the fusion process according to its quality. There are various iris quality factors to be considered and diverse methods have been proposed for quantifying these criteria. These quality measures are generally combined to one unique value: a global quality. However, there is no universal combination scheme to do so and some a priori knowledge has to be inserted, which is not a trivial task. To deal with these drawbacks, in this thesis we propose of a novel way of measuring and integrating quality measures in a super-resolution approach, aiming at improving the performance. This strategy can handle two types of issues for iris recognition: the lack of resolution and the presence of various artifacts in the captured iris images. The first part of the doctoral work consists in elaborating a relevant quality metric able to quantify locally the quality of the iris images. Our measure relies on a Gaussian Mixture Model estimation of clean iris texture distribution. The interest of our quality measure is 1) its simplicity, 2) its computation does not require identifying in advance the type of degradations that can occur in the iris image, 3) its uniqueness, avoiding thus the computation of several quality metrics and associated combination rule and 4) its ability to measure the intrinsic quality and to specially detect segmentation errors. In the second part of the thesis, we propose two novel quality-based fusion schemes. Firstly, we suggest using our quality metric as a global measure in the fusion process in two ways: as a selection tool for detecting the best images and as a weighting factor at the pixel-level in the super-resolution scheme. In the last case, the contribution of each image of the sequence in final fused image will only depend on its overall quality. Secondly, taking advantage of the localness of our quality measure, we propose an original fusion scheme based on a local weighting at the pixel-level, allowing us to take into account the fact that degradations can be different in diverse parts of the iris image. This means that regions free from occlusions will contribute more in the image reconstruction than regions with artefacts. Thus, the quality of the fused image will be optimized in order to improve the performance. The effectiveness of the proposed approaches is shown on several databases commonly used: MBGC, Casia-Iris-Thousand and QFIRE at three different distances: 5, 7 and 11 feet. We separately investigate the improvement brought by the super-resolution, the global quality and the local quality in the fusion process. In particular, the results show the important improvement brought by the use of the global quality, improvement that is even increased using the local quality
|
430 |
Etude numérique de l'écoulement de couche de mélange temporelle à viscosité variable / Numerical study of temporal mixing layer flow with variable viscosityTaguelmimt, Noureddine 19 November 2015 (has links)
Depuis les travaux pionniers de Brown et Roshko portant sur les effets des variations de masse volumique au sein de l’écoulement de couche de mélange, plusieurs autres études tant théoriques, expérimentales ou numériques se sont attelées à étudier finement cet écoulement. Les motivations sont d’ordre pratiques (industrie de la chimie, l’aérodynamique, la combustion . . .) ou alors purement théoriques (rôle des structures cohérentes, instabilités secondaires. . .). Ces études se sont intéressées, entre autres, aux effets de compressibilité et/ou de masse volumique variable. A notre connaissance, les effets des variations de viscosité dans la configuration de couche de mélange sont peu abordés dans la littérature. L’objectif de ces travaux de recherche est l’exploration théorique et numérique de l’écoulement de couche de mélange temporelle à viscosité variable, plus particulièrement durant sa phase initiale de développement. D’un point de vu numérique, les équations de Navier-Stokes sont résolues,en formulation faiblement compressible, au moyen du solveur CHOC-WAVES, basé sur le schéma WENO. L’approche DNS est justifiée par l’absence, dans la littérature, de modèles de sous-maille capables de prendre en compte les effets de la viscosité variable. Les équations de transport des différentes grandeurs moyennes et fluctuantes en un point et en chaque échelle (bilan d’énergie cinétique) sont réécrites en formulations incompressible et à viscosité variable. Des termes supplémentaires, engendrés par les variations spatio-temporelles de la viscosité, apparaissent dans ces équations. Celles-ci sont utilisées comme outil, afin d’explorer l’écoulement de couche de mélange et d’étudier le développement de la turbulence dans un milieu hétérogène. Les rapports de viscosité simulés sont Rv = [1−18]. Les résultats numériques montrent que l’épaisseur de la zone de mélange δθ évolue plus rapidement lorsque le rapport de viscosité Rv est élevé. De même, les gradients verticaux de la vitesse longitudinale sont amplifiés par les gradients de viscosité, un gain de près de 60%, par rapport aux valeurs initiales, est observé. La production de l’énergie cinétique turbulente est également amplifiée.L’évolution temporelle des fluctuations des vitesse est accélérée, celles-ci sont augmentées de près de 120% par rapport à l’écoulement à viscosité constante. Le régime autosimilaire du tenseur de Reynolds est atteint plus rapidement par l’écoulement à viscosité variable et l’isotropie des fluctuations de vitesse est améliorée. / Since the pioneering work of Brown and Roshko on the effects of density variations within the mixed layer flow, several other theoretical, experimental and numerical studies harnessed to finely investigate this flow. The motivations are of practical order (chemical industry, aerodynamics, combustion. . .) or purely theoretical (the role of coherent structures,secondary instabilities). These studies have focused on, among others, the effects of compressibility and/or variable density. To our knowledge, the effects of viscosity variations in the mixing layer configuration are not discussed in the literature. The objective of this researchis the theoretical and numerical exploration of the variable viscosity temporal mixedlayer flow, especially during its initial phase of development. From a numerical viewpoint, the Navier-Stokes equations are solved in weakly compressible formulation, using the solver CHOC-WAVES, based on WENO scheme. The DNS approach is justified by the absence in the literature of subgrid models that account for the effects of variable viscosity. The transport equations of different mean and fluctuating quantities at a point and each scale (scale-by-scale energy budget) are rewritten in incompressible and variable-viscosity formulation. Additional terms, generated by the spatial and temporal variations of viscosity occur in these equations. These are used as a tool to explore the mixed layer flow and study the development of turbulence in a heterogeneous environment. The simulated viscosity ratios are Rv = [1 − 18]. The numerical results show that the mixing layer thickness δθ growsfaster when the viscosity ratio Rv is high. The vertical gradients of the longitudinal mean velocity are amplified by the viscosity gradients, a gain of almost 60 %, compared to initial values was observed. The production of turbulent kinetic energy is also amplified. The temporal evolution of the velocity fluctuations is accelerated, they are increased to nearly 120 % with respect to the constant viscosity flow. The self-similar regime of the Reynolds tensor is reached more quickly by the variable viscosity flow and the isotropy of the velocity fluctuations is improved.
|
Page generated in 0.0451 seconds