• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 77
  • 11
  • 2
  • Tagged with
  • 211
  • 91
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Restauration d'images 3D de microscopie de fluorescence en présence d'aberrations optiques

Ben Hadj, SaÏma 17 April 2013 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la restauration d'image tridimensionnelle de microscopie de fluorescence. Deux difficultés majeures dans ce système d'imagerie sont traitées. La première est le flou variable en profondeur qui est dû aux aberrations induites par la variation des indices de réfraction dans le système optique et le spécimen imagé. La deuxième est le bruit qui est principalement dû au processus de comptage de photons. L'objectif de cette thèse est de réduire ces distorsions afin de fournir aux biologistes une image de meilleure qualité possible. Dans la première partie de cette thèse, nous étudions les modèles d'approximation du flou variable en profondeur et nous choisissons un modèle adéquat au problème d'inversion. Dans ce modèle, la réponse impulsionnelle (RI) variable en profondeur est approchée par une combinaison convexe d'un ensemble de RIs invariables spatialement. Nous développons pour ce modèle deux méthodes rapides de restauration non-aveugle par minimisation d'un critère régularisé, chacune d'elles est adaptée au type de bruit présent dans les images de microscopie confocale ou à champ large. Dans la deuxième partie, nous abordons le problème de restauration aveugle et proposons deux méthodes dans lesquelles le flou variable en profondeur et l'image sont conjointement estimés. Dans la première méthode, la RI est estimée en chaque voxel du volume considéré afin de laisser une grande liberté sur la forme de la RI, tandis que dans la deuxième méthode, la forme de la RI est contrainte par une fonction gaussienne afin de réduire le nombre de variables inconnues et l'espace des solutions possibles. Dans ces deux méthodes d'estimation aveugle, l'effet des aberrations optiques n'est pas efficacement estimé en raison du manque d'information. Nous améliorons ces méthodes d'estimation en alternant des contraintes dans les domaines fréquentiel et spatial. Des résultats sont montrés en simulation et sur des données réelles.
32

Apprentissage dans les espaces de grande dimension : Application à la caractérisation de tumeurs noires de la peau à partir d'images

Tenenhaus, Arthur 08 December 2006 (has links) (PDF)
L'objectif de la thèse est de définir les bases conceptuelles permettant de développer des méthodes efficaces et adaptées à la classification dans les espaces de grande dimension. Dans ce contexte, les méthodes à noyau s'avèrent particulièrement adaptées. En effet, au-delà de leurs propriétés de régularisation - régularisation de type Tikhonov (Régression Ridge, Support Vector Machines, ... ) ou réduction de dimension (Partial Least Squares, Régression sur Composantes Principales,...) – elles offrent des avantages algorithmiques majeurs lorsque la dimension des données est supérieure au nombre d'observations. Ces méthodes ont fait l'objet d'une étude approfondie à la fois du point de vue théorique et appliqué dans les deux premiers chapitres de la thèse.<br /><br />Les deux chapitres suivants proposent de nouvelles méthodes, découlant de cette étude. Elles se fondent sur des principes de réduction de dimension supervisée en se focalisant principalement sur la régression PLS, particulièrement bien adaptée à la gestion de données de grande dimension. Il s'agissait de concevoir des algorithmes de classification s'appuyant sur les principes algorithmiques de la régression PLS. Nous avons proposé, la Kernel Logistic PLS, modèle de classification nonlinéaire et binaire basé à la fois sur la construction de variables latentes et sur des transformations du type Empirical Kernel Map. Nous avons étendu la KL-PLS au cas où la variable à prédire est polytomique donnant naissance à la Kernel Multinomial Logistic PLS regression.<br />Enfin dans les deux derniers chapitres, nous avons appliqué ces méthodes à de nombreux domaines, notamment en analyse d'images. Nous avons ainsi contribué au développement d'une application en vraie grandeur dans le domaine médical en élaborant un outil d'aide au diagnostic de tumeurs noires de la peau à partir d'images.
33

Algorithme de chemin de régularisation pour l'apprentissage statistique

Zapien - Durand-Viel, Karina 09 July 2009 (has links) (PDF)
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de " complexité". Dans ce cadre, le processus de sélection de modèle revient 'a trouver la " complexité " optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L'approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une " grille ". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type " réduction de dimension ". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
34

Étude mathématique et numérique d'équations hyperboliques non-linéaires : couplage de modèles et chocs non classiques.

Boutin, Benjamin 27 November 2009 (has links) (PDF)
Cette thèse concerne l'étude mathématique et numérique d'équations aux dérivées partielles hyperboliques non-linéaires. Une première partie traite d'une problématique émergente: le couplage d'équations hyperboliques. Les applications poursuivies relèvent du couplage mathématique de plateformes de calcul, en vue d'une simulation adaptative de phénomènes multi-échelles. Nous proposons et analysons un nouveau formalisme de couplage construit sur des systèmes EDP augmentés permettant de s'affranchir de la description géométrique des frontières. Ce nouveau formalisme permet de poser le problème en plusieurs variables d'espace en autorisant l'éventuel recouvrement des modèles à coupler. Ce formalisme autorise notamment à munir la procédure de couplage de mécanismes de régularisation visqueuse utiles à la sélection de solutions discontinues naturelles. Nous analysons alors les questions d'existence et d'unicité dans le cadre d'une régularisation parabolique autosemblable. L'existence est acquise sous des conditions très générales mais de multiples solutions sont susceptibles d'apparaître dès que le phénomène de résonance survient. Ensuite, nous montrons que notre formalisme de couplage à l'aide de modèles EDP augmentés autorise une autre stratégie de régularisation basée sur l'épaississement des interfaces. Nous établissons dans ce cadre l'existence et l'unicité des solutions au problème de Cauchy pour des données initiales $L^\infty$. À cette fin, nous développons une technique de volumes finis sur des triangulations générales que nous analysons dans la classe des solutions à valeurs mesures entropiques de DiPerna. La seconde partie est consacrée à la définition d'un schéma de volumes finis pour l'approximation des solutions non classiques d'une loi de conservation scalaire basée sur une relation cinétique. Ce schéma présente la particularité d'être stricto sensu conservatif contrairement à une approche à la Glimm qui ne l'est que statistiquement. Des illustrations numériques étayent le bien-fondé de notre approche.
35

Analyse statistique de la pauvreté et des inégalités

Diouf, Mame Astou January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
36

Problèmes d'identification paramétrique : vers des approches multiéchelles

Puel, Guillaume 22 November 2013 (has links) (PDF)
L'objectif de ce travail est d'apporter une contribution à la résolution des problèmes d'identification paramétrique, notamment lorsque ces paramètres sont des fonctions de l'espace et/ou du temps. Dans un premier temps, nous nous intéressons au cadre de l'identification paramétrique de modèles régis par des équations différentielles ordinaires. Ceci est l'occasion de proposer une démarche de base de résolution du problème inverse, utilisant la solution d'un problème d'état adjoint. Deux exemples issus du domaine de la simulation multicorps et proposant l'utilisation de données expérimentales transitoires permettent d'illustrer le bien-fondé de cette démarche ainsi que d'exposer quelques pistes de régularisation spécifiques. Dans un deuxième temps, l'identification de champs spatiaux de paramètres est abordée. Les problèmes s'inscrivant dans ce cadre sont alors régis par des équations aux dérivées partielles, et il devient nécessaire d'avoir accès à des données expérimentales les plus riches possibles, telles que celles que peuvent offrir les techniques de mesures de champs. Pour résoudre ce type de problème inverse, nous adjoignons à la démarche présentée précédemment une recherche du champ spatial de paramètres effectuée à l'aide d'un maillage spécifique, initialement grossier, et progressivement raffiné selon des techniques d'adaptation de maillage. Ceci permet alors de développer une stratégie adaptative d'identification, dont les propriétés de régularisation facilitent la résolution du problème inverse, et qui laisse entr'apercevoir des possibilités d'extensions multiéchelles. Dans un dernier temps, nous présentons enfin une approche complètement multiéchelle, dans le cadre peu répandu de l'homogénéisation périodique en temps. Cette dernière permet d'aborder de façon efficace la simulation de l'évolution "lente" d'un système soumis à des sollicitations cycliques "rapides". Nous proposons alors sur un exemple quelques investigations autour d'une formulation du problème d'identification paramétrique adaptée à ce cadre multiéchelle.
37

High-order extension of the recursive regularized lattice Boltzmann method / Extension d'ordre élevée pour les méthodes Boltzmann sur réseau régularisées par récurrence

Coreixas, Christophe Guy 22 February 2018 (has links)
Ce manuscrit est consacré au développement et à la validation d'un nouveau modèle de collision destiné à améliorer la stabilité des modèles lattice Boltzmann (LB) d'ordre élevés lors de la simulation d'écoulements : (1) isothermes et faiblement compressibles à nombre de Reynolds élevés, ou (2) compressibles et comprenant des discontinuités telles que des ondes de choc. Ce modèle de collision s'appuie sur une étape de régularisation améliorée. Cette dernière inclut désormais un calcul par récurrence des coefficients hors-équilibre du développement en polynômes d'Hermite. Ces formules de récurrence sont directement issues du développement de Chapman-Enskog, et permettent de correctement filtrer les contributions non-hydrodynamiques émergeant lors de l'utilisation de maillages sous-résolus. Cette approche est d'autant plus intéressante quelle est compatible avec un grand nombre de réseaux de vitesses discrètes. Ce modèle LB d'ordre élevé est validé tout d'abord pour des écoulements isothermes à nombre de Reynolds élevé. Un couplage avec une technique de capture de choc permet ensuite d'étendre son domaine de validité aux écoulements compressibles incluant des ondes de choc. Ce travail se conclut avec une étude de stabilité linéaire des modèles considérés, le tout dans le cas d'écoulements isothermes. Ceci permet de quantifier de manière distincte l'impact des discrétisations en vitesse et numérique, sur le comportement spéctrale du jeu d'équations associé. Cette étude permet au final de confirmer le gain en stabilité induit par le nouveau modèle de collision. / This thesis is dedicated to the derivation and the validation of a new collision model as a stabilization technique for high-order lattice Boltzmann methods (LBM). More specifically, it intends to stabilize simulations of: (1) isothermal and weakly compressible flows at high Reynolds numbers, and (2) fully compressible flows including discontinuities such as shock waves. The new collision model relies on an enhanced regularization step. The latter includes a recursive computation of nonequilibrium Hermite polynomial coefficients. These recursive formulas directly derive from the Chapman-Enskog expansion, and allow to properly filter out second- (and higher-) order nonhydrodynamic contributions in underresolved conditions. This approach is even more interesting since it is compatible with a very large number of velocity sets. This high-order LBM is first validated in the isothermal case, and for high-Reynolds number flows. The coupling with a shock-capturing technique allows to further extend its validity domain to the simulation of fully compressible flows including shockwaves. The present work ends with the linear stability analysis(LSA) of the new approach, in the isothermal case. This leads to a proper quantification of the impact induced by each discretization (velocity and numerical) on the spectral properties of the related set of equations. The LSA of the recursive regularized LBM finally confirms the drastic stability gain obtained with this new approach.
38

Sparsity regularization and graph-based representation in medical imaging / La régularisation parcimonieuse et la représentation à base de graphiques dans l'imagerie médicale

Gkirtzou, Aikaterini 17 December 2013 (has links)
Les images médicales sont utilisées afin de représenter l'anatomie. Le caractère non- linéaire d'imagerie médicale rendent leur analyse difficile. Dans cette thèse, nous nous intéressons à l'analyse d'images médicales du point de vue de la théorie statistique de l'apprentissage. Tout d'abord, nous examinons méthodes de régularisation. Dans cette direction, nous introduisons une nouvelle méthode de régularisation, la k-support regularized SVM. Cet algorithme étend la SVM régularisée `1 à une norme mixte de toutes les deux normes `1 et `2. Ensuite, nous nous intéressons un problème de comparaison des graphes. Les graphes sont une technique utilisée pour la représentation des données ayant une structure héritée. L'exploitation de ces données nécessite la capacité de comparer des graphes. Malgré le progrès dans le domaine des noyaux sur graphes, les noyaux sur graphes existants se concentrent à des graphes non-labellisés ou labellisés de façon discrète, tandis que la comparaison de graphes labellisés par des vecteurs continus, demeure un problème de recherche ouvert. Nous introduisons une nouvelle méthode, l'algorithme de Weisfeiler-Lehman pyramidal et quantifié afin d'aborder le problème de la comparaison des graphes labellisés par des vecteurs continus. Notre algorithme considère les statistiques de motifs sous arbre, basé sur l'algorithme Weisfeiler-Lehman ; il utilise une stratégie de quantification pyramidale pour déterminer un nombre logarithmique de labels discrets. Globalement, les graphes étant des objets mathématiques fondamentaux et les méthodes de régularisation étant utilisés pour contrôler des problèmes mal-posés, notre algorithmes pourraient appliqués sur un grand éventail d'applications. / Medical images have been used to depict the anatomy or function. Their high-dimensionality and their non-linearity nature makes their analysis a challenging problem. In this thesis, we address the medical image analysis from the viewpoint of statistical learning theory. First, we examine regularization methods for analyzing MRI data. In this direction, we introduce a novel regularization method, the k-support regularized Support Vector Machine. This algorithm extends the 1 regularized SVM to a mixed norm of both `1 and `2 norms. We evaluate our algorithm in a neuromuscular disease classification task. Second, we approach the problem of graph representation and comparison for analyzing medical images. Graphs are a technique to represent data with inherited structure. Despite the significant progress in graph kernels, existing graph kernels focus on either unlabeled or discretely labeled graphs, while efficient and expressive representation and comparison of graphs with continuous high-dimensional vector labels, remains an open research problem. We introduce a novel method, the pyramid quantized Weisfeiler-Lehman graph representation to tackle the graph comparison problem for continuous vector labeled graphs. Our algorithm considers statistics of subtree patterns based on the Weisfeiler-Lehman algorithm and uses a pyramid quantization strategy to determine a logarithmic number of discrete labelings. We evaluate our algorithm on two different tasks with real datasets. Overall, as graphs are fundamental mathematical objects and regularization methods are used to control ill-pose problems, both proposed algorithms are potentially applicable to a wide range of domains.
39

Modélisation du comportement, de l'endommagement et de la rupture de matériaux composites à renforts tissés pour le dimensionnement robuste de structures

Marcin, Lionel 29 January 2010 (has links)
De par leur bonne tenue à l’impact, les matériaux composites tissés sont de bons candidats pour la conception de pièces aéronautiques. Toutefois, le manque de confiance dans les modèles se traduit par de lourdes campagnes expérimentales. L’augmentation de la part de simulation numérique et donc la réduction des coûts de certification passent par le développement d’outils permettant de dimensionner au plus juste les structures composites tissées à matrice organique (CMO) ou céramique (CMC). C’est dans ce cadre que s’inscrit cette thèse. Les formulations proposées par l’Onera a?n de décrire l’e?et de l’endommagement matriciel ont été adaptées et étendues pour prendre en compte les spéci?cités des matériaux de notre étude, en particulier la viscosité pour les CMO. Des essais sur pièces génériques ont été simulés et confrontés à l’expérience dans le but d’évaluer la pertinence des modèles développés. Ces comparaisons en partie validantes ont mis en évidence les limites des modèles dans le cadre de l’analyse de la tenue d’une structure présentant un gradient de contrainte. A?n d’améliorer les prévisions des simulations, les effets de la rupture progressive ont été pris en compte dans les formulations. Pour s’affranchir de la localisation numérique de l’endommagement, une approche originale de régularisation couplant modélisation non locale de l’endommagement et taux d’endommagement limité a été développée. Les confrontations essai/calcul ont mis en évidence l’apport d’une modélisation plus ?ne des mécanismes d’endommagement et de rupture sur l’étude de la tenue de la structure. Compte tenu des nombreuses sources d’incertitudes, quelle confiance accorder à la simulation ? Pour répondre à cette question, l’effet des incertitudes sur des quantités d’intérêts (contrainte à rupture) a été évalué. Par ailleurs, une analyse de sensibilité (décomposition de variance) a été entreprise pour l’étude de faisabilité d’une démarche de capitalisation. Dans l’optique d’une démarche d’analyse de la tolérance aux défauts, l’efficacité de notre approche à traiter diverses singularités (taille, forme) est démontrée. En?n, les limites de la modélisation macroscopique sont discutées. / Due to their high specific properties, the use of woven composite materials has become an important commercial issue in the aeronautical applications. However, the lack of confidence in classic simulation tools used for design and conception of new structures leads to huge experimental campaigns. The increase of simulations and so the decrease of certification costs requires tools development allowing a more accurate design of woven composite structures with polymer (PMC) or ceramic matrix (CMC). This present thesis is focused on that point. The current formulations are extensions of the damage approach developed at Onera to describe matrix damage. Particularly, the nonlinearity due to viscosity for PMC is taken into account. Various structural tests on generic parts has been simulated and compared to experimental results in order to evaluate the efficiency of the models. The simulations are in good agreement with the experiments except for structure with high stress gradient. In order to improve the simulations accuracy, the effect of progressive failures are introduced. To avoid the numerical problems such as damage localization or mesh sensitivity associated with the softening behavior, an original method coupling delay effect and non local approach is proposed. A good agreement between experimental and finite element calcultion results was shown. Given many uncertainties, how much can the simulation be trusted ? In order to answer this question, the influence of uncertainties on given quantities of interest (stress failure for example) has been evaluated. Moreover, a sensivity analysis has been performed for the study of an experiment capitalisation approach. In the prospect of a reliable damage tolerance analysis, the efficiency of our approach to deal with various singularities (size, form) is shown. The limits of a macroscopic modelling are ?nally discussed.
40

Investigation of the applicability of the lattice Boltzmann method to free-surface hydrodynamic problems in marine engineering / Étude de l’applicabilité de la méthode de Boltzmann sur réseau aux problèmes hydrodynamiques à surface libre du génie maritime

Cao, Weijin 08 April 2019 (has links)
La simulation numérique des écoulements à surface libre pour les applications du génie maritime est un problème qui présente de grands défis dans le domaine de la dynamique des fluides numérique (CFD). On propose dans cette thèse une solution, qui consiste à utiliser la méthode de Boltzmann sur réseau régularisée (RLBM) avec un modèle de surface libre basé sur le volume-de-fluide (VOF), et on étudie sa faisabilité et sa fiabilité. Les connaissances théoriques de la méthode de Boltzmann sur réseau (LBM) sont présentées dans un premier temps, sur la base d'un développement polynomial d'Hermite et d'une analyse de Chapman-Enskog. De cette perspective, l’idée de la RLBM se résume comme étant la régularisation d'Hermite des fonctions de distribution. Dans les cas tests suivants du vortex de Taylor-Green et de la cavité entraînée, il est vérifié que la RLBM posse possède une précision de second ordre et une stabilité améliorée. On a alors ensuite implémenté le modèle de surface libre dans la RLBM. Sur la simulation d'une onde de gravité visqueuse stationnaire et d'un écoulement de dambreak, il est montré que la régularisation stabilise fortement le calcul en réduisant les oscillations de pression, ce qui est très bénéfique pour obtenir des écoulements à surface libre précis, et que la RLBM n'introduit pas non plus de dissipation numérique supplémentaire. De plus, une nouvelle méthode de reconstruction des fonctions de distribution à la surface libre est proposée. Le modèle proposé est ainsi plus consistent avec la RLBM, ce qui offre un moyen efficace pour simuler des écoulements à surface libre à un grand nombre de Reynolds en génie maritime. / The numerical simulation of the freesurface flows for marine engineering applications is a very challenging issue in the field of computational fluid dynamics (CFD). In this thesis, we propose a solution, which is to use the regularized lattice Boltzmann method (RLBM) with a volume-of-fluid (VOF) based single-phase free-surface lattice Boltzmann (LB) model, and we investigate its feasibility and its reliability. The theoretical insights of the lattice Boltzmann method (LBM) are given at first, through the Hermite expansion and the Chapman-Enskog analysis. From this perspective, the idea of the RLBM is summarized as the Hermite regularization of the distribution functions. On the test-cases of the Taylor-Green vortex and the lid-driven cavity flow, the RLBM is verified to have a 2nd-order accuracy and an improved stability. The adopted free-surface model is then implemented into the RLBM and validated through simulating a viscous standing wave and a dambreak flow problems. It is shown that the regularization not only strongly stabilizes the calculation by reducing spurious pressure oscillations, which is very beneficial for obtaining accurate free-surface motions, but also does not introduce any extra numerical dissipation. Furthermore, a new reconstruction method for the distribution functions at the free-surface is proposed. The present model is more consistent with the RLBM, which provides an effective way for simulating high-Reynoldsnumber free-surface flows in marine engineering.

Page generated in 0.1497 seconds