• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 4
  • Tagged with
  • 18
  • 18
  • 10
  • 9
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Formation d'image : estimation du champ lumineux et matrice de filtres couleurs

Couillaud, Julien January 2012 (has links)
Dans ce mémoire de maîtrise de type recherche, nous discutons essentiellement de la formation d’image. Dans un premier chapitre, nous décrivons les modèles classiques de formation d'image. Nous commençons par une description de la lumière voyageant dans la scène pour arriver à l'image formée sur le capteur. Ensuite, nous critiquons ces modèles sur le fait que le capteur entraine une perte d’informations sur la structure de la scène. De plus, pour un point donné du plan image, tous les rayons provenant de la scène ne sont pas pris en compte pour la formation d'une image. Nous essayons alors de combler ces défauts en introduisant la notion de champ lumineux dans le deuxième chapitre. Nous décrivons le modèle des champs lumineux d'une scène. Ce dernier permet alors d'estimer le champ lumineux à partir d'une image à l'aide de deux méthodes : la méthode des moindres carrés et une méthode variationnelle. Celles-ci sont présentées dans le troisième chapitre. Enfin, dans un quatrième chapitre, nous abordons un autre aspect de la formation d'image. En effet, nous travaillons sur une nouvelle matrice de filtres couleurs (color filter arrays, CFA) que nous nommons CFA de Burtoni. Dans ce chapitre, nous comparons, selon une mesure d'aliasing et de résolution, ce CFA avec d'autres CFAs existant dans la littérature, sans faire appel au démosaïquage. Afin d'effectuer ces comparaisons, nous introduisons également des classes d'images correspondantes à différents contenus comme les textures, les zoneshomogènes et les lignes.
2

Approche variationnelle de la fatigue

Jaubert, André 24 March 2006 (has links) (PDF)
En adoptant un principe de moindre énergie, une énergie de surface de type Dugdale-Barenblatt et une condition d'irréversibilité, on construit un modèle de propagation de fissure opérant aussi bien sous chargement monotone que sous chargement cyclique. Plus précisément, à travers l'exemple du décollement d'un film mince, on montre tout d'abord qu'en utilisant une énergie de surface de Griffith, il est impossible de rendre compte du phénomène de fatigue. Par contre, avec une énergie de surface de type Barenblatt, on prouve que la solution du problème incrémental correspond au décollement progressif du film, cycle après cycle. Le nombre de cycles jusqu'à décollement total du film dépend des paramètres du problème. On étudie ensuite le décollement en fatigue lorsque la longueur caractéristique du modèle de Barenblatt est petite devant celle du film. On obtient alors une loi de fatigue limite qui contient à la fois la loi de propagation de Griffith sous chargement monotone et une loi de fatigue de type Paris sous chargement cyclique. Cette loi déduite de la minimisation d'énergie dépend à la fois de la structure, du matériau et du chargement. Lorsque l'on modifie la condition d'irréversibilité, l'énergie potentielle ou le type de chargement, on obtient d'autres lois de fatigue limites même si elles sont toujours du même type. Il s'agit enfin de mettre en évidence les propriétés de telles lois et de les étendre à des problèmes plus généraux.
3

Méthodes variationnelles d'ensemble itératives pour l'assimilation de données non-linéaire : Application au transport et la chimie atmosphérique / Iterative ensemble variational methods for nonlinear data assimilation : Application to transport and atmospheric chemistry

Haussaire, Jean-Matthieu 23 June 2017 (has links)
Les méthodes d'assimilation de données sont en constante évolution pour s'adapter aux problèmes à résoudre dans les multiples domaines d’application. En sciences de l'atmosphère, chaque nouvel algorithme a d'abord été implémenté sur des modèles de prévision numérique du temps avant d'être porté sur des modèles de chimie atmosphérique. Ce fut le cas des méthodes variationnelles 4D et des filtres de Kalman d'ensemble par exemple. La nouvelle génération d'algorithmes variationnels d'ensemble quadridimensionnels (EnVar 4D) ne fait pas exception. Elle a été développée pour tirer partie des deux approches variationnelle et ensembliste et commence à être appliquée au sein des centres opérationnels de prévision numérique du temps, mais n'a à ce jour pas été testée sur des modèles opérationnels de chimie atmosphérique.En effet, la complexité de ces modèles rend difficile la validation de nouvelles méthodes d’assimilation. Il est ainsi nécessaire d'avoir à disposition des modèles d’ordre réduit, qui doivent être en mesure de synthétiser les phénomènes physiques à l'{oe}uvre dans les modèles opérationnels tout en limitant certaines des difficultés liées à ces derniers. Un tel modèle, nommé L95-GRS, a donc été développé. Il associe la météorologie simpliste du modèle de Lorenz-95 à un module de chimie de l'ozone troposphérique avec 7 espèces chimiques. Bien que de faible dimension, il reproduit des phénomènes physiques et chimiques observables en situation réelle. Une méthode d'assimilation de donnée, le lisseur de Kalman d'ensemble itératif (IEnKS), a été appliquée sur ce modèle. Il s'agit d'une méthode EnVar 4D itérative qui résout le problème non-linéaire variationnel complet. Cette application a permis de valider les méthodes EnVar 4D dans un contexte de chimie atmosphérique non-linéaire, mais aussi de soulever les premières limites de telles méthodes.Fort de cette expérience, les résultats ont été étendus au cas d’un modèle réaliste de prévision de pollution atmosphérique. Les méthodes EnVar 4D, via l'IEnKS, ont montré leur potentiel pour tenir compte de la non-linéarité du modèle de chimie dans un contexte maîtrisé, avec des observations synthétiques. Cependant, le passage à des observations réelles d'ozone troposphérique mitige ces résultats et montre la difficulté que représente l'assimilation de données en chimie atmosphérique. En effet, une très forte erreur est associée à ces modèles, provenant de sources d'incertitudes variées. Deux démarches doivent alors être entreprises pour pallier ce problème.Tout d’abord, la méthode d’assimilation doit être en mesure de tenir compte efficacement de l’erreur modèle. Cependant, la majorité des méthodes sont développées en supposant au contraire un modèle parfait. Pour se passer de cette hypothèse, une nouvelle méthode a donc été développée. Nommée IEnKF-Q, elle étend l'IEnKS au cas avec erreur modèle. Elle a été validée sur un modèle jouet, démontrant sa supériorité par rapport à des méthodes d'assimilation adaptées naïvement pour tenir compte de l’erreur modèle.Toutefois, une telle méthode nécessite de connaître la nature et l'amplitude exacte de l'erreur modèle qu'elle doit prendre en compte. Aussi, la deuxième démarche consiste à recourir à des outils statistiques pour quantifier cette erreur modèle. Les algorithmes d'espérance-maximisation, de emph{randomize-then-optimize} naïf et sans biais, un échantillonnage préférentiel fondé sur l'approximation de Laplace, ainsi qu'un échantillonnage avec une méthode de Monte-Carlo par chaînes de Markov, y compris transdimensionnelle, ont ainsi été évalués, étendus et comparés pour estimer l'incertitude liée à la reconstruction du terme source des accidents des centrales nucléaires de Tchernobyl et Fukushima-Daiichi.Cette thèse a donc enrichi le domaine de l'assimilation de données EnVar 4D par ses apports méthodologiques et en ouvrant la voie à l’application de ces méthodes sur les modèles de chimie atmosphérique / Data assimilation methods are constantly evolving to adapt to the various application domains. In atmospheric sciences, each new algorithm has first been implemented on numerical weather prediction models before being ported to atmospheric chemistry models. It has been the case for 4D variational methods and ensemble Kalman filters for instance. The new 4D ensemble variational methods (4D EnVar) are no exception. They were developed to take advantage of both variational and ensemble approaches and they are starting to be used in operational weather prediction centers, but have yet to be tested on operational atmospheric chemistry models.The validation of new data assimilation methods on these models is indeed difficult because of the complexity of such models. It is hence necessary to have at our disposal low-order models capable of synthetically reproducing key physical phenomenons from operational models while limiting some of their hardships. Such a model, called L95-GRS, has therefore been developed. It combines the simple meteorology from the Lorenz-95 model to a tropospheric ozone chemistry module with 7 chemical species. Even though it is of low dimension, it reproduces some of the physical and chemical phenomenons observable in real situations. A data assimilation method, the iterative ensemble Kalman smoother (IEnKS), has been applied to this model. It is an iterative 4D EnVar method which solves the full non-linear variational problem. This application validates 4D EnVar methods in the context of non-linear atmospheric chemistry, but also raises the first limits of such methods.After this experiment, results have been extended to a realistic atmospheric pollution prediction model. 4D EnVar methods, via the IEnKS, have once again shown their potential to take into account the non-linearity of the chemistry model in a controlled environment, with synthetic observations. However, the assimilation of real tropospheric ozone concentrations mitigates these results and shows how hard atmospheric chemistry data assimilation is. A strong model error is indeed attached to these models, stemming from multiple uncertainty sources. Two steps must be taken to tackle this issue.First of all, the data assimilation method used must be able to efficiently take into account the model error. However, most methods are developed under the assumption of a perfect model. To avoid this hypothesis, a new method has then been developed. Called IEnKF-Q, it expands the IEnKS to the model error framework. It has been validated on a low-order model, proving its superiority over data assimilation methods naively adapted to take into account model error.Nevertheless, such methods need to know the exact nature and amplitude of the model error which needs to be accounted for. Therefore, the second step is to use statistical tools to quantify this model error. The expectation-maximization algorithm, the naive and unbiased randomize-then-optimize algorithms, an importance sampling based on a Laplace proposal, and a Markov chain Monte Carlo simulation, potentially transdimensional, have been assessed, expanded, and compared to estimate the uncertainty on the retrieval of the source term of the Chernobyl and Fukushima-Daiichi nuclear power plant accidents.This thesis therefore improves the domain of 4D EnVar data assimilation by its methodological input and by paving the way to applying these methods on atmospheric chemistry models
4

Calculs perturbatifs variationnellement améliorés en théorie des champs; calcul du spectre et contraintes sur le modèle supersymétrique standard

Kneur, Jean-Loic 16 June 2006 (has links) (PDF)
Je discute quelques activités récentes en deux parties indépendantes. La première partie décrit une technique de resommation particulière des séries perturbatives qui peut donner des résultats non-perturbatifs dans certains cas. On détaille quelques applications en théorie des champs et de la matière condensée. Dans la deuxième partie, on développe quelques activités récentes en phénoménologie du modèle supersymétrique standard minimal, concernant le calcul précis du spectre de masse des particules supersymétriques, le calcul de la densité relique de matière noire supersymétrique, et les contraintes théoriques et expérimentales actuelles qu'on peut en déduire sur certains modèles.
5

Etude asymptotique et multiplicité pour l'équation de Sobolev Poincaré

Dellinger, Marie 30 March 2007 (has links) (PDF)
Sur une variété riemanienne compacte de dimension supérieure à 3,<br />on considère une edp elliptique non linéaire à exposant critique particulière : l'équation de Sobolev Poincaré. D'une part, nous décrivons le comportement asymptotique d'une suite de solutions de cette équation grâce à une analyse fine de phénomènes de concentration. D'autre part, en imposant des invariances par des groupes d'isométries, nous montrons des résultats de multiplicité de solutions pour cette équation. Notre méthode permet aussi d'obtenir des multiplicités de solutions pour des équations plus classiques provenant du problème deYamabe et de Nirenberg, ainsi que <br /> pour des équations à exposants sur critiques. Notre travail est intimement lié à la description des meilleures constantes dans des inégalités fonctionnelles de Sobolev associées aux équations.
6

Contributions méthodologiques et appliquées à la méthode des modèles déformables

Pons, Jean-Philippe 18 November 2005 (has links) (PDF)
Les modèles déformables fournissent un cadre flexible pour traiter divers problèmes de reconstruction de forme en traitement d'images. Ils ont été proposés initialement pour la segmentation d'images, mais ils se sont aussi révélés adaptés dans de nombreux autres contextes en vision par ordinateur et en imagerie médicale, notamment le suivi de régions, la stéréovision, le "shape from shading" et la reconstruction à partir d'un nuage de points. Les éléments clés de cette méthodologie sont l'élaboration d'une fonctionnelle d'énergie, le choix d'une procédure de minimisation et d'une représentation géométrique. Dans cette thèse, nous abordons ces trois éléments, avec pour but d'élargir le champ d'application des modèles déformables et d'accroître leur performance. En ce qui concerne la représentation géométrique, nous venons à bout de la perte de la correspondance ponctuelle et de l'impossibilité de contrôler les changements de topologie avec la méthode des ensembles de niveau. Nous proposons deux applications associées dans le domaine de l'imagerie médicale: la génération de représentations dépliées du cortex cérébral avec préservation de l'aire, et la segmentation de plusieurs tissus de la tête à partir d'images par résonance magnétique anatomiques. En ce qui concerne la procédure de minimisation, nous montrons que la robustesse aux minima locaux peut être améliorée en remplaçant une descente de gradient traditionnelle par un flot de minimisation spatialement cohérent. Enfin, en ce qui concerne l'élaboration de la fonctionnelle d'énergie, nous proposons une nouvelle modélisation de la stéréovision multi-caméras et de l'estimation du mouvement tridimensionnel non-rigide, fondée sur un critère de mise en correspondance global et basé image.
7

Estimation de modèles de mélange probabilistes: une proposition pour un fonctionnement réparti et décentralise

Nikseresht, Afshin 22 October 2008 (has links) (PDF)
Cette th`ese traite de l'estimation statistique distribu ́e, avec la motivation de, et l'application `a l'indexation multim ́edia par le contenu. Les algorithmes et les donn ́ees de divers contributeurs coop ́ereront vers un apprentissage statistique collectif. La contribution est un arrangement pour estimer une densit ́e de probabilit ́e multivariable, dans le cas ou` cette densit ́e prend la forme d'un mod`ele de m ́elange gaussien. Dans ce cadre, l'agr ́egation des mod`eles probabilistes de m ́elanges gaussiens de la mˆeme classe, mais estim ́es `a plusieurs nœuds sur diff ́erents ensembles de donn ́ees, est une n ́ecessit ́e typique `a laquelle nous nous int ́eressons dans cette th`ese. Les approches propo- s ́ees pour la fusion de m ́elanges gaussiens exigent uniquement le calcul mod ́er ́e `a chaque nœud et peu de donn ́ees de transit entre les nœuds. Ces deux propri ́et ́es sont obtenues en agr ́egeant des mod`eles via leurs (peu) param`etres plutˆot que par les donn ́ees multim ́edia. Dans la premi`ere approche, en supposant que les m ́elanges sont estim ́es ind ́ependamment, nous propageons leurs param`etres de fa ̧con d ́ecentralis ́ee (gossip), dans un r ́eseau, et agr ́egeons les mod`eles `a partir des nœuds reli ́es entre eux, pour am ́eliorer l'estimation. Les mod`eles de m ́elange sont en fait concat ́en ́es puis r ́eduits `a un nombre appropri ́e de composants gaussiens. Une modification de la divergence de Kullback conduit `a un processus it ́eratif pour estimer ce mod`ele agr ́eg ́e. Afin d'ap- porter une am ́elioration, l'agr ́egation est r ́ealis ́ee par la mod ́elisation bay ́esienne du probl`eme de groupement de composant de mod`ele de m ́elange gaussien et est r ́esolue en utilisant la m ́ethode variationnelle, appliqu ́ee au niveau de composant. Cela permet de d ́eterminer, par un processus simple, peu couˆteux et pr ́ecis, les attributions des composants qui devraient ˆetre agr ́eg ́es et le nombre de composants dans le m ́elange apr`es l'agr ́egation. Comme seulement les param`etres du mod`ele sont ́echang ́es sur le r ́eseau, le calcul et la charge du r ́eseau restent tr`es mod ́er ́es.
8

Modèles de contours actifs pour la segmentation d'images et de vidéos

Gastaud, Muriel 06 December 2005 (has links) (PDF)
La segmentation en objets d'une image consiste à extraire de l'image des régions d'intérêt suivant un critère défini. Nous segmentons l'image par un algorithme de contours actifs dans le cadre d'une approche variationnelle. Partant d'un contour initial quelconque, le contour actif évolue, suivant une équation aux dérivées partielles. L'équation d'évolution du contour actif est déduite de la dérivation du critère. Au vu de la dépendance du critère à la région considérée, la dérivation du critère par rapport à la région n'est pas aisée. Nous utilisons des outils de dérivation empruntés à l'optimisation de domaine: les gradients de forme.<br />La contribution de cette thèse réside dans l'élaboration et l'étude de différents descripteurs de région. Pour chaque critère, nous calculons la dérivée du critère à l'aide des gradients de forme, et en déduisons l'équation d'évolution du contour actif.<br />Le premier descripteur définit un a priori géométrique sans contrainte paramétrique: il minimise la distance du contour actif à un contour de référence. Nous l'avons appliqué à la déformation de courbe, la segmentation et le suivi de cible.<br />Le deuxième descripteur caractérise le mouvement de l'objet par un modèle de mouvement. Le critère associé définit conjointement une région et son mouvement sur plusieurs images consécutives. Nous avons appliqué ce critère à l'estimation et la segmentation conjointe du mouvement et au suivi d'objets en mouvement.
9

Sur quelques problèmes elliptiques de type Kirchhoff et dynamique des fluides

Bensedik, Ahmed 07 June 2012 (has links) (PDF)
Cette thèse est composée de deux parties indépendantes. La première est consacrée à l'étude de quelques problèmes elliptiques de type de Kirchhoff de la forme suivante : -M(ʃΩNul² dx) Δu = f(x, u) xЄΩ ; u(x) = o xЄƋΩ où Ω cRN, N ≥ 2, f une fonction de Carathéodory et M une fonction strictement positive et continue sur R+. Dans le cas où la fonction f est asymptotiquement linéaire à l'infini par rapport à l'inconnue u, on montre, en combinant une technique de troncature et la méthode variationnelle, que le problème admet au moins une solution positive quand la fonction M est non décroissante. Et si f(x, u) = |u|p-1 u + λg(x), où p >0, λ un paramètre réel et g une fonction de classe C1 et changeant de signe sur Ω, alors sous certaines hypothèses sur M, il existe deux réels positifs λ. et λ. tels que le problème admet des solutions positives si 0 < λ <λ. et n'admet pas de solutions positives si λ > λ.. Dans la deuxième partie, on étudie deux problèmes soulevés en dynamique des fluides. Le premier est une généralisation d'un modèle décrivant la propagation unidirectionnelle dispersive des ondes longues dans un milieu à deux fluides. En écrivant le problème sous la forme d'une équation de point fixe, on montre l'existence d'au moins une solution positive. On montre ensuite sa symétrie et son unicité. Le deuxième problème consiste à prouver l'existence de la vitesse, la pression et la température d'un fluide non newtonien, incompressible et non isotherme, occupant un domaine borné, en prenant en compte un terme de convection. L'originalité dans ce travail est que la viscosité du fluide ne dépend pas seulement de la vitesse mais aussi de la température et du module du tenseur des taux de déformations. En se basant sur la notion des opérateurs pseudo-monotones, le théorème de De Rham et celui de point fixe de Schauder, l'existence du triplet, (vitesse, pression, température) est démontré
10

Wavelet-based multiscale simulation of incompressible flows / Simulation multi-échelle pour les écoulements incompressibles basée sur les ondelettes

Pinto, Brijesh 29 June 2017 (has links)
Cette thèse se concentre sur le développement d'une méthode précise et efficace pour la simulation des grandes échelles (LES) des écoulements turbulents. Une approche de la LES basée sur la méthode variationnelle multi-échelles (VMS) est considérée. La VMS applique aux équations de la dynamique des fluides une séparation d'échelles a priori sans recours à des hypothèses sur les conditions aux limites ou sur l'uniformité du maillage. Afin d'assurer effectivement une séparation d'échelles dans l'espace des nombres d'onde associé, nous choisissons d'utiliser les ondelettes de deuxième génération (SGW), une base polynomiale qui présente des propriétés de localisation spatiale-fréquence optimales. A partir de la séparation d'échelles ainsi réalisée, l'action du modèle sous-maille est limitée à un intervalle de nombres d'onde proche de la coupure spectrale. Cette approche VMS-LES basée sur les ondelettes est désignée par WAVVMS-LES. Elle est incorporée dans un solveur d'ordre élevé pour la simulation des écoulements incompressibles sur la base d'une méthode de Galerkin discontinue (DG-FEM) stabilisée pour la pression. La méthode est évaluée par réalisation de LES sur des maillages fortement sous-résolus pour le cas test du tourbillon de Taylor-Green 3D à deux nombres de Reynolds différents. / This thesis focuses on the development of an accurate and efficient method for performing Large-Eddy Simulation (LES) of turbulent flows. An LES approach based upon the Variational Multiscale (VMS) method is considered. VMS produces an a priori scale-separation of the governing equations, in a manner which makes no assumptions on the boundary conditions and mesh uniformity. In order to ensure that scale-separation in wavenumber is achieved, we have chosen to make use of the Second Generation Wavelets (SGW), a polynomial basis which exhibits optimal space-frequency localisation properties. Once scale-separation has been achieved, the action of the subgrid model is restricted to the wavenumber band closest to the cutoff. We call this approach wavelet-based VMS-LES (WAV-VMS-LES). This approach has been incorporated within the framework of a high-order incompressible flow solver based upon pressure-stabilised discontinuous Galerkin FEM (DG-FEM). The method has been assessed by performing highly under-resolved LES upon the 3D Taylor-Green Vortex test case at two different Reynolds numbers.

Page generated in 0.1225 seconds