• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 12
  • 1
  • Tagged with
  • 26
  • 12
  • 10
  • 10
  • 6
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Bases mixtes ondelettes-gaussiennes pour le calcul de structures électroniques / Galerkin method using optimized wavelet-Gaussian mixed bases for electronic structure calculations in quantum chemistry

Pham, Dinh Huong 30 June 2017 (has links)
Cette thèse apporte une contribution aux méthodes numériques pour la simulation moléculaire ab initio, et plus spécifiquement pour le calcul de structures électroniques par l’équation de Schrödinger, ou par des formalismes comme la théorie de Hartree-Fock ou la théorie de la fonctionnelle de la densité. Elle propose une stratégie pour construire des bases mixtes ondelettes-gaussiennes dans l’approximation de Galerkin, combinant les qualités respectives de ces deux types de bases avec l’objectif de mieux capturer les points de rebroussement de la fonction d’onde. Les nombreux logiciels actuellement disponibles à l’usage des chimistes dans ce domaine (VASP, Gaussian, ABINIT...) se différencient par divers choix méthodologiques, notamment celui des fonctions de base pour exprimer les orbitales atomiques. Nouvel arrivant sur le marché, le code massivement parallèle BigDFT a opté pour les bases d’ondelettes. Comme le nombre de niveaux de résolution y est limité pour des raisons de performance,ces fonctions ne peuvent déployer pleinement leur puissance. La question posée est alors de savoir comment accroître la précision des calculs tous électrons au voisinage des singularités de type cusp de la solution, sans augmenter excessivement la complexité de BigDFT. La réponse que nous suggérons consiste à enrichir la base de fonctions d’échelles (niveau de résolution bas des bases d’ondelettes) par des fonctions gaussiennes centrées sur chaque position de noyau. La difficulté principale dans la construction d’une telle base mixte réside dans la détermination optimale du nombre de gaussiennes requises et de leurs écarts-types, de sorte que ces gaussiennes supplémentaires soient le mieux possible compatibles avec la base existante sous la contrainte d’un seuil d’erreur donné à l’avance. Nous proposons pour cela l’utilisation conjointe d’un estimateur a posteriori sur la diminution du niveau d’énergie et d’un algorithme glouton, ce qui aboutit à une suite incrémentale quasi-optimale de gaussiennes supplémentaires. Cette idée est directement inspirée des techniques de bases réduites. Nous développons les fondements théoriques de cette stratégie sur deux modèles 1-D linéaires qui sont des simplifications de l’équation de Schrödinger pour un électron,posée en domaine infini ou domaine périodique. Ces modèles prototypes sont étudiés en profondeur dans la première partie. La définition de l’estimateur a posteriori de type norme duale du résidu, ainsi que la déclinaison de la philosophie glouton en différents algorithmes concrets, sont présentées en seconde partie, accompagnées de résultats numériques. Les algorithmes proposés vont dans le sens d’une économie croissante du temps de calcul.Ils sont aussi de plus en plus empiriques, au sens où ils reposent de plus en plus sur les intuitions avec lesquelles les chimistes sont familiers. En particulier, le dernier algorithme pour plusieurs noyaux s’appuie en partie sur la validité du transfert atome/molécule et rappelle dans une certaine mesure les bases d’orbitales atomiques. / This thesis aims to be a contribution to numerical methods for ab initio molecular simulation, and more specifically for electronic structure calculations by means of the Schrödingerequation or formalisms such as the Hartree-Fock theory or the Density Functional Theory. It puts forward a strategy to build mixed wavelet-Gaussian bases for the Galerkinapproximation, combining the respective advantages of these two types of bases in orderto better capture the cusps of the wave function.Numerous software programs are currently available to the chemists in this field (VASP,Gaussian, ABINIT... ) and differ from each other by various methodological choices,notably that of the basis functions used for expressing atomic orbitals. As a newcomer tothis market, the massively parallel BigDFT code has opted for a basis of wavelets. Dueto performance considerations, the number of multiresolution levels has been limited andtherefore users cannot benefit from the full potential of wavelets. The question is thus howto improve the accuracy of all-electron calculations in the neighborhood of the cusp-typesingularities of the solution, without excessively increasing the complexity of BigDFT.The answer we propose is to enrich the scaling function basis (low level of resolutionof the wavelet basis) by Gaussian functions centered on each nucleus position. The maindifficulty in constructing such a mixed basis lies in the optimal determination of the numberof Gaussians required and their standard deviations, so that these additional Gaussiansare compatible in the best possible way with the existing basis within the constraint of anerror threshold given in advance. We advocate the conjunction of an a posteriori estimateon the diminution of the energy level and a greedy algorithm, which results in a quasi-optimal incremental sequence of additional Gaussians. This idea is directly inspired bythe techniques of reduced bases.We develop the theoretical foundations of this strategy on two 1-D linear models thatare simplified versions of the Schrödinger equation for one electron in an infinite domainor a periodic domain. These prototype models are investigated in depth in the firstpart. The definition of the a posteriori estimate as a residual dual norm, as well as theimplementation of the greedy philosophy into various concrete algorithms, are presented inthe second part, along with extensive numerical results. These algorithms allow for moreand more saving of CPU time and become more and more empirical, in the sense thatthey rely more and more on the intuitions with which chemists are familiar. In particular,the last proposed algorithm partly assumes the validity of the atom/molecule transfer andis somehow reminiscent of atomic orbitals bases.
2

Modélisation et optimisation numérique pour la reconstruction d'un polyèdre à partir de son image gaussienne généralisée

Zouaki, Hamid 04 July 1991 (has links) (PDF)
On présente un algorithme, pour retrouver la représentation surfacique d'un polyèdre convexe a partir de la donnée de son image gaussienne généralisée, notée e.g.i. Cet algorithme base sur un théorème de Minkowski, est du a J. J. Little (1983). Cette reconstruction d'un polyèdre a partir de son e.g.i., se fera via la resolution d'un probleme d'optimisation convexe. Après avoir défini l'e.g.i. Comme mode de représentation d'objets convexes, ainsi que les propriétés qu'elle possède, nous détaillons la methode de reconstruction. Des améliorations sont introduites, allant dans le sens de rendre l'algorithme suffisamment efficace. Le schéma général de l'algorithme est présenté, avec des commentaires sur le traitement numérique. Enfin, quelques exemples sont fournis, pour illustrer la methode
3

Modélisation physique du procédé de découpe de métaux par laser

Mas, Cédric 24 April 2003 (has links) (PDF)
Ce travail de thèse développe un modèle physique de découpe de métaux par laser. Le procédé complet est divisé en une série de processus élémentaires qui s'étend de la propagation de faisceaux laser gaussiens jusqu'à l'évacuation du métal fondu sous l'action de cisaillement du gaz de découpe. L'ensemble des processus élémentaires est alors unifié au sein d'un modèle stationnaire 2D, « auto-consistant », fournissant la géométrie du front avant de la saignée de découpe. Les comparaisons entre résultats de simulation et expériences de « découpe pure » fournissent de très bonnes corrélations. Par ailleurs, des expériences complémentaires semblent indiquer que l'absorptivité réelle est d'environ 20% supérieure à celle prédite par le modèle de Drude et les équations de Fresnel. La non-planéité et la non-stationnarité du front d'absorption peuvent justifier une telle augmentation. Finalement, nous ouvrons les perspectives en présentant un modèle 3D de la géométrie de la saignée de découpe. Nous abordons la découpe laser sous oxygène et finissons par une approche des stries de découpe.
4

Détection de Contours et Diffusion Anisotropique dans les Images

Magnier, Baptiste 12 December 2011 (has links) (PDF)
Ce mémoire de thèse est consacré à la détection anisotrope de contours et à la diffusion anisotropique dans les images qui utilisent des demi-filtres gaussiens. Ces demi-filtres parcourent toutes les orientations possibles autour d'un pixel avec un pas de discrétisation choisi. A partir de demi-filtres orientés de dérivées de gaussiennes anisotropes, une nouvelle approche de détection de bords dans les images couleurs a été développée. Puisque le filtre est allongé et fin, cette méthode permet d'extraire les contours des larges structures mais également des petits objets, même en présence de bruit. Les courbes gamma mettent en évidence des parties sombres ou sur-éclairées d'une image. L'utilisation combinée de ces demi-filtres et des courbes gamma apporte une robustesse supplémentaire au filtre puisqu'il est capable d'extraire les bords des objets, même dans les parties sous et sur-exposées d'une image. Le deuxième travail dans cette thèse concerne l'extraction de lignes de crêtes dans les images à partir de différence de deux demi-gaussiennes anisotropiques. Cette nouvelle méthode rend très précise la détection de ce type de contours même au niveau des lignes fortement courbées ou coudées. De plus, l'utilisation de demi-filtres apporte une information supplémentaire au niveau des jonctions qui correspondent aux maxima locaux. Enfin, le dernier thème de cette thèse est dédié à la diffusion anisotropique dans les images. Ainsi, trois nouveaux schémas de régularisation ont été développés dont deux pour supprimer les textures et un pour le débruitage. Ce dernier schéma donne des résultats intéressants, même dans des images en couleurs fortement bruitées.
5

Opérateurs de Schrödinger et transformée de Riesz sur les variétés complètes non-compactes

Devyver, Baptiste 01 July 2011 (has links) (PDF)
Dans une première partie, on donne une condition nécessaire et suffisante à ce qu'un opérateur de Schrödinger sur une variété complète non-compacte ait un nombre fini de valeurs propres négatives. Dans une deuxième partie, on s'intéresse à la transformée de Riesz sur une classe de variétés complètes non-compactes vérifiant une inégalité de Sobolev. On montre d'abord une estimée gaussienne pour le noyau de la chaleur d'opérateurs de Schrödinger généralisés, comme par exemple le Laplacien de Hodge agissant sur les formes différentielles, puis on utilise ceci pour montrer que la transformée de Riesz est bornée sur les espaces $L^p$ si $p$ est compris entre $1$ et la dimension de Sobolev. Enfin, on montre un résultat de perturbation pour la transformée de Riesz.
6

Modélisation multi-échelles de réservoir et calage d'historique de production / Multiscale simulation of reservoir and history-matching

Gardet, Caroline 14 November 2014 (has links)
Dans cette thèse, nous proposons deux algorithmes multi-échelles pour la simulation de modèles géologiques de réservoir. Le premier algorithme relève des méthodes géostatistiques à deux points. Il s'agit d'une simulation séquentielle Gaussienne avec variable secondaire. Dans notre approche multi-échelle, la variable secondaire est supposée connue à une deuxième échelle, de résolution plus grossière. Elle représente alors la tendance ou moyenne de la variable principale. A partir d'une paramétrisation adéquate, on montre que le calage des propriétés du modèle géologique à l'échelle grossière est plus efficace que le calage de ces mêmes propriétés à l'échelle fine. Notre méthode est applicable aux variables continues et aux variables discrètes.Le deuxième algorithme est une adaptation d'un algorithme de synthèse de texture aux problèmes de réservoir. C'est un algorithme de simulation multipoints qui nécessite l'utilisation d'une image d'entrainement. Il permet de reproduire des objets géologiques de formes complexes comme des chenaux ou des réseaux de fractures. Comme tous les algorithmes multipoints, il requiert des temps de calcul important. Nous montrons alors comment l'introduction d'une échelle intermédiaire permet de diminuer ce temps de calcul et d'améliorer la reproduction des grandes structures. Nous testons deux techniques pour diminuer davantage encore le temps de calcul : le scan partiel de l'image d'entrainement ou l'organisation des informations extraites de cette même image. / In this manuscript, we propose two multiscale algorithms for the simulation of geological reservoir models.The first algorithm is based on two-points statistics methods. It is based upon the sequential Gaussian simulation with a secondary variable. In our multiscale approach, the scale of the secondary variable is considered as a second scale of coarser resolution. It represents the trend or the average of the primary variable. In the context of history-matching, it can be shown that adjusting the properties of the geological model at the coarse scale is more effective than doing the same at the fine scale provided a suitable parameterization technique is used. Our method holds for both continuous and discrete variables. The second algorithm is rooted in texture synthesis techniques developed in computer graphics and modified to cope with reservoir simulation. This is a multipoint simulation algorithm. As such, it requires the use of a training image. It permits to simulates complex geological objects like channels or networks of fractures. However, as all multipoint algorithms, it requires significant computation times. We show how the introduction of an intermediate scale reduces the computation time and improves the reproduction of large structures. We also test two techniques to further reduce the computation time: the partial scan of the training image and the preliminary organization of the information extracted from this image.
7

Masquage auditif temps-fréquence : mesures psychoacoustiques et application à l'analyse-synthèse des sons

Necciari, Thibaud 25 October 2010 (has links) (PDF)
De nombreuses applications audio, telles que les outils d'analyse-synthèse ou les codeurs audio, nécessitent des représentations des signaux linéaires et adaptées aux signaux non stationnaires. Typiquement, ces représentations sont de types « Gabor » ou « ondelettes ». Elles permettent de décomposer n'importe quel signal en une somme de fonctions élémentaires (ou « atomes ») bien localisées dans le plan temps-fréquence (TF). Dans le but d'adapter ces représentations à la perception auditive humaine, ce travail porte sur l'étude du masquage auditif dans le plan TF. Dans la littérature, le masquage a été considérablement étudié dans les plans fréquentiel et temporel. Peu d'études se sont intéressées au masquage dans le plan TF. D'autre part, toutes ces études ont employé des stimuli de longue durée et/ou large bande, donc pour lesquels la concentration d'énergie dans le plan TF n'est pas maximale. En conséquence, les résultats ne permettent pas de prédire les effets de masquage entre des atomes TF. Au cours de cette thèse, le masquage a donc été mesuré dans le plan TF avec des stimuli — masque et cible — dotés d'une localisation TF maximale : des sinusoïdes modulées par une fenêtre Gaussienne de courte durée (ERD = 1,7 ms) et à support fréquentiel compact (ERB = 600 Hz). La fréquence du masque était fixée à 4 kHz et son niveau à 60 dB SL. Masque et cible étaient séparés en fréquence, en temps, ou en TF. Les résultats pour les conditions TF fournissent une estimation de l'étalement du masquage TF pour un atome. Les résultats pour les conditions fréquence et temps ont permis de montrer qu'une combinaison linéaire des fonctions de masquage fréquentiel et temporel ne fournit pas une représentation exacte du masquage TF pour un atome. Deux expériences supplémentaires ont été menées afin d'étudier les effets du niveau et de la fréquence du masque Gaussien sur le pattern de masquage fréquentiel. Une diminution du niveau du masque de 60 à 30 dB SL a provoqué un renversement de l'asymétrie des patterns de masquage et un rétrécissement de l'étalement spectral du masquage, conformément à la littérature. La comparaison sur une échelle ERB des patterns mesurés à 0,75 et 4 kHz a révélé un étalement spectral du masquage similaire pour les deux fréquences. Ce résultat est cohérent avec l'analyse fréquentielle à facteur de qualité constant du système auditif. La thèse s'achève sur une tentative d'implémentation des données psychoacoustiques dans un outil de traitement du signal visant à éliminer les atomes inaudibles dans les représentations TF des signaux sonores. Les applications potentielles d'une telle approche concernent les outils d'analyse-synthèse ou les codeurs audio.
8

Méthodes de géométrie de l'information pour les modèles de mélange

Schwander, Olivier 15 October 2013 (has links) (PDF)
Cette thèse présente de nouvelles méthodes pour l'apprentissage de modèles de mélanges basées sur la géométrie de l'information. Les modèles de mélanges considérés ici sont des mélanges de familles exponentielles, permettant ainsi d'englober une large part des modèles de mélanges utilisés en pratique. Grâce à la géométrie de l'information, les problèmes statistiques peuvent être traités avec des outils géométriques. Ce cadre offre de nouvelles perspectives permettant de mettre au point des algorithmes à la fois rapides et génériques. Deux contributions principales sont proposées ici. La première est une méthode de simplification d'estimateurs par noyaux. Cette simplification est effectuée à l'aide un algorithme de partitionnement, d'abord avec la divergence de Bregman puis, pour des raisons de rapidité, avec la distance de Fisher-Rao et des barycentres modèles. La seconde contribution est une généralisation de l'algorithme k-MLE permettant de traiter des mélanges où toutes les composantes ne font pas partie de la même famille: cette méthode est appliquée au cas des mélanges de Gaussiennes généralisées et des mélanges de lois Gamma et est plus rapide que les méthodes existantes. La description de ces deux méthodes est accompagnée d'une implémentation logicielle complète et leur efficacité est évaluée grâce à des applications en bio-informatique et en classification de textures.
9

Rendu d'images en demi-tons par diffusion d'erreur sensible à la structure

Alain, Benoît 12 1900 (has links)
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie. / This work covers some important methods in the domain of halftoning: analog screening, ordered dither, direct binary search, and most particularly error diffusion. The methods will be compared in the modern perspective of sensitivity to structure. A novel halftoning method is also presented and subjected to various evaluations. It produces images of visual quality comparable to that of the state-of-the-art Structure-aware Halftoning method; at the same time, it is two to three orders of magnitude faster. First is described how an image can be decomposed into its local frequency content. Then, the basic behavior of the proposed method is given. Next, a carefully chosen set of parameters is presented that allow modifications to this behavior, so as to maximize the eventual reactivity to frequency content. Finally, a calibration step determines what values the parameters should take for any local frequency information encountered. Once the algorithm is assembled, any image can be treated very efficiently: each pixel is attached to its dominant frequency, the frequency serves as lookup index to the calibration table, proper diffusion parameters are retrieved, and the determined output color contributes in expectation to underline the structure from which the pixel comes.
10

Numerical simulation of solid particle transport in atmospheric boundary-layer over obstacles / Transport de particules solides dans une couche limite turbulente en présence de collines gaussiennes

Huang, Gang 14 December 2015 (has links)
Afin de mieux comprendre les mécanismes liés à l’érosion du sol sous l’effet du vent, le transport de particules solides dans un écoulement de couche limite turbulente à l’échelle d’une soufflerie est étudié à l’aide de simulations numériques. La présence d’une ou plusieurs collines Gaussiennes au sol permet d’étudier les effets de la topographie sur le transport, le dépôt et la réémission de particules solides. L’écoulement du fluide porteur est résolu par la Simulation des Grandes Échelles (SGE). Des modèles de paroi pour la vitesse du fluide sont implémentés afin de mieux représenter l’écoulement proche d’une colline. Le mouvement des particules est pris en compte par un suivi Lagrangien. Des modèles d’envol et de rebond sont développés et utilisés pour prendre en compte l’émission et l’impact au sol des particules. Dans la première partie, l’écoulement au-dessus de collines transversales est simulé et validé par des comparaisons avec différentes expériences. Selon Oke [1988], l’écoulement dans la canopée urbaine peut être schématiquement caractérisé par différents régimes en fonction du positionnement relatif des obstacles. Ce concept est appliqué au cas des dunes, assimilées à des collines dans notre étude. L’accent est mis sur la zone de recirculation (ZR) formée derrière ces collines. Les variations de la ZR sont examinées en fonction de différents paramètres dont la configuration des collines et le nombre de Reynolds. De plus, une étude portant sur la sous couche rugueuse est effectuée de façon à déterminer l’effet de la rugosité due à la couche de particules solides au sol. La seconde partie du travail porte sur la simulation des particules au-dessus des collines. L’objectif est l’amélioration des modélisations concernant l’envol, le rebond et le couplage entre le fluide et les particules. Un premier travail de validation est réalisé en utilisant le modèle complet de transport des particules solides. En particulier, l’évolution du flux d’émission des particules, estimé par le modèle d’envol, en fonction du nombre de Shields, donne des résultats comparables aux modèles classiques de saltation et aux expériences de la littérature. Au-dessus des collines, le transport des particules solides est étudié par des profils de concentration et de vitesse moyenne. Pour analyser les résultats, deux cartographies sont réalisées. La première donne l’intensité des événements locaux et instantanés qui seraient à l’origine de l’évacuation des particules piégées au sein de la ZR. La seconde montre la distribution des particules déposées au sol. Ces résultats permettent d’identifier des zones sujettes à l’érosion et à l’accumulation autour des collines. Enfin, les flux des particules piégées et déposées à l’intérieur de la ZR sont quantifiés et comparés aux flux des particules émises en amont. Ces flux, bien que faibles par rapport au flux entrant, contribueraient aux migrations des dunes et à l’avancée des déserts. / The transport of solid particles inside a laboratory-scale turbulent boundary-layer is studied by numerical simulations, to obtain a better understanding of the mechanisms associated with wind erosion of soil. The presence of one or several Gaussian hills allows a study of the topographic effects on the transport, deposition and re-emission of solid particles. The carrier fluid motion is resolved in a Large Eddy Simulation (LES). Wall models are implemented to better account for the effects of turbulent flow near the terrain. Particle trajectories are calculated using a Lagrangian tracking. Take-off and rebound models are developed in order to take into account particle emissions and impacts at the wall. In the first part, the flow over transversal Gaussian hills is simulated and validated by comparison with different experiments. According to Oke [1988], the flow inside an urban canopy can be schematically characterised into different flow regimes depending on the relative localisation of the obstacles at the ground. This concept is applied to the case of sand dunes, assimilated to 2D hills in this study. The focus is on the recirculation zone (RZ) on the lee side, which has the characteristic of increasing the residence time and the interaction fluid/particle in general, particle trapping and deposition in particular. The variations of RZ with different hill geometries and Reynolds numbers are examined. A study on the roughness sublayer is conducted in order to determine the roughness effects due to the layer of solid particles on the wall. The second part of the work is devoted to the simulation of solid particle transport over the Gaussian hills. The objective is to improve the modelling of particle take-off, rebound and the two-way coupling between the fluid and the particle. A first work of validation is conducted by using the complete model of solid particle transport developed in this thesis. In particular, the evolution of particle emission flux predicted by the take-off model is in accordance with classical saltation models and experiments from the literature. Over the Gaussian hills, analysis of particle transport is conducted using concentration and mean velocity fields. Two mappings are realised. The first indicates the intensity of the local and instantaneous flow structures that arguably regulate the re-entrainment of particles trapped inside the RZ. The second shows the accumulation of particles on the wall. These results highlight zones prone to wind erosion and particle deposition around the hills. Last but not least, the fluxes of particle trapping and deposition inside the RZ are quantified and compared to the incoming flux from upstream. These fluxes, albeit relatively weak in comparison to the incoming one, contribute potentially to dune migrations and desertification.

Page generated in 0.0554 seconds