• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 14
  • 1
  • Tagged with
  • 32
  • 32
  • 19
  • 18
  • 11
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyses de sensibilité et d'incertitude de données nucléaires.<br />Contribution à la validation d'une méthodologie utilisant la théorie des perturbations ; application à un concept innovant : réacteur à sels fondus thorium à spectre épithermique

Bidaud, Adrien 25 October 2005 (has links) (PDF)
La simulation neutronique des réacteurs nucléaires suppose la connaissance de l'interaction neutron noyau (sections efficaces, nombres et spectres des neutrons de fission) pour les quelques dizaines de noyaux présents dans le réacteur sur une douzaine d'ordres de grandeur d'énergie des neutrons. Le développement d'un nucléaire durable impose de nouvelles contraintes aux réacteurs du futur : l'optimisation de l'utilisation de la matière première nécessite la régénération des noyaux fissiles et la gestion des déchets suppose leur transmutation. Les réacteurs proposés permettant d'atteindre ces objectifs (génération IV et ADS) sont chargés de combustibles nouveaux (thorium et actinides lourds) et fonctionnent avec des spectres neutroniques pour lesquels les données nucléaires ne bénéficient pas des 50 années de l'expérience industrielle. Après leur validation sur un réacteur expérimental dans le cadre d'un exercice international, nous appliquons des outils classiques de physique de réacteurs en combinaison avec les incertitudes sur les données de base disponibles pour calculer l'incertitude sur la criticité et le coefficient de température d'un réacteur à sel fondu au thorium. De plus, une réflexion sur les taux de réactions importants pour le cycle a l'équilibre donne une estimation de l'efficacité des différentes stratégies de retraitement en ligne du combustible et les contributions de ces taux de réactions à l'incertitude sur la régénération et donc l'impact de ces incertitudes sur le dimensionnement de l'usine de retraitement. Nous pouvons alors lister les données à améliorer prioritairement pour améliorer la précision des calculs.
2

Modélisation multi-échelle des ions en solution : des descriptions atomiques jusqu'au génie chimique

Molina, John Jairo 29 September 2011 (has links) (PDF)
Les ions en solutions ont un rôle fondamental dans de nombreux processus physiques, chimiques et biologiques. Dans le cadre des applications industrielles, l'ingénieur les décrits par des modèles analytiques simples, qui sont paramétrisés et ajustés afin de reproduire des données expérimentales. Dans ce travail, nous proposons une procédure multi-échelle à gros-grains pour obtenir ces modèles simples à partir de descriptions atomiques. D'abord, les paramètres de forces classiques pour des ions en solutions sont extraits de calculs ab-initio. Des potentiels effectifs (McMillan-Mayer) ion-ion sont ensuite obtenus à partir des fonctions de distribution de paire mesurées dans des simulations de dynamique moléculaire. Avec ces potentiels effectifs, nous pouvons établir une description à solvant continu des électrolytes. Finalement, nous mettons en œuvre un calcul de perturbation, pour définir la meilleure représentation possible pour ces systèmes, en termes de sphères dures chargées (éventuellement associées). Le modèle final ainsi obtenu est analytique et il ne contient pas de paramètres ajustables. On montre qu'il est en bon accord avec les résultats exacts obtenus par des simulations Monte-Carlo pour la structure et la thermodynamique. La thèse se termine en proposant la mise au point d'une analyse similaire pour la viscosité des électrolytes, obtenue à partir d'une base moléculaire
3

Precision cosmology with the large-scale structure of the universe / Cosmologie de précision avec les grandes structures de l'univers

Dupuy, Hélène 11 September 2015 (has links)
Cette thèse fournit des résultats innovants de plusieurs types. Leur point commun est la quête de précision dans la description des phénomènes physiques à l'œuvre dans l'univers. D'abord, un modèle-jouet simulant la propagation de la lumière dans un espace-temps non homogène est présenté. Dans cette étude, nous avons opté pour la traditionnelle représentation de type Swiss cheese. Souvent utilisée dans la littérature, elle permet de travailler avec des solutions exactes de la relativité générale, qui n'altèrent pas la dynamique globale de l'univers tout en le rendant fortement non homogène. Nous avons illustré la façon dont les hypothèses de base, telles que le principe cosmologique, peuvent affecter les conclusions scientifiques, telles que l'estimation des paramètres cosmologiques à partir des diagrammes de Hubble. Ce travail a donné lieu à deux publications en 2013, une dans Physical Review D et une autre dans Physical Review Letter. Le résultat majeur proposé dans cette thèse est une nouvelle façon de décrire les neutrinos en cosmologie. L'idée est de décomposer les neutrinos en plusieurs fluides à un flot de manière à se débarrasser de la dispersion en vitesse dans chacun d'eux. Cela s'inscrit dans le cadre de l'étude de la formation des grandes structures de l'univers à l'aide de la théorie des perturbations cosmologiques dans les régimes non linéaire et/ou relativiste. Ce travail a donné lieu à trois publications dans JCAP, une en 2014 et deux en 2015. / This thesis provides innovative results of different types. What they have in common is the quest for precision in the description of the physical phenomena at work in the universe. First, a toy model mimicking the propagation of light in an inhomogeneous spacetime has been presented. In this study, we chose a traditional Swiss-cheese representation. Often used in the litterature, such models offer the advantage of dealing with exact solutions of the Einstein equations, which do not affect the global dynamics of the universe while making it strongly inhomogeneous. We have exemplified how initial presumptions, such as the cosmological principle, can alter scientific conclusions, such as the estimation of cosmological parameters from Hubble diagrams. This work resulted in two publications in 2013, one in Physical Review D and another one in Physical Review Letter. The major result exposed in this thesis is the proposition of a new way of dealing with the neutrino component in cosmology. The idea is to decompose neutrinos into several single-flow fluids in order to get rid of velocity dispersion in each of them. The research field to which it belongs is the study of the formation of the large-scale structure of the universe thanks to cosmological perturbation theory in the relativistic and/or nonlinear regimes. This work resulted in three publications in JCAP, one in 2014 and two in 2015.
4

Density functional perturbation theory for modeling of weak interactions and spectroscopy in the condensed phase / Théorie des perturbations de la fonctionnelle de densité pour la modélisation des interactions faibles et de la spectroscopie en phase condensée

Scherrer, Arne 26 October 2016 (has links)
Cette thèse porte sur l'étude des interactions faibles et de la spectroscopie vibrationnelle en phase condensée à partir d'un développement théorique basé sur la théorie de la perturbation de la fonctionnelle de densité. D'une part des corrections de la fonction d'onde Born-Oppenheimer ont été calculées pour déterminer le moment magnétique induit par les vibrations et ainsi calculer des spectres de dichroïsme circulaire vibrationnel. D'autre part, une modélisation des effets de polarisation est réalisée à l'aide d'une nouvelle représentation de la susceptibilité électronique non-locale. / This thesis deals with the development and application of computational methods for the efficient and accurate calculation of spectroscopic parameters and non-covalent inter-molecular interactions in condensed-phase systems from quantum chemical methods. Specifically, electronic current densities and polarizability effects are computed using density functional perturbation theory. The nuclear velocity perturbation theory is rigorously derived from the exact factorization of the electron-nuclear wave function. Its implementation within a large-scale electronic structure program package is reported and the calculation of dynamical vibrational circular dichroism in the condensed phase is demonstrated. A position-dependent mass of nuclei in molecules is derived, addressing the fundamental questions as to how masses move in a molecule. First steps towards a density-based modeling of inter-molecular interactions using a compact representation of the electronic susceptibility are devised.
5

Développement et implémentation parallèle de méthodes d'interaction de configurations sélectionnées / Development and parallel implementation of selected configuration interaction methods

Garniron, Yann 03 December 2018 (has links)
Cette thèse, ayant pour thème les algorithmes de la chimie quantique, s'inscrit dans le cade du changement de paradigme observé depuis une douzaines d'années, dans lequel les méthodes de calcul séquentielles se doivent d'être progressivement remplacées par des méthodes parallèles. En effet, l'augmentation de la fréquences des processeurs se heurtant à des barrières physiques difficilement franchissables, l'augmentation de la puissance de calcul se fait par l'augmentation du nombre d'unités de calcul. Toutefois, là où une augmentation de la fréquence conduisait mécaniquement à une exécution plus rapide d'un code, l'augmentation du nombre de cœurs peut se heurter à des barrières algorithmiques, qui peuvent nécessiter une adaptation ou un changement d'algorithme. Parmi les méthodes développées afin de contourner ce problème, on trouve en particulier celles de type Monte-Carlo (stochastiques), qui sont intrinsèquement "embarrassingly parallel", c'est à dire qu'elles sont par construction constituées d'une multitudes de tâches indépendantes, et de ce fait particulièrement adaptées aux architectures massivement parallèles. Elles ont également l'avantage, dans de nombreux cas, d'être capables de produire un résultat approché pour une fraction du coût calculatoire de l'équivalent déterministe exacte. Lors de cette thèse, des implémentations massivement parallèles de certains algorithmes déterministes de chimie quantique ont été réalisées. Il s'agit des algorithmes suivants : CIPSI, diagonalisation de Davidson, calcul de la perturbation au second ordre, shifted-Bk, et Coupled Cluster Multi Références. Pour certains, une composante stochastique a été introduite en vue d'améliorer leur efficacité. Toutes ces méthodes ont été implémentées sur un modèle de tâches distribuées en TCP, où un processus central distribue des tâches par le réseau et collecte les résultats. En d'autres termes, des nœuds esclaves peuvent être ajoutés au cours du calcul depuis n'importe quelle machine accessible depuis internet. L'efficacité parallèle des algorithmes implémentés dans cette thèse a été étudiée, et le programme a pu donner lieu à de nombreuses applications, notamment pour permettre d'obtenir des énergies de références pour des systèmes moléculaires difficiles. / This thesis, whose topic is quantum chemistry algorithms, is made in the context of the change in paradigm that has been going on for the last decade, in which the usual sequential algorithms are progressively replaced by parallel equivalents. Indeed, the increase in processors' frequency is challenged by physical barriers, so increase in computational power is achieved through increasing the number of cores. However, where an increase of frequency mechanically leads to a faster execution of a code, an increase in number of cores may be challenged by algorithmic barriers, which may require adapting of even changing the algorithm. Among methods developed to circumvent this issue, we find in particular Monte-Carlo methods (stochastic methods), which are intrinsically "embarrassingly parallel", meaning they are by design composed of a large number of independent tasks, and thus, particularly well-adapted to massively parallel architectures. In addition, they often are able to yield an approximate result for just a fraction of the cost of the equivalent deterministic, exact computation. During this thesis, massively parallel implementations of some deterministic quantum chemistry algorithms were realized. Those methods are: CIPSI, Davidson diagonalization, computation of second-order perturbation, shifted-Bk, Multi-Reference Coupled-Cluster. For some of these, a stochastic aspect was introduced in order to improve their efficiency. All of them were implemented on a distributed task model, with a central process distributing tasks and collecting results. In other words, slave nodes can be added during the computation from any location reachable through Internet. The efficiency for the implemented algorithms has been studied, and the code could give way to numerous applications, in particular to obtain reference energies for difficult molecular systems.
6

Théorie des Perturbations Canonique et Dynamique Moléculaire Non-Linéaire

Sugny, Dominique 11 October 2002 (has links) (PDF)
La théorie des perturbations canonique est un outil très intéressant en physique moléculaire. Elle consiste en une série de transformations canoniques (ou unitaires en mécanique quantique), qui ont pour but de réécrire l'Hamiltonien sous une forme plus simple sans modifier la dynamique de la molécule. Cependant, cette méthode ne pouvait s'appliquer, dans le domaine des états vibrationnellement excités, qu'aux mouvements autour d'un seul minimum. C'est pourquoi seules les molécules rigides décrites par une seule surface électronique non couplée avaient pu être étudiées. Afin de dépasser les hypothèses restrictives nécessaires à ce formalisme, nous avons développé 2 versions modifiées de la théorie des perturbations canonique, la première s'appliquant à des systèmes non-rigides avec plusieurs positions d'équilibre et la seconde à la dynamique non-adiabatique.
7

Nouvelles approches en théorie du champ moyen dynamique : le cas du pouvoir thermoélectrique et celui de l'effet orbital d'un champ magnétique

Arsenault, Louis-François January 2013 (has links)
Les applications reliées à la génération d'énergie motivent la recherche de matériaux ayant un fort pouvoir thermoélectrique (S). De plus, S nous renseigne sur certaines propriétés fondamentales des matériaux, comme, par exemple, la transition entre l'état cohérent et incohérent des quasi-particules lorsque la température augmente. Empiriquement, la présence de fortes interactions électron-électron peut mener à un pouvoir thermoélectrique géant. Nous avons donc étudié le modèle le plus simple qui tient compte de ces fortes interactions, le modèle de Hubbard. La théorie du champ moyen dynamique (DMFT) est tout indiquée dans ce cas. Nous nous sommes concentrés sur un système tridimensionnel (3d) cubique à face centrée (fcc), et ce, pour plusieurs raisons. A) Ce type de cristal est très commun dans la nature. B) La DMFT donne de très bons résultats en 3d et donc ce choix sert aussi de preuve de principe de la méthode. C) Finalement, à cause de la frustration électronique intrinsèque au fcc, celui-ci ne présente pas de symétrie particule-trou, ce qui est très favorable à l'apparition d'une grande valeur de S. Ce travail démontre que lorsque le matériau est un isolant à demi-remplissage à cause des fortes interactions (isolant de Mott), il est possible d'obtenir de grands pouvoirs thermoélectriques en le dopant légèrement. C'est un résultat pratique important. Du point de vue méthodologique, nous avons montré comment la limite de fréquence infinie de S et l'approche dite de Kelvin, qui considère la limite de fréquence nulle avant la limite thermodynamique pour S, donnent des estimations fiables de la vraie limite continue (DC) dans les domaines de température appropriée. Ces deux approches facilitent grandement les calculs en court-circuitant la nécessité de recourir à de problématiques prolongements analytiques. Nous avons trouvé que la méthode de calcul à fréquence infinie fonctionne bien lorsque les échelles d'énergie sont relativement faibles. En d'autres termes, cette approche donne une bonne représentation de S lorsque le système devient cohérent. Les calculs montrent aussi que la formule Kelvin est précise lorsque la fonction spectrale des électrons devient incohérente, soit à plus haute température. Dans la limite Kelvin, S est essentiellement l'entropie par particule, tel que proposé il y a longtemps. Nos résultats démontrent ainsi que la vision purement entropique de S est la bonne dans le régime incohérent, alors que dans le régime cohérent, l'approche à fréquence infinie est meilleure. Nous avons utilisé une méthode à la fine pointe, soit le Monte-Carlo quantique en temps continu pour résoudre la DMFT. Pour permettre une exploration rapide du diagramme de phase, nous avons dû développer une nouvelle version de la méthode des perturbations itérées pour qu'elle soit applicable aussi à forte interaction au-delà de la valeur critique de la transition de Mott. Un autre sujet a aussi été abordé. L'effet orbital du champ magnétique dans les systèmes électroniques fortement corrélés est une question très importante et peu développée. Cela est d'autant plus essentiel depuis la découverte des oscillations quantiques dans les supraconducteurs à haute temperature (haut-T[indice inférieur c]). Par désir de développer une méthode la moins biaisée possible, nous avons dérivé la DMFT lorsqu'un champ se couplant à l'opérateur énergie cinétique par la substitution de Peierls est présent. Ce type d'approche est nécessaire pour comprendre entre autres l'effet de la physique de Mott sur des phénomènes tels que les oscillations quantiques. Nous avons obtenu un résultat très important en démontrant rigoureusement que la relation d'auto-cohérence de la DMFT et le système intermédiaire d'impureté quantique restent les mêmes. L'effet du champ peut être contenu dans la fonction de Green locale, ce qui constitue la grande différence avec le cas habituel. Ceci permet de continuer à utiliser les solutionneurs d'impuretés standards, qui sont de plus en plus puissants. Nous avons aussi développé la méthode pour le cas d'un empilement de plans bidimensionnels selon z, ce qui permet d'étudier l'effet orbital du champ dans des nanostructures et même dans les matériaux massifs, si le nombre de plans est suffisant pour obtenir la limite tridimensionnelle.
8

Mesure de la distribution du champ en chambre réverbérante par la théorie des perturbations : application à l'étude des directions d'arrivée / Field measurement within reverberation chamber by using perturbation theory : application to Angle of arrival study case

Nasserdine, Mohamed M'Madi 25 September 2015 (has links)
Ce travail porte sur les techniques de mesure des champs en cavité électromagnétique et plus précisément en chambre réverbérante. En raison de la perturbation induite sur la distribution du champ au sein d'une cavité résonante par la présence d'un objet, les techniques de mesure de champ classiques utilisant une antenne souffrent d'une précision limitée. Par conséquent, nous proposons une nouvelle technique de mesure de la distribution du champ électrique basée sur la théorie des perturbations. Elle consiste à mesurer les variations de la fréquence de résonance de la cavité pour chaque position de l'élément perturbateur introduit dans la cavité, puis à en déduire la variation de l'amplitude du champ électrique. Le choix de la forme de l'objet perturbateur, de ses dimensions et de son matériau constitutif est effectué à partir des résultats des simulations et des mesures dans un cas canonique, de façon à adapter le banc de mesure au cas étudié. Cette technique de mesure est ensuite appliquée avec succès au cas d'une chambre réverbérante équipée d'un brasseur de modes, ainsi qu'à des mesures de champ à l'intérieur d'un boitier inséré dans la cavité. Cette approche a permis, via un post-traitement basé sur l'utilisation de l'algorithme MUSIC, de déterminer avec une grande précision les directions d'arrivée des champs dans la chambre réverbérante / This work deals with field measurement techniques in large electromagnetic enclosures namely reverberation chambers. Due to the perturbation of the field distribution within a resonant cavity due to the presence of an introduced object, conventional field measurement techniques employing an antenna suffer from a limited accuracy. Therefore we propose a new measurement technique of the electric field distribution based on the perturbation theory; it consists of a measure of the cavity resonant frequency variation when displacing a small perturbing object within the cavity, and leads to the electric field distribution. The choice of the perturbing object shape, dimension and material is discussed with the help of simulation and measurement results in a canonical case in order to adapt the measurement setup to the studied case. This technique is then successfully employed in a reverberation chamber equipped with a mode stirrer, as well as to measure the field within a metallic box placed in the cavity. Using a post-processing based on MUSIC algorithm, this approach has permitted to determine accurately the field directions-of-arrival in the reverberation chamber
9

Signatures de l'univers primordial dans les grands relevés cosmologiques

Van De Rijt, Nicolas 21 June 2012 (has links) (PDF)
L'étude des grandes structures de l'Univers est un des meilleurs moyens pour comprendre l'origine et l'évolution de l'Univers. Dans cette thèse, nous nous spécialisons aussi bien dans la théorie des perturbations aux échelles cosmologiques, que dans le cisaillement cosmique. La théorie des perturbations aux échelles cosmologiques décrit comment les grandes structures de l'Univers se sont formées à partir des minuscules fluctuations primordiales. Cette évolution est généralement décrite en se servant des équations du mouvement d'un fluide, et dans cette thèse nous introduisons quelques nouvelles versions de cette hiérarchie de Boltzmann. Les avantages et inconvénients de ces nouvelles hiérarchies sont analysés en détail. Nous introduisons aussi une nouvelle technique, appelée l'approximation eikonal, qui nous permet de mieux comprendre les résultats des autres approches utilisées en théorie des perturbations. En outre, grâce à sa généralité, elle nous permet de généraliser une grande quantité de résultats. Le cisaillement cosmique décrit comment l'effet des lentilles gravitationnelles déforme notre image du ciel. Dans cette thèse, nous étudions de manière détaillée le bispectre du cisaillement cosmique, au deuxième ordre en les potentiels gravitationnels. Le calcul est intégralement fait en "full sky", généralisant ainsi les résultats existants. Pour simplifier les calculs numériques, nous introduisons et généralisons l'approximation dite de Limber.
10

Low-Order Controllers for Time-Delay Systems : an Analytical Approach / Contrôleur d'ordre réduit pour des systèmes à retard : une approche analytique

Mendez Barrios, César 19 July 2011 (has links)
Les travaux de recherche présentés dans cette thèse concernent des contributions à l’étude de stabilité des systèmes linéaires à retards avec contrôleurs d’ordre réduit. Cette mémoire est partagée en trois parties.La première partie est axée sur l’étude des systèmes linéaires à retard mono-entré /mono-sortie, bouclées avec un contrôleur de type PID. Inspiré par l’approche géométrique développée par Gu et al. Nous avons proposé une méthode analytique pour trouver la région (ou les régions) de tous les contrôleurs de type PID stabilisant pour le système à retard. Basée sur cette même approche, on a développé un algorithme pour calculer le dégrée de fragilité d’un contrôleur donné de type PID (PI, PD et PID).La deuxième partie de la thèse est axée sur l’étude de stabilité sous une approche NCS (pour son acronyme en anglais : Networked Control System). Plus précisément, nous avons d’abord étudié le problème de la stabilisation en tenant compte des retards induit par le réseau et les effets induits par la période d’échantillonnages. Pour mener une telle analyse nous avons adopté une approche basée sur la théorie des perturbations. Finalement, dans la troisième partie de la thèse nous abordons certains problèmes concernant le comportement des zéros d’une certaine classe de systèmes échantillonnés mono-entré /mono-sortie. Plus précisément, étant donné un système à temps continu, on obtient les intervalles d’échantillonnage garantissant l’invariance du nombre de zéros instables dans chaque intervalle. Pour développer cette analyse, nous adoptons une approche basée sur la perturbation aux valeurs propres. / The research work presented in this thesis concern to the stability analysis of linear time-delay systems with low-order controllers. This thesis is divided into three parts.The first part of the thesis focus on the study of linear SISO (single-input/single-output) systems with input/output delays, where the feedback loop is closed with a controller of PID-type. Inspired by the geometrical approach developed by Gu et al. we propose an analytical method to find the stability regions of all stabilizing controllers of PID-type for the time-delay system. Based on this same approach, we propose an algorithm to calculate the degree of fragility of a given controller of PID- type (PI, PD and PID).The second part of the thesis focuses on the stability analysis of linear systems under an NCS (Networked System Control) based approach. More precisely, we first focus in the stabilization problem by taking into account the induced network delays and the effects induced by the sampling period. To carry out such an analysis we have adopted an eigenvalue perturbation-based approach.Finally, in the third part of the thesis we tackle certain problems concerning to the behavior of the zeros of a certain class of sampled-data SISO systems. More precisely, given a continuous-time system, we obtain the sampling intervals guaranteeing the invariance of the number of unstable zeros in each interval. To perform such an analysis, we adopt an eigenvalue perturbation-based approach.

Page generated in 0.1654 seconds