• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1021

Modèle de coopération entre calcul formel et calcul numérique pour la simulation et l'optimisation des systèmes

Alloula, Karim Le Lann, Jean-Marc. January 2008 (has links)
Reproduction de : Thèse de doctorat : Systèmes industriels : Toulouse, INPT : 2007. / Titre provenant de l'écran-titre. Bibliogr. 111 réf.
1022

Méthodes d'accélération de convergence en analyse numérique et en statistique

Roland, Christophe Brezinski, Claude January 2007 (has links)
Reproduction de : Thèse de doctorat : Mathématiques appliquées : Lille 1 : 2005. / N° d'ordre (Lille 1) : 3627. 1 article en anglais intégré dans le texte. Titre provenant de la page de titre du document numérisé. Bibliogr. p. [125]-132.
1023

Modélisation de l'impact hydrodynamique par un couplage fluide-structure

Aquelet, Nicolas Souli, Mhamed. January 1900 (has links)
Reproduction de : Thèse de doctorat : Mécanique : Lille 1 : 2004. / N° d'ordre (Lille 1) : 3573. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 170-180.
1024

Intégration des données de sismique 4D dans les modèles de réservoir : recalage d'images fondé sur l'élasticité non linéraire

Derfoul, Ratiba 04 October 2013 (has links) (PDF)
Dans une première partie, nous proposons une méthodologie innovante pour la comparaison d'images en ingénierie de réservoir. L'objectif est de pouvoir comparer des cubes sismiques obtenus par simulation avec ceux observés sur un champ pétrolier, dans le but de construire un modèle représentatif de la réalité. Nous développons une formulation fondée sur du filtrage, de la classification statistique et de la segmentation d'images. Ses performances sont mises en avant sur des cas réalistes. Dans une seconde partie, nous nous intéressons aux méthodes de recalage d'images utilisées en imagerie médicale pour mettre en correspondance des images. Nous introduisons deux nouveaux modèles de recalage fondés sur l'élasticité non linéaire, où les formes sont appréhendées comme des matériaux de type Saint Venant-Kirchhoff et Ciarlet-Geymonat. Nous justifions théoriquement l'existence de solutions ainsi que la résolution numérique. Le potentiel de ces méthodes est illustré sur des images médicales.
1025

Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine

Parret-fréaud, Augustin 28 June 2011 (has links) (PDF)
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2.
1026

Simulations hydrauliques d'haute performance dans la Grille avec Java et ProActive

Peretti-Pezzi, Guilherme 15 December 2011 (has links) (PDF)
L'optimisation de la distribution de l'eau est un enjeu crucial qui a déjà été ciblé par de nombreux outils de modélisation. Des modèles utiles, implémentés il y a des décennies, ont besoin d'évoluer vers des formalismes et des environnements informatiques plus récents. Cette thèse présente la refonte d'un ancien logiciel de simulation hydraulique (IRMA) écrit en FORTRAN, qui a été utilisé depuis plus de 30 ans par la Société du Canal de Provence, afin de concevoir et maintenir les réseaux de distribution d'eau. IRMA a été développé visant principalement pour le traitement des réseaux d'irrigation - en utilisant le modèle probabiliste d'estimation de la demande de Clément - et il permet aujourd'hui de gérer plus de 6.000 km de réseaux d'eau sous pression. L'augmentation de la complexité et de la taille des réseaux met en évidence le besoin de moderniser IRMA et de le réécrire dans un langage plus actuel (Java). Cette thèse présente le modèle de simulation implémenté dans IRMA, y compris les équations de perte de charge, les méthodes de linéarisation, les algorithmes d'analyse de la topologie, la modélisation des équipements et la construction du système linéaire. Quelques nouveaux types de simulation sont présentés: la demande en pointe avec une estimation probabiliste de la consommation (débit de Clément), le dimensionnement de pompe (caractéristiques indicées), l'optimisation des diamètres des tuyaux, et la variation de consommation en fonction de la pression. La nouvelle solution adoptée pour résoudre le système linéaire est décrite et une comparaison avec les solveurs existants en Java est présentée. La validation des résultats est réalisée d'abord avec une comparaison entre les résultats obtenus avec l'ancienne version FORTRAN et la nouvelle solution, pour tous les réseaux maintenus par la Société du Canal de Provence. Une deuxième validation est effectuée en comparant des résultats obtenus à partir d'un outil de simulation standard et bien connu (EPANET). Concernant les performances de la nouvelle solution, des mesures séquentielles de temps sont présentées afin de les comparer avec l'ancienne version FORTRAN. Enfin, deux cas d'utilisation sont présentés afin de démontrer la capacité d'exécuter des simulations distribuées dans une infrastructure de grille, utilisant la solution ProActive. La nouvelle solution a déjà été déployée dans un environnement de production et démontre clairement son efficacité avec une réduction significative du temps de calcul, une amélioration de la qualité des résultats et une intégration facilitée dans le système d'information de la Société du Canal de Provence, notamment la base de données spatiales.
1027

Équilibrage de charge dynamique avec un nombre variable de processeurs basé sur des méthodes de partitionnement de graphe

Vuchener, Clément 07 February 2014 (has links) (PDF)
L'équilibrage de charge est une étape importante conditionnant les performances des applications parallèles. Dans le cas où la charge varie au cours de la simulation, il est important de redistribuer régulièrement la charge entre les différents processeurs. Dans ce contexte, il peut s'avérer pertinent d'adapter le nombre de processeurs au cours d'une simulation afin d'obtenir une meilleure efficacité, ou de continuer l'exécution quand toute la mémoire des ressources courantes est utilisée. Contrairement au cas où le nombre de processeurs ne varie pas, le rééquilibrage dynamique avec un nombre variable de processeurs est un problème peu étudié que nous abordons ici. Cette thèse propose différentes méthodes basées sur le repartitionnement de graphe pour rééquilibrer la charge tout en changeant le nombre de processeurs. Nous appelons ce problème " repartitionnement M × N ". Ces méthodes se décomposent en deux grandes étapes. Dans un premier temps, nous étudions la phase de migration et nous construisons une " bonne " matrice de migration minimisant plusieurs critères objectifs comme le volume total de migration et le nombre total de messages échangés. Puis, dans un second temps, nous utilisons des heuristiques de partitionnement de graphe pour calculer une nouvelle distribution optimisant la migration en s'appuyant sur les résultats de l'étape précédente. En outre, nous proposons un algorithme de partitionnement k-aire direct permettant d'améliorer le partitionnement biaisé. Finalement, nous validons cette thèse par une étude expérimentale en comparant nos méthodes aux partitionneurs actuels.
1028

The Chiral Structure of Loop Quantum Gravity

Wieland, Wolfgang Martin 12 December 2013 (has links) (PDF)
La gravité quantique à boucles est une théorie candidate à la description unifiée de la relativité générale et de la mécanique quantique à l'échelle de Planck. Cette théorie peut être formulée de deux manières. L'approche canonique, d'une part, cherche à résoudre l'équation de Wheeler--DeWitt et à définir les états physiques. L'approche par les écumes de spins, d'autre part, a pour but de calculer les amplitudes de transition de la gravité quantique via une intégrale de chemin covariante. Ces deux approches s'appuient sur a même structure d'espace de Hilbert, mais la question de leur correspondance exacte reste un important problème ouvert à ce jour. Dans ce travail de thèse, nous présentons quatre résultats en rapport avec ces deux approches. Après un premier chapitre introductif, le second chapitre concerne l'étude de la théorie classique. Historiquement, l'introduction des variables d'Ashtekar complexes (self-duales) dans la formulation hamiltonienne de la relativité générale fut motivée par l'obtention d'une contrainte scalaire polynomiale. Cette simplification drastique est à la base du programme de la gravité quantique à boucles. Pour un certain nombre de raisons techniques, ces variables complexes furent ensuite abandonnées au profit des variables d'Ashtekar-Barbero, pour lesquelles le groupe de jauge est SU(2). Avec ce choix de variables réelles, la contrainte hamiltonienne n'est malheureusement plus polynomiale. La formulation en terme des variables SU(2) réelles peut être obtenue à partir de l'action de Holst, qui contient le paramètre dit de Barbero-Immirzi comme constante de couplage additionnelle. Dans un premier temps, nous allons utiliser les variables d'Ashtekar complexes pour effectuer l'analyse canonique de l'action de Holst avec un paramètre de Barbero-Immirzi réel. Les contraintes qui découlent de cette analyse canonique dépendent de ce paramètre libre, et ont l'avantage d'être polynomiales. Afin de garantir que la métrique soit une quantité réelle, un ensemble de contraintes de réalité doivent être imposées. Il s'avère que ces conditions de réalité correspondent aux contraintes de simplicité linéaires utilisées pour la construction des modèles d'écumes de spins. Ces contraintes sont préservées par l'évolution hamiltonienne si et seulement si la connexion est sans torsion. Cette condition sur l'absence de torsion est en fait une contrainte secondaire de l'analyse canonique. La second chapitre concerne également la théorie classique, mais s'intéresse à sa discrétisation en terme des variables de premier ordre dites holonomie-flux. L'espace des phases qui résulte de cette construction possède une structure non-linéaire. Le formalisme des twisteurs permet d'accommoder cette non-linéarité en travaillant sur un espace des phases linéaire paramétré par les coordonnées canoniques de Darboux. Ce formalisme fut introduit par Freidel et Speziale, mais uniquement dans le cas des variables SU(2) d'Ashtekar-Barbero. Nous généralisons ce résultat au cas du groupe de Lorentz. Nous étudions ensuite la dynamique en terme d'écumes de spins obtenue à partir de ces variables, et développons une nouvelle formulation hamiltonienne de la gravité discrétisée. Ce nouveau formalisme est obtenu en écrivant l'action de la théorie continue sur une discrétisation simpliciale de l'espace-temps fixée. L'action discrète ainsi obtenue est la somme de l'analogue en terme de spineurs d'une action topologique de type BF et des contraintes de réalité qui garantissent l'existence d'une métrique réelle. Cette action est polynomiale en terme des spineurs, ce qui permet de procéder à sa quantification canonique de manière relativement aisée. Le dernier chapitre s'intéresse à la théorie quantique obtenue suivant cette procédure. Les amplitudes de transition reproduisent celles du modèle d'écume de spins EPRL (Engle Pereira Rovelli Livine). Ce résultat est intéressant car il démontre que la formulation de la gravité quantique en termes d'écumes de spins peut être obtenue à partir d'une action classique écrite en terme de spineurs.
1029

Approche bayésienne de l'évaluation de l'incertitude de mesure : application aux comparaisons interlaboratoires

Demeyer, Séverine 04 March 2011 (has links) (PDF)
La modélisation par équations structurelles est très répandue dans des domaines très variés et nous l'appliquons pour la première fois en métrologie dans le traitement de données de comparaisons interlaboratoires. Les modèles à équations structurelles à variables latentes sont des modèles multivariés utilisés pour modéliser des relations de causalité entre des variables observées (les données). Le modèle s'applique dans le cas où les données peuvent être regroupées dans des blocs disjoints où chaque bloc définit un concept modélisé par une variable latente. La structure de corrélation des variables observées est ainsi résumée dans la structure de corrélation des variables latentes. Nous proposons une approche bayésienne des modèles à équations structurelles centrée sur l'analyse de la matrice de corrélation des variables latentes. Nous appliquons une expansion paramétrique à la matrice de corrélation des variables latentes afin de surmonter l'indétermination de l'échelle des variables latentes et d'améliorer la convergence de l'algorithme de Gibbs utilisé. La puissance de l'approche structurelle nous permet de proposer une modélisation riche et flexible des biais de mesure qui vient enrichir le calcul de la valeur de consensus et de son incertitude associée dans un cadre entièrement bayésien. Sous certaines hypothèses l'approche permet de manière innovante de calculer les contributions des variables de biais au biais des laboratoires. Plus généralement nous proposons un cadre bayésien pour l'amélioration de la qualité des mesures. Nous illustrons et montrons l'intérêt d'une modélisation structurelle des biais de mesure sur des comparaisons interlaboratoires en environnement.
1030

Conception et analyse d'algorithmes parallèles en temps pour l'accélération de simulations numériques d'équations d'évolution

Riahi, Mohamed Kamel 10 July 2012 (has links) (PDF)
Cette thèse présente des algorithmes permettant la parallélisation dans la direction temporelle de la simulation des systèmes régis par des équations aux dérivées partielles issues de trois domaines d'application proposant des modèles complexes: \textbf{1. Contrôle optimal d'équations paraboliques:}\\ Nous développons deux algorithmes parallèles (SITPOC et PITPOC). Ces deux algorithmes sont basés sur une méthode générale de décomposition en temps des problèmes de contrôle optimal. Un résultat de convergence est obtenu pour SITPOC ainsi que des interprétations matricielles des deux algorithmes. \textbf{2. Cinétique de la population de neutrons dans un réacteur nucléaire:}\\ Nous concevons un solveur parallélisé en temps regroupant toutes les variables issues de la modélisation neutronique d'un réacteur. Notre méthode est adaptée aux différents scénarios possibles réduisant la physique. Les résultats numériques sont comparables à ceux obtenus par le code MINOS du CEA. La parallélisation repose sur un schéma de type pararéel pour la résolution en temps. Nous considérons plusieurs modèles physiques de la cinétique des neutrons que nous traitons par notre algorithme dans lequel le solveur grossier utilisé correspond à une simulation par réduction du modèle physique. Cette réduction est bénéfique puisqu'elle permet une accélération importante du traitement en temps machine. \textbf{3. Contrôle par résonance magnétique nucléaire et information quantique:}\\ Ce chapitre présente un travail d'ouverture sur une méthode parallèle en temps pour la résolution d'un problème de contrôle optimal en résonance magnétique nucléaire. Notre méthode produit une accélération importante par rapport à l'algorithme de référence non parallèle. De plus, les champs de contrôle calculés par notre méthode sont lisses, ce qui permet une mise en œuvre expérimentale plus simple dans les instruments. Les tests numériques prouvent l'efficacité de notre approche. Sur des exemples académiques et sans faire usage de techniques de programmation avancées, nous obtenons des accélérations de résolution significatives.

Page generated in 0.2132 seconds