Spelling suggestions: "subject:"numériques"" "subject:"mumériques""
351 |
Modélisation de l'émission X et Gamma des objets compacts par les méthodes Monte-CarloMalzac, Julien 08 October 1999 (has links) (PDF)
L'étude des processus de production de rayonnement de haute énergie dans les plasmas relativistes constituant l'environnement des objets compacts nécéssite des outils numériques relativement lourds. Je présente des codes dédiés à la simulation de ces processus (diffusions Compton multiples, production et annihilation de paires Èlectron-positon, raie de fluorescence du fer...). D'une part, des codes basés sur des méthodes Monte-Carlo standards (linéaires) permettent de calculer le spectre Èmis par Comptonisation dans un plasma chaud ou réflexion sur de la matière froide. Ces calculs sont effectuÈs pour une géométrie et une distribution des électrons fixée. D'autre part, un code Monte-Carlo nonlinéaire a été développé. Ce code évite les hypothèses sur la distribution des électrons (ou paires) qui est calculée de manière autocohérente en utilisant à la fois le bilan énergétique et le bilan de création/annihilation des paires, et en tenant compte du couplage avec la matière froide présente dans l'environnement de la région active. Les paramètres libres sont alors la puissance fournie au plasma et la façon dont cette énergie est fournie (chauffage thermique, injection/accélération de particules à haute énergie...). Les spectres calculés, comparés aux observations, donnent des informations sur la distribution des particules et les processus de dissipation d'énergie. Ce code permet également d'étudier des situations hors équilibre, dépendant du temps et notamment de calculer les courbes de lumière associées à une perturbation. Des applications aux différents modèles proposès pour rendre compte des observations X et gamma sont présentées (modèles thermiques, non-thermiques, modèle d'illumination anisotrope et modèles de couronne thermique radiativement couplèe au disque d'accrétion). Je montre comment de tels outils numériques peuvent mettre des contraintes sur la géométrie et les conditions physiques qui règnent dans les sources compactes de rayonnement X et gamma.
|
352 |
Étoiles à neutrons, étoiles de quarks, trous noirs et ondes gravitationnellesGourgoulhon, Eric 04 July 2003 (has links) (PDF)
Cette thèse d'habilitation présente des études numériques d'objets compacts (étoiles à neutrons, étoiles de quarks étranges, trous noirs), principalement considérés comme sources d'ondes gravitationnelles pour les détecteurs VIRGO et LISA.
|
353 |
Approches semi-analytiques et numériques de la formation des halos de matièreLanzoni, Barbara 22 December 2000 (has links) (PDF)
Dans ce travail, nous nous intéressons, d'un point de vue théorique, à la formation et à l'évolution des galaxies, en particulier dans un environnement d'amas. Sous l'hypothèse que la matière noire froide est la composante dominante de l'univers, les halos de matière noire sont générés en premiers, les moins massifs d'abord, ceux de plus grande masse ensuite, par fusion hiérarchique des plus petits. Les galaxies se forment à partir du gaz baryonique à l'intérieur des halos, et elles évoluent dans et avec les halos hôtes. Pour étudier la formation des galaxies, il est alors nécessaire de décrire l'histoire de la composante de matière noire, ainsi que celle de la composante baryonique. <br> Pour la matière noire, nous avons discuté d'abord un modèle basé sur la théorie linéaire de la croissance des fluctuations de densité de l'univers. Après avoir complètement re-codé le modèle (proposé par Rodrigues & Thomas 1996 et appelé "Merging Cell Model"), nous l'avons appliqué à une cosmologie SCDM et nous l'avons analysé en grand détail. Il apparaît particulièrement adapté pour étudier les amas locaux de galaxies, ainsi que la population des galaxies à discontinuité de Lyman à décalage spectral $z\simeq3$. <br> Pour obtenir une description plus fiable de l'histoire de fusion des halos de matière noire, nous nous sommes occupés ensuite de simulations numériques. En particulier, nous avons re-simulé à haute résolution 10 halos massifs, qui, dans le cadre du travail, correspondent aux sites hébergeant les amas des galaxies. La technique des resimulations est décrite soigneusement, en mettant en évidence ses avantages et ses inconvénients. Elle permet de reproduire très précisément les objets originaux sélectionnés, avec, bien évidemment, beaucoup plus de détails. Les résultats pour les 10 halos massifs resimulés sont présentés et servent comme point de départ pour l'étape suivante. <br> La description des processus agissants sur la composante baryonique à l'intérieur des halos, et gouvernant la formation et l'évolution des galaxies, est faite au moyen du modèle hybride "GALICS". C'est en combinant cette technique avec les resimulations à haute résolution des 10 halos massifs, que nous avons décrit la formation hiérarchique des galaxies dans les amas. Une attention particulière a été dédiée à l'effet des processus dynamiques, censés être spécialement importants dans les amas (la friction dynamique, le balayage du gaz par pression dynamique, et les collisions directes). Le balayage par pression dynamique rend les galaxies plus rouges et la relation couleur-magnitude plus étroite, en meilleur accord avec les observations. Il a un effet moindre sur la morphologie, qui est plutôt influencée par le taux des fusions directes. Les amas très massifs ont en moyenne des galaxies plus brillantes et plus rouges, ainsi qu'une fraction plus élevée d'elliptiques, que les amas moins massifs. Cela est vrai au temps présent, comme au décalage spectral $z=0.5$, où les galaxies sont en moyenne plus bleues. Nos résultats (préliminaires) suggèrent que la fonction de luminosité à magnitudes brillantes ($M_B < -17$) a une pente plus forte dans les amas riches que dans ceux de plus petite masse.
|
354 |
Description, déploiement et optimisation de chaînes de traitements d'analyse d'images médicales sur grilles de productionGlatard, Tristan 20 November 2007 (has links) (PDF)
En permettant le partage à grande échelle de données et d'algorithmes et en fournissant une quantité importante de puissance de calcul et de stockage, les grilles de calcul sont des plates-formes intéressantes pour les applications d'analyse d'images médicales. Dans cette thèse, nous étudions un problème d'analyse d'images médicales qui s'avère être une application dimensionnante pour les grilles, conduisant au développement de nouvelles méthodes et outils pour la description, l'implémentation et l'optimisation de flots de traitements. Le problème applicatif étudié est l'évaluation de la précision d'algorithmes de recalage d'images médicales en l'absence de vérité terrain. Nous faisons passer à l'échelle une méthode statistique d'évaluation de ces algorithmes et nous montrons des résultats de précision sur une base de données liée au suivi de la radiothérapie du cerveau. Ces résultats permettent notamment de détecter des défauts très légers au sein des données. Nous étendons ce schéma pour quantifier l'impact de la compression des images sur la qualité du recalage. Cette application étant représentative de problèmes typiques survenant sur les grilles, nous nous attachons à son déploiement et à son exécution sur ce type d'infrastructures. Pour faciliter une parallélisation transparente, nous adoptons un modèle générique de flots de traitements, dont nous proposons une nouvelle taxonomie. Pour répondre aux limitations de performance des moteurs d'exécution de flots existants, nous présentons MOTEUR, qui permet d'exploiter les différents types de parallélisme inhérents à ces applications. La définition d'un nouvel opérateur de composition de données facilite la description des applications d'analyse d'images médicales sur les grilles. Par une comparaison entre la grille de production EGEE et des grappes dédiées de Grid'5000, nous mettons en évidence l'importance de la variabilité de la latence sur une grille de production. En conséquence, nous proposons un modèle probabiliste du temps d'exécution d'un flot de traitement sur une grille. Ce modèle est centré sur l'utilisateur : il considère la grille toute entière comme une boîte noire introduisant une latence aléatoire sur le temps d'exécution d'une tâche. A partir de ce modèle, nous proposons trois stratégies d'optimisation visant à réduire l'impact de la latence et de sa variabilité : dans un flot de traitement, grouper les tâches séquentiellement liées permet de réduire la latence moyenne rencontrée, optimiser la valeur du délai d'expiration des tâches prémunit contre les valeurs extrêmes de la latence et optimiser la granularité des tâches permet de réduire le risque de rencontrer de fortes latences. Des accélérations significatives sont ainsi obtenues.
|
355 |
Contrôle de qualité dosimétrique des systèmes de planification des traitements par radiothérapie externe à l'aide d'Objets-Tests Numériques calculés par simulations Monte-Carlo PENELOPEBen Hdech, Yassine 19 December 2011 (has links) (PDF)
Contrôle de qualité dosimétrique des systèmes de planification des traitements par radiothérapie externe à l'aide d'Objets-Tests Numériques calculés par simulations Monte-Carlo PENELOPE En raison des besoins de précision et de l'importance des risques associés, les traitements anticancéreux par radiothérapie externe sont simulés sur des Systèmes de Planification des Traitements ou TPS avant d'être réalisés, afin de s'assurer que la prescription médicale est respectée tant du point de vue de l'irradiation des volumes cibles que de la protection des tissus sains. Ainsi les TPS calculent des distributions de dose prévisionnelles dans le patient et les temps de traitement par faisceau qui seront nécessaires pour délivrer la dose prescrite. Le TPS occupe une position clé dans le processus décisionnel des traitements par radiothérapie. Il est donc impératif qu'il fasse l'objet d'un contrôle approfondi des ses performances (contrôle de qualité ou CQ) et notamment de ses capacités à calculer avec précision les distributions de dose dans les patients pour l'ensemble des situations cliniques qu'il est possible de rencontrer. Les méthodes " traditionnelles " recommandées pour le CQ dosimétrique des algorithmes de calcul de dose implémentés dans les TPS s'appuient sur des comparaisons entre des distributions de dose calculées par le TPS et des distributions de dose mesurées sous l'appareil de traitement dans des Objets-Tests Physiques (OTP). Dans ce travail de thèse nous proposons de substituer aux mesures de dose de référence réalisées dans des OTP des calculs de distribution de dose dans des Objets-Tests Numériques, calculs réalisés grâce au code Monte-Carlo PENELOPE. L'avantage de cette méthode est de pouvoir d'une part, simuler des conditions proches de la clinique, conditions très souvent inaccessibles par la mesure du fait de leur complexité, et d'autre part, de pouvoir automatiser le processus de CQ du fait de la nature d'emblée numérique des données de référence. Enfin une telle méthode permet de réaliser un CQ du TPS extrêmement complet sans monopoliser les appareils de traitement prioritairement utilisés pour traiter les patients. Cette nouvelle méthode de CQ a été testée avec succès sur le TPS Eclipse de la société Varian Medical Systems.
|
356 |
Modélisation du risque de liquidité et méthodes de quantification appliquées au contrôle stochastique séquentielGassiat, Paul 07 December 2011 (has links) (PDF)
Cette thèse est constituée de deux parties pouvant être lues indépendamment. Dans la première partie on s'intéresse à la modélisation mathématique du risque de liquidité. L'aspect étudié ici est la contrainte sur les dates des transactions, c'est-à-dire que contrairement aux modèles classiques où les investisseurs peuvent échanger les actifs en continu, on suppose que les transactions sont uniquement possibles à des dates aléatoires discrètes. On utilise alors des techniques de contrôle optimal (programmation dynamique, équations d'Hamilton-Jacobi-Bellman) pour identifier les fonctions valeur et les stratégies d'investissement optimales sous ces contraintes. Le premier chapitre étudie un problème de maximisation d'utilité en horizon fini, dans un cadre inspiré des marchés de l'énergie. Dans le deuxième chapitre on considère un marché illiquide à changements de régime, et enfin dans le troisième chapitre on étudie un marché où l'agent a la possibilité d'investir à la fois dans un actif liquide et un actif illiquide, ces derniers étant corrélés. Dans la deuxième partie on présente des méthodes probabilistes de quantification pour résoudre numériquement un problème de switching optimal. On considère d'abord une approximation en temps discret du problème et on prouve un taux de convergence. Ensuite on propose deux méthodes numériques de quantification : une approche markovienne où on quantifie la loi normale dans le schéma d'Euler, et dans le cas où la diffusion n'est pas contrôlée, une approche de quantification marginale inspirée de méthodes numériques pour le problème d'arrêt optimal.
|
357 |
Tenue thermomécanique des dalles d'impact des poches à acier en céramiques réfractairesArfan, Eléonore 15 December 2009 (has links) (PDF)
La dalle d'impact est une zone du revêtement en céramique réfractaire du fond de la poche à acier, renforcée pour résister aux sollicitations thermomécaniques induites par l'impact du jet d'acier liquide lors du remplissage. Les résultats d'une enquête menée sur un site de production sont d'abord présentés. Les causes et les modes de dégradation observés sur différents types de dalles ont été identifiés et l'influence de certains paramètres du procédé d'affinage de l'acier sur la durée de vie de la dalle a été évaluée. Une campagne d'essais mécaniques de compression simple et de flexion 3-points a ensuite été réalisée jusqu'à 1500°C sur différents types de bétons réfractaires alumine-magnésie formant des spinelles MgAl2O4. Elle a permis de caractériser le comportement mécanique de ces céramiques et les déformations induites par les changements de phases se produisant à haute température. Une loi de comportement thermoélasto-viscoplastique prenant en compte les changements de phases a été construite pour décrire le comportement en service des réfractaires. La dernière partie du document est consacrée à des simulations numériques réalisées avec les codes de calculs FLUENT et ABAQUS. Elle vise à décrire le comportement thermique et mécanique de la dalle d'impact au cours d'un cycle d'affinage et en particulier lors de l'impact du jet de métal liquide. Associées à des observations de la microstructure et des données recueillies sur le procédé d'affinage, ces simulations ont permis de reconstruire l'historique des sollicitations s'appliquant sur la dalle et de mieux comprendre à quelles étapes du procédé d'affinage certaines dégradations observées pouvaient être attribuées.
|
358 |
Un parcours de recherche multidisciplinaire en mécanique: Analyse des forces de la houle et optimisation d'une plate-forme pétrolière Calcul de branches bifurquées par la méthode asymptotique numérique La méthode polaire en analyse, identification et conception par algorithme génétique des stratifiésVannucci, Paolo 16 December 2002 (has links) (PDF)
Ce document est la synthèse d'un parcours de recherche en mécanique étalé sur plus de dix ans et intéressant différents secteurs de la mécanique. La thèse se compose de trois parties principales. La première partie concerne les activités rattachées à la thèse de doctorat, portant sur l'optimisation des dimensions de la coque d'une plate-forme pétrolière de type TLP. Les deux thèmes traités dans la recherche sont rapidement présentés: la simplification des solutions pour le calcul des actions de la houle en théorie de la diffraction et la mise au point du procédé pour la détermination des dimensions de la coque de poids minimal. La deuxième partie porte sur une recherche de mécanique non linéaire: l'application de la Méthode Asymptotique Numérique (MAN) à la détection des points de bifurcation de l'équilibre d'une structure élastique et au suivi des branches de réponse post-critique. Après un bref rappel de la MAN, on montre la formulation théorique de la recherche et des exemples numériques traités, avec une discussion des résultats obtenus. La troisième partie concerne une série de travaux dans le domaine des matériaux composites, ayant pour fil conducteur l'utilisation de la méthode polaire en analyse, conception et identification des stratifiés en composite. Après une présentation détaillée et complète de la méthode polaire, les recherches développées dans ce domaine sont présentées, en les distinguant en quatre parties. Le chapitre 8 porte sur les stratifiés découplés ou quasi-homogènes, dont on met en évidence la découverte des solutions de type quasi-trivial, en soulignant leurs propriétés. Ensuite, on aborde la conception de stratifiés isotropes, totalement ou en partie, ainsi que celle des stratifiés formés de couches à symétrie carrée. Le point commun à ces travaux est l'approche entièrement analytique, qui a permis de dégager des solutions exactes pour chacun des problèmes cités. Dans le chapitre 9 on présente une formulation unique, sous forme d'un problème classique de l'optimisation structurale non convexe, d'un grand nombre de problèmes de conception des stratifiés, tandis que le chapitre 10 porte sur la mise au point d'un algorithme génétique de nouvelle conception, BIANCA, pour la conception et optimisation des stratifiés. Toujours en thème d'optimisation, le chapitre 11 porte sur une étude, théorique et numérique, de sensibilité de certaines solutions aux défauts d'orientation des couches. Le chapitre 12 concerne la découverte d'un cas particulier d'orthotropie plane, dite orthotropie R0, dont les caractéristiques assez singulières seront mises en évidence, ainsi que la façon d'obtenir un tel type de lamina et l'intérêt à son utilisation. Finalement, le dernier chapitre concerne certaines applications de la méthode polaire à l'identification des propriétés élastiques et de rupture des composites.
|
359 |
Simulation des écoulements souterrains dans un aquifère alluvial : contribution à l'étude de la nappe de l'Isère dans la Combe de Savoie (France) - Alpes françaisesMonier, Thierry 30 March 1983 (has links) (PDF)
Dans la Combe de Savoie , entre Albertville et Montmélian, les alluvions modernes de l'Isère recèlent une nappe en étroite liaison avec les cours d ' eau qui empruntent la vallée. L'objet de cette étude est de définir avec précision le comportement hydrodynamique de l 'aquifère afin d' en déterminer les potentialités . Une première partie sera consacrée à l'analyse des nombreuses données fournies par diverses campagnes de reconnaissance (géophysique , hydrométrie des cours d ' eau , relevés piézométriques réguliers, etc ... ), elle portera essentiellement sur - la définition de la structure du remplissage alluvial, - l'évaluation des paramètres régissant les écoulements souterrains (transmissivité, emmagasinement, etc . .. ) à l ' aide de méthodes analytiques , - la caractérisation climatologique et hydrologique d'une période d'étiage de référence (octobre 1980). Dans une seconde partie, nous réaliserons, à partir des résultats précédents , plusieurs simulations numériques des écoulements souterrains à l'échelle de l'ensemble de la vallée. La mise en oeuvre de ce modèle mathématique conduit à évaluer sommairement les potentialités actuelles de l'aquifère qui permettent d'ores et déjà d'envisager un premier schéma d'exploitation de cette ressource en eau.
|
360 |
Domaines numériques abstraits faiblement relationnelsMiné, Antoine 06 December 2004 (has links) (PDF)
Le sujet de cette thèse est le développement de méthodes pour l'analyse automatique des programmes informatiques. Une des applications majeures est la conception d'outils pour découvrir les erreurs de programmations avant qu'elles ne se produisent, ce qui est crucial à l'heure où des tâches critiques mais complexes sont confiées à des ordinateurs. Nous nous plaçons dans le cadre de l'interprétation abstraite, qui est une théorie de l'approximation sûre des sémantiques de programmes, et nous nous intéressons en particulier aux domaines abstraits numériques spécialisés dans la découverte automatique des propriétés des variables numérique d'un programme.<br />Dans cette thèse, nous introduisons plusieurs nouveaux domaines numériques abstraits et en particulier le domaine des zones (permettant de découvrir des invariants de la forme X-Y≤c, des zones de congruence (X≡Y+c [b]) et des octogones (±X ±Y≤c). Ces domaines sont basés sur les concepts existants de graphe de potentiel, de matrice de différences bornées et sur l'algorithmique des plus courts chemins. Ils sont intermédiaires, en terme de précision et de coût, entre les domaines non relationnels (tel celui des intervalles), très peu précis, et les domaines relationnels classiques (tel celui des polyèdres), très coûteux. Nous les nommons " faiblement relationnels ". Nous présentons également des méthodes permettant d'appliquer les domaines relationnels à l'analyse de nombres à virgule flottante, jusqu'à présent uniquement réalisable par des domaines non relationnels donc peu précis. Enfin, nous présentons des méthodes génériques dites de " linéarisation " et de " propagation de constantes symboliques " permettant d'améliorer la précision de tout domaine numérique, pour un surcoût réduit.<br />Les méthodes introduites dans cette thèse ont été intégrées à Astrée, un analyseur spécialisé dans la vérification de logiciels embarqués critiques et se sont révélées indispensables pour prouver l'absence d'erreurs à l'exécution de logiciels de commande de vol électrique. Ces résultats expérimentaux viennent justifier l'intérêt de nos méthodes pour des cadre d'applications réelles.
|
Page generated in 0.0476 seconds