• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 30
  • 3
  • Tagged with
  • 116
  • 116
  • 116
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Cosmological parameter estimation with the Planck satellite data : from the construction of a likelihood to neutrino properties / Estimation des paramètres cosmologiques à partir des données du satellite Planck : de la construction d’une fonction de vraisemblance aux caractéristiques des neutrinos

Spinelli, Marta 28 September 2015 (has links)
Le fond diffus cosmologique (CMB), relique du Big-Bang chaud, porte les traces à la fois de la formation des structures des époques récentes et des premières phases énergétiques de l'Univers.Le satellite Planck, en service de 2009 à 2013, a fourni des mesures de haute qualité des anisotropies du CMB. Celles-ci sont utilisés dans cette thèse pour déterminer les paramètres du modèle cosmologique standard et autour du secteur des neutrinos.Ce travail décrit la construction d'un fonction de vraisemblance pour les hauts-l de Planck. Cela implique une stratégie de masquage pour l'émission thermique de la Galaxie ainsi que pour les sources ponctuelles. Les avant-plans résiduels sont traités directement au niveau du spectre de puissance en utilisant des templates physiques bases sur des études de Planck.Les méthodes statistiques nécessaires pour extraire les paramètres cosmologiques dans la comparaison entre les modèles et les données sont décrites, à la fois la méthode bayésienne de Monte-Carlo par chaînes de Markov et la technique fréquentiste du profil de la fonction de vraisemblance.Les résultats sur les paramètres cosmologiques sont présentés en utilisant les données de Planck seul et en combinaison avec les données à petites échelles des expériences de CMB basées au sol (ACT et SPT), avec les contraintes provenant des mesures des oscillations acoustiques des baryons (BAO) et des supernovae. Les contraintes sur l'échelle absolue de la masse des neutrinos et sur le nombre effectif de neutrinos sont également discutées. / The cosmic microwave background (CMB), relic of the hot Big-Bang, carries the traces of both the rich structure formation of the late time epochs and the energetic early phases of the universe.The Planck satellite provided, from 2009 to 2013, high-quality measurements of the anisotropies of the CMB. These are used in this thesis to determine the parameters of the standard cosmological model and of the extension concerning the neutrino sector. The construction of an high-l Planck likelihood is detailed. This involves a masking strategy that deals in particular with the contamination from thermal emission of the Galaxy. The residual foregrounds are treated directly at the power spectrum level relying on physically motivated templates based on Planck studies.The statistical methods needed to extract the cosmological parameters in the comparison between models and data are described, both the Bayesian Monte Carlo Markov Chain techniques and the frequentist profile likelihood. Results on cosmological parameters are presented using Planck data alone and in combination with the small scale data from the ground based CMB experiment ACT and SPT, the Baryon Acoustic Oscillation and the Supernovae. Constraints on the absolute scale of neutrino masses and of the number of effective neutrino are also discussed.
62

Influence des fautes transitoires sur la fiabilité d'un système commandé en réseau

Ghostine, Rony 12 June 2008 (has links) (PDF)
Ce travail s'inscrit dans le cadre de l'évaluation de la sûreté de fonctionnement des systèmes commandés en réseau (SCR). La capacité des systèmes de commandes à compenser les effets de certaines défaillances de composants amène à redéfinir le concept de défaillances du système. La conséquence est que l'évaluation de la fiabilité prévisionnelle du système est dépendante de l'évaluation fonctionnelle et devient impossible avec les méthodes traditionnelles de la sûreté de fonctionnement. Pour surmonter ces difficultés, une approche basée sur la modélisation en vue de la simulation est proposée. Nous avons choisi les Réseaux d'activités stochastiques (SAN) largement connus dans la modélisation des protocoles de communication ainsi que dans les études de la sûreté de fonctionnement. Dans un premier temps, nous avons cherché à identifier l'incidence de deux types de défaillances fugitives : la perte d'un échantillon d'une part et le retard d'un échantillon dans la boucle de régulation d'autre part. Après, nous simulons le comportement en présence des deux types de perturbations simultanément, mettant en évidence des effets cumulatifs. Si on tient compte maintenant du fait que l'origine des pertes ou retards est due à la présence du réseau, il faut l'introduire dans le modèle. On introduit alors dans le modèle global du système la représentation SAN d'un réseau CAN et l'injection des défaillances dans celui-ci. La méthode de Monte Carlo est utilisée pour estimer les indicateurs de sûreté de fonctionnement et on montre l'influence de certains facteurs comme la charge du réseau par exemple. Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes satisfaisant à des exigences critiques sur certains paramètres de performance.
63

Réduction de variance et discrétisation d'équations différentielles stochastiques.<br />Théorèmes limites presque sûre pour les martingales quasi-continues à gauche.

Kebaier, Ahmed 13 December 2005 (has links) (PDF)
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.<br /><br />La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.<br />Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.<br /><br />Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.<br />Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.<br /><br />La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
64

Modèles multi-échelles pour les fluides viscoélastiques

Lelievre, Tony 21 June 2004 (has links) (PDF)
Ce travail porte principalement sur l'analyse mathématique de modèles multi-échelles pour la simulation de fluides polymériques. Ces modèles couplent, au niveau microscopique, une description moléculaire de l'évolution des chaînes de polymère (sous forme d'une équation différentielle stochastique) avec, au niveau macroscopique, les équations de conservation de la masse et de la quantité de mouvement pour le solvant (sous forme d'équations aux dérivées partielles). Le chapitre 1 introduit les modèles et donne les principaux résultats obtenus. Dans les chapitres 2, 4, 5 et 7 on montre en quel sens les équations sont bien posées pour divers modèles de polymère, en considérant soit des écoulements homogènes, soit des écoulements cisaillés plans. Dans les chapitres 2, 3, 6 et 7, on analyse et on prouve la convergence de méthodes numériques pour ces modèles. Enfin, le chapitre 8 concerne le comportement en temps long du système. Une deuxième partie de ce document est constituée de trois chapitres portant sur un travail en magnétohydrodynamique (MHD), en collaboration avec l'industrie. Le chapitre 9 est une introduction à la problématique ainsi qu'aux méthodes numériques utilisées. Le chapitre 10 décrit un nouveau cas-test en MHD. Enfin, le chapitre 11 donne une analyse de la stabilité du schéma numérique utilisé.
65

Estimateur par variables instrumentales : une approche alternative?

Ba, Bocar 10 1900 (has links) (PDF)
Ce texte propose une façon alternative d'obtenir l'estimateur à variables instrumentales. Dans un premier temps, un ensemble d'estimés candidats est obtenu à l'aide d'une estimation par méthode des moments généralisés. Puis, l'estimateur alternatif est obtenu en combinant les estimés candidats par l'intermédiaire d'une matrice de poids optimale. Les hypothèses, concernant l'estimateur alternatif, garantissant l'efficacité et la normalité asymptotique sont également présentées. De plus, un test permettant de vérifier la validité des instruments est suggéré. Les expériences de Monte Carlo montrent que le biais de l'estimateur proposé augmente avec le nombre d'estimés candidats. Finalement, l'écart type moyen de l'estimateur proposé est plus petit que l'estimateur à variables instrumentales standard quand les instruments ne sont pas faibles. Lorsque la gamme des estimateurs possibles s'élargit, l'estimateur alternatif démontre de meilleures performances que l'estimateur standard dans le cas d'une endogénéité qui est faible ou moyenne. Les propriétés de puissance dans le cadre de l'alternative de type Pitman-local sont également suggérées. Les simulations de Monte Carlo montrent que la puissance du test en grand échantillon semble satisfaisante au niveau de la taille et de la puissance. Cependant il se peut que ce test souffre d'un biais en petit échantillon. Finalement, en utilisant l'approche d'Angrist et Krueger (1991) pour l'application empirique, les estimateurs alternatif et standard donnent des résultats similaires; cependant la méthode proposée donne des écart-types plus faibles. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : alternative de type Pitman-local, fonction de puissance, méthode des moments généralisés, minimisation de la distance simulation de Monte Carlo, test de Wald, variables instrumentales, tests d'hypothèses.
66

Analyse radiative des photobioréacteurs

Dauchet, Jérémi 07 December 2012 (has links) (PDF)
L'ingénierie de la photosynthèse est une voie prometteuse en vue de produire à la fois des vecteurs énergétiques et des molécules plateformes pour palier la raréfaction des ressources fossiles. Le défi à relever est de taille car il faut réussir à mettre au point des procédés solaires de production de biomasse à constante de temps courte (quelques jours), là où une centaine de millions d'années a été nécessaire à la formation du pétrole. Cet objectif pourrait être atteint en cultivant des micro-organismes photosynthétiques dans des photobioréacteurs dont les performances cinétiques en surface et en volume seraient optimales. Une telle optimisation nécessite avant tout une analyse fine des transferts radiatifs au sein du procédé. L'analyse radiative des photobioréacteurs qui est ici proposée s'ouvre sur la détermination des propriétés d'absorption et de diffusion des suspensions de micro-organismes photosynthétiques, à partir de leurs caractéristiques morphologiques, métaboliques et structurales. Une chaîne de modélisation est construite, mise en oeuvre et validée expérimentalement pour des micro-organismes de formes simples ; à terme, la démarche développée pourra directement être étendue à des formes plus complexes. Puis, l'analyse du transfert radiatif en diffusion multiple est introduite et illustrée par différentes approximations qui apparaissent pertinentes pour une conceptualisation des photobioréacteurs, menant ainsi à la construction d'un intuitif nécessaire à leur optimisation. Enfin, la méthode de Monte Carlo est mise en oeuvre afin de résoudre rigoureusement la diffusion multiple en géométries complexes (géométries qui découlent d'une conception optimisée du procédé) et afin de calculer les performances cinétiques à l'échelle du photobioréacteur. Ce dernier calcul utilise une avancée méthodologique qui permet de traiter facilement le couplage non-linéaire du transfert radiatif à la cinétique locale de la photosynthèse (et qui laisse entrevoir de nombreuses autres applications dans d'autres domaines de la physique du transport). Ces outils de simulation mettent à profit les développements les plus récents autour de la méthode de Monte Carlo, tant sur le plan informatique (grâce à une implémentation dans l'environnement de développement EDStar) que sur le plan algorithmique : formulation intégrale, algorithmes à zéro-variance, calcul de sensibilités (le calcul des sensibilités aux paramètres géométriques est ici abordé d'une manière originale qui permet de simplifier significativement sa mise en oeuvre, pour un ensemble de configurations académiques testées). Les perspectives de ce travail seront d'utiliser les outils d'analyse développés durant cette thèse afin d'alimenter une réflexion sur l'intensification des photobioréacteurs, et d'étendre la démarche proposée à l'étude des systèmes photoréactifs dans leur ensemble.
67

Modélisation markovienne des dynamiques d'usage des sols. Cas des parcelles situées sur le bord du corridor forestier Ranomafana-Andringitra

Raherinirina, Angelo 02 August 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modélisation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'Andringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de données de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'approximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus nécessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.
68

Réduction de variance et discrétisation d'équations différentielles stochastiques. <br />Théorèmes limites presque sûre pour les martingales quasi-continues à gauche.

Kebaier, Ahmed 13 December 2005 (has links) (PDF)
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.<br /><br />La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.<br />Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.<br /><br />Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.<br />Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.<br /><br />La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
69

Reconstitution par filtrage non-linéaire de milieux turbulents et rétrodiffusants à l'aide de LIDARs Doppler et aérosols / Retrival of the propertiers of turbulent and backscattering media using non linear filtering techniques applied to the observation data from a combination of a dopller and an aerosol lidar

Campi, Antoine 09 December 2015 (has links)
Le but de cette thèse était de mettre en place un algorithme permettant de traiter des données de LIDAR (LIght Detection And Ranging). On a principalement eu recours à des LIDAR de type Doppler et aérosols. Les mesures de ces appareils sont obtenues de telle sorte que l'on dispose en fait d'une grille d'observation. Cependant on souhaite avoir des informations sur l'atmosphère qui est un milieu continu. Nous avons utilisé des méthodes d'analyse multi-résolution pour se placer dans un cadre mathématique correspondant au problème physique. On a donc obtenu un découpage de l'espace d'évolution du processus en deux sous-espaces orthogonaux, imposé par la structure des observations. Nous avons alors pu étendre la théorie du filtrage non linéaire dans ce cadre. Pour cela nous avons utilisé les noyaux de filtrage de type Feynman-Kac. Il nous a fallu reprendre les calculs et formulés des hypothèses cohérentes avec le problème physique pour obtenir des résultats de convergence semblable à ceux de la théorie classique. Nous nous sommes alors ramené dans le cadre adapté aux filtres à particules. Nous avons alors développé différents algorithmes basés sur les résultats théoriques obtenus. Différentes applications de notre méthode nous a permis de mettre en valeur le fait que nous pouvions, dans une certaine mesure, retrouver des paramètres de taille inférieur à la résolution donnée par la grille. Finalement nous avons mis en place un cadre théorique ainsi qu'un algorithme permettant de traiter à la fois des données de LIDAR Doppler et aérosols. Nous avons ainsi pu vérifier que nos estimations se raffinaient par l'ajout de traceurs passifs. / The aim of this thesis was to set up an algorithm for processing LIDAR data (LIght Detection And Ranging). LIDARs of the Doppler and aerosol type were mainly used. The measurements of these measuring devices are obtained in such a way that only an observation grid is in fact available. However, it is desired to have information about the atmosphere which is a continuous medium. We used multi-resolution analysis methods to place ourselves in a mathematical framework corresponding to the physical problem. We have thus obtained a division of the space of evolution of the process into two orthogonal subspaces, imposed by the structure of the observations. We were able to extend the theory of nonlinear ltering in this framework. For this we used the filter kernels of Feynman-Kac type. We had to resume the calculations and formulate hypotheses consistent with the physical problem in order to obtain results of convergence similar to those of the classical theory. We then returned to the frame suitable for particle filters. We developed different algorithms based on the theoretical results obtained. Different applications of our method allowed us to highlight the fact that we could, to some extent, find parameters smaller than the resolution given by the grid. Finally, we set up a theoretical framework as well as an algorithm for processing LIDAR Doppler and aerosol data. We were able to verify that our estimates were refined by the addition of passive tracers.
70

Thermoformage du verre : développement numérique d'un modèle thermomécanique / Glass sagging process : numerical development of a thermomechanical model

Le Corre, Benjamin 16 January 2014 (has links)
Ce travail de thèse est dédié à la modélisation du thermoformage du verre. Le procédé consiste à déformer une plaque de verre sous l'effet de son propre poids. Posée sur un support et placée dans un four, la température de la pièce augmente et sa viscosité diminue, ce qui permet d'obtenir la forme désirée. Les simulations numériques, qui se basent sur un modèle thermomécanique, doivent permettre de mieux comprendre l'influence, sur le produit final, des différents paramètres d'essai, comme le chargement thermique, la géométrie et le matériau du moule ou encore la forme initiale de la pièce. Pour ce faire, le logiciel commercial Abaqus®, qui utilise une méthode de résolution des calculs par éléments finis, prend en charge les aspects mécaniques et conductifs. En revanche, comme le verre est un milieu semi-transparent, la modélisation du transfert radiatif est complexe et nécessite le développement d'un code se basant sur une méthode de Monte Carlo dite réciproque. La méthode a été validée en deux dimensions sur des cas-tests de la littérature scientifique. Le code a ensuite été implémenté dans le logiciel Abaqus® afin de réaliser des simulations de thermoformage sur moule et en suspension. Le verre est considéré comme un matériau élasto-visco-plastique obéissant à un modèle de Maxwell simple et la thermodépendance de la viscosité est prise en compte par une loi WLF. Une attention particulière a été accordée au modèle radiatif. Différentes hypothèses, issues de la littérature scientifique, sont testées afin de vérifier leur validité dans notre cas d'étude / This dissertation is dedicated to the modelling of the glass sagging process. This operation consists in forming a sheet or a plate of glass by heating it in a furnace. Glass temperature rises and reaches a work temperature at which viscosity is low enough to allow glass to sag under its own weight due to gravity. Numerical simulation, based on a thermomechanical model, can help to better understand the influence of the different parameters on the final product, such as the thermal loading, the shape and material of the mould or even the initial geometry of the glass plate. Thus, the commercial software Abaqus® is used to solve the problem by a finite elements method. However, it cannot render the complexity of the radiative heat transfer in glass. So, a Monte Carlo code based on a reciprocal method was developed and validated using benchmarks from the scientific literature. Then, the code was implemented into Abaqus® in order to simulate glass sagging on a mould or glass forming by the draping process. Glass is considered as an elasto-viscoplastic material which obeys a Maxwell model. Viscosity is dependant to temperature according to a WLF law. Special care was devoted to the radiative heat transfer. Different hypothesis are reviewed and performed to check their validity when applied to our numerical set-up

Page generated in 0.0727 seconds