• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Traitement subjectif de l'incertitude dans les décisions individuelles

Baillon, Aurélien 27 September 2007 (has links) (PDF)
La thèse porte sur la théorie de la décision individuelle en situation d'incertitude. Elle vise à comprendre, décrire et représenter les décisions, en différenciant ce qui provient des croyances du décideur de ce qui se rattache à son attitude face à l'incertitude. Elle est principalement composée de quatre contributions complémentaires. La première est théorique et caractérise l'attitude face au risque et à l'ambiguïté via l'utilisation de relations d'arbitrage portant sur les conséquences, dans la lignée des modèles de type utilité espérée, représentant l'aversion au risque et/ou à l'ambiguïté par la décroissance de l'utilité marginale. Le reste de la thèse s'appuie sur des modèles généralisant l'utilité espérée où les probabilités sont transformées par le décideur. La deuxième contribution est alors expérimentale et s'intéresse au décideur disposant d'avis d'experts lui indiquant le risque encouru. Il est proposé une méthode, basée sur l'observation des choix, pour étudier comment le décideur combine les avis à sa disposition. Cette méthode est appliquée pour comparer des situations où les experts donnent une évaluation imprécise du risque à des situations où leurs évaluations du risque encouru sont conflictuelles. Le troisième travail introduit le concept de source uniforme d'incertitude, c'est-à-dire d'ensemble d'événements générés par un même mécanisme d'incertitude et pour lesquels il existe une mesure de probabilité subjective. Une expérience est conduite dans laquelle de telles probabilités subjectives sont obtenues. Est ensuite étudié le consentement à parier des individus sur des événements de probabilité (subjective) équivalente mais provenant de sources différentes. La dernière contribution revient sur la méthode d'obtention des probabilités subjectives et la compare (théoriquement) aux autres méthodes. Sa faisabilité et ses limites sont ensuite étudiées dans une nouvelle expérience.
42

Problèmes de non arbitrage, de recouvrement et d'optimisation de consommation dans un marché financier avec coûts de transactions.

De Vallière, Dimitri 09 December 2010 (has links) (PDF)
Cette thèse propose une étude de trois grands problèmes de mathématiques financières dans les marchés financiers avec coûts de transactions proportionnels. La première partie est consacrée à l'étude des conditions de non arbitrage dans un marché avec information incomplete. La seconde partie résoud le problème de recouvrement d'option américaine dans le cas continue et introduit le concept de système de prix cohérent. Enfin, la troisième partie traite du problème de consommation - investissement de Merton dans un marché où le processus des prix est dirigé par un processus de Lévy.
43

ENDOMMAGEMENT, RUPTURE ET CHANGEMENTS D'ÉCHELLES DANS LES MATÉRIAUX HÉTÉROGÈNES

Hild, François 10 June 1998 (has links) (PDF)
Les analyses présentées dans ce mémoire portent sur l'endommagement et la rupture de matériaux hétérogènes. Le mécanisme principal de dégradation est la fissuration à l'échelle la plus petite. Une approche probabiliste s'avère être un outil efficace. Ceci concerne des matériaux à comportement fragile (céramiques, fontes GS sous sollicitation cyclique) ou quasi-fragile (céramiques monolithiques impactées ou renforcées par des fibres longues, ciments renforcés par des fibres longues ou courtes). Le dialogue entre les différentes échelles a d'une part permis de construire des modèles de prévision de l'endommagement et de la rupture. D'autre part, diverses stratégies d'identification des paramètres du matériau ont été mises en oeuvre.
44

Modèles et méthodes actuarielles pour l'évaluation quantitative des risques en environnement solvabilité II

Ben Dbabis, Makram 14 December 2012 (has links) (PDF)
Les nouvelles normes prudentielles Solvabilité II se penchent sur question du contrôle de la solvabilité des acteurs de marché d'assurance et de réassurance. Nous nous sommes proposé dans cette thèse de présenter les moyens techniques permettant la recherche des besoins de couverture de la solvabilité des assureurs se traduisant par la mise en œuvre d'une probabilité de ruine à moins de 0,5%, dans le cadre des modèles internes. La première partie, en mettant l'accent sur le problème de valorisation économique des passifs d'assurance vie lié aux options incluses dans les contrats d'assurance et donc d'obtention de la distribution de la situation nette à un 1 an et donc de son quantile d'ordre 0.5%, présentera les différentes approches de modélisation permettant de contourner ces problèmes :- Approche des simulations dans les simulations purement simulatoire et trop coûteuse en temps de calcul,- Algorithme d'accélération des simulations dans les simulations pour contourner les limites de la première approche,- Approche par portefeuille répliquant- Approche par fonction de perteDans une deuxième partie, l'accent sera mis sur la modélisation des risques techniques mal appréhendés par les assureurs en développant deux approches stochastiques pour modéliser, dans le cadre d'un modèle interne, les risques de longévité, de mortalité et aussi le risque dépendance. La troisième partie intéressera à l'optimisation du capital économique en mettant en œuvre la réassurance comme outil de gain en capital économique en proposant des approches de choix optimal en réassurance
45

Fiabilité et cycle de vie des composants mécaniques dégradés : essais de démonstration et analyse basée sur la fonction de Hasard

Ahmed, Hussam 03 December 2009 (has links) (PDF)
Le processus de dimensionnement des structures et des systèmes mécaniques comportent de plusieurs étapes, allant de la définition des conditions et des besoins tout au long du cycle de vie, en vue de la spécification de la capacité et de la résistance requises pour accomplir les missions escomptées. La fiabilité figure parmi les objectifs les plus importants pour les fabricants, en plus de l'aspect économique, facteur clé, qui influence largement le processus de conception. Dans ce contexte, la conception doit être élaborée afin de définir le meilleur compromis entre la fiabilité et le coût. Ce qui implique une étude précise et détaillée de tout le cycle de vie du produit, de la naissance jusqu'à la mise au rebus. Cette étude couvre les différentes phases du cycle de vie du produit, en intégrant la nécessité de démontrer la fiabilité du produit avant de commencer la production en série, sous des contraintes de coût et de délais. Ce travail vise à donner des éléments de réponse aux trois questions suivantes : * Comment peut-on démontrer la fiabilité du produit à partir de quelques essais ? Parmi les quatre approches considérées, la méthode de composition des incertitudes montre sa robustesse pour démontrer la fiabilité du produit, sans pour autant conduire à un surdimensionnement excessif. * Quel est le critère permettant une conception robuste sous des charges répétitives pour un système non dégradable ? Dans la phase utile du cycle de vie du produit, la défaillance est principalement due à la variabilité des charges appliquées lorsque la résistance n'est pas dégradée. Le modèle d'interférence contrainte-résistance considère la probabilité de défaillance comme cible de conception. Cependant, pour le cas des charges répétitives, ce critère est sensible au nombre d'applications de ces charges. Pour cela, la conception basée sur le hasard est proposée comme outil robuste pour la conception des composants intrinsèquement fiables. * Quelle est l'approche générale permettant de traiter les mécanismes de dégradation ? Dans la phase de vieillissement, la modélisation de la dégradation est obligatoire pour plusieurs raisons, telles que la maîtrise des risques industriels et la gestion du cycle de vie. La fonction de hasard fournit un indicateur approprié pour la prévision de l'état de dégradation et par conséquent, l'estimation de la durée de vie résiduelle.
46

Mise au point de détecteurs Micromegas pour le spectromètre CLAS12 au laboratoire jefferson

Charles, Gabriel 24 September 2013 (has links) (PDF)
Cette thèse présente mon travail de recherche accompli depuis 2010 pour développer les détecteurs Micromegas du spectromètre CLAS12 qui sera installé dans le hall B du laboratoire Jefferson aux Etats-Unis. Les Micromegas sont des détecteurs gazeux robustes, rapides et bon marché. Ils doivent cependant être adaptés à l'environnement spécifique de CLAS12 car les défis sont nombreux : présence d'un champ magnétique fort, éloignement de l'électronique, fonctionnement avec un taux de hadrons élevé, nécessité de courber les détecteurs, espace disponible restreint. Ma thèse a commencé par des tests de détecteurs en faisceau au CERN qui ont permis d'estimer que le taux de décharges dans les Micromegas de CLAS12 serait de quelques Hertz. Une part importante de ce document est ainsi consacrée à l'étude de plusieurs méthodes innovantes dont l'objectif est de minimiser le temps mort dû aux décharges. J'ai donc mené des tests intensifs portant sur l'optimisation du filtre haute tension de la microgrille, l'introduction d'une feuille de GEM dans un Micromegas ou encore l'utilisation de Micromegas dits résistifs. Ces derniers donnant d'excellents résultats, des prototypes à l'échelle 1, dont l'un fabriqué par un industriel, ont été testés. La mécanique et le point de fonctionnement (gaz, tensions, géométrie...) des détecteurs ont ensuite été validés par des tests en laboratoire. Toutefois, afin de s'assurer un meilleur rapport signal sur bruit, des optimisations de la microgrille du détecteur ont été menées. Le CEA Saclay étant également responsable du développement de l'électronique des Micromegas pour CLAS12, j'ai comparé ses performances avec une autre électronique, vérifier sa résolution temporelle et déterminer le rapport signal sur bruit lorsque des limandes de 2 m connectent le détecteur à l'électronique. Les progrès réalisés dans le cadre de CLAS12 ont par ailleurs initié d'autres projets. J'ai ainsi effectué des simulations basées sur des pseudo-données pour valider la faisabilité d'une expérience portant sur les mésons exotiques pour laquelle nous avons proposé un trajectographe composé de Micromegas.
47

Analyse de sensibilité pour des problèmes de commande optimale. Commande optimale stochastique sous contrainte en probabilité

Pfeiffer, Laurent 05 November 2013 (has links) (PDF)
Cette thèse est divisée en deux parties. Dans la première partie, nous étudions des problèmes de contrôle optimal déterministes avec contraintes et nous nous intéressons à des questions d'analyse de sensibilité. Le point de vue que nous adoptons est celui de l'optimisation abstraite; les conditions d'optimalité nécessaires et suffisantes du second ordre jouent alors un rôle crucial et sont également étudiées en tant que telles. Dans cette thèse, nous nous intéressons à des solutions fortes. De façon générale, nous employons ce terme générique pour désigner des contrôles localement optimaux pour la norme L1. En renforçant la notion d'optimalité locale utilisée, nous nous attendons à obtenir des résultats plus forts. Deux outils sont utilisés de façon essentielle : une technique de relaxation, qui consiste à utiliser plusieurs contrôles simultanément, ainsi qu'un principe de décomposition, qui est un développement de Taylor au second ordre particulier du lagrangien. Les chapitres 2 et 3 portent sur les conditions d'optimalité nécessaires et suffisantes du second ordre pour des solutions fortes de problèmes avec contraintes pures, mixtes et sur l'état final. Dans le chapitre 4, nous réalisons une analyse de sensibilité pour des problèmes relaxés avec des contraintes sur l'état final. Dans le chapitre 5, nous réalisons une analyse de sensibilité pour un problème de production d'énergie nucléaire. Dans la deuxième partie, nous étudions des problèmes de contrôle optimal stochastique sous contrainte en probabilité. Nous étudions une approche par programmation dynamique, dans laquelle le niveau de probabilité est vu comme une variable d'état supplémentaire. Dans ce cadre, nous montrons que la sensibilité de la fonction valeur par rapport au niveau de probabilité est constante le long des trajectoires optimales. Cette analyse nous permet de développer des méthodes numériques pour des problèmes en temps continu. Ces résultats sont présentés dans le chapitre 6, dans lequel nous étudions également une application à la gestion actif-passif.
48

Modélisation 0D/1D de la combustion diesel : du mode conventionnel au mode homogène

Bordet, Nicolas 12 December 2011 (has links) (PDF)
Cette thèse porte sur la modélisation 0D/1D de la combustion Diesel dans les moteurs récents. L'objectif est d'augmenter la précision des modèles tout en limitant les temps de calcul associés afin d'utiliser la simulation comme un outil dédié à la mise au point. Dans une première partie, le développement d'un modèle 0D orienté simulation système est présenté. La prise en compte de l'ensemble des phénomènes physico-chimiques se déroulant dans la chambre de combustion confère au modèle un niveau de prédictivité conséquent. Un nouveau modèle de combustion de prémélange est proposé, permettant une modélisation détaillée des combustions fortement diluées et des combustions relatives aux injections précoces. Une approche innovante permettant de quantifier les interactions entre les jets pour la multi injection est également proposée. Après calibration sur un nombre restreint d'essais moteur, les résultats du modèle global sont comparés à des mesures expérimentales pour toute la plage de fonctionnement du moteur. La seconde partie de ce travail porte sur la modélisation 1D de la combustion Diesel. Un modèle de jet Diesel est d'abord développé et validé sur des mesures expérimentales. Ce modèle est ensuite étendu à des conditions réactionnelles à l'aide d'un couplage avec un modèle de combustion. Ce dernier s'appuie sur une tabulation des mécanismes de cinétique chimique, ainsi que sur une approche Eddy Break-Up permettant de modéliser le taux de réaction lié au micro mélange. Ce modèle est ensuite intégré à un modèle de chambre de combustion et une première validation du modèle sur des essais moteur réels est entreprise.
49

Conception de machines probabilistes dédiées aux inférences bayésiennes / Theory and hardware implementation of probabilistic machines

Faix, Marvin 12 December 2016 (has links)
Ces travaux de recherche ont pour but de concevoir des ordinateurs baséssur une organisation du calcul mieux adaptée au raisonnement probabiliste.Notre intérêt s’est porté sur le traitement des données incertaines et lescalculs à réaliser sur celles-ci. Pour cela, nous proposons des architectures demachines se soustrayant au modèle Von Neumann, supprimant notammentl’utilisation de l’arithmétique en virgule fixe ou flottante. Les applicationscomme le traitement capteurs ou la robotique en générale sont des exemplesd’utilisation des architectures proposées.Plus spécifiquement, ces travaux décrivent deux types de machines probabilistes, radicalement différentes dans leur conception, dédiées aux problèmesd’inférences bayésiennes et utilisant le calcul stochastique. La première traiteles problèmes d’inférence de faibles dimensions et utilise le calcul stochas-tique pour réaliser les opérations nécessaires au calcul de l’inférence. Cettemachine est basée sur le concept de bus probabiliste et possède un très fortparallélisme. La deuxième machine permet de traiter les problèmes d’infé-rence en grandes dimensions. Elle implémente une méthode MCMC sous laforme d’un algorithme de Gibbs au niveau binaire. Dans ce cas, le calculstochastique est utilisé pour réaliser l’échantillonnage, bit à bit, du modèle.Une importante caractéristique de cette machine est de contourner les pro-blèmes de convergence généralement attribués au calcul stochastique. Nousprésentons en fin de manuscrit une extension de ce second type de machine :une machine générique et programmable permettant de trouver une solutionapprochée à n’importe quel problème d’inférence. / The aim of this research is to design computers best suited to do probabilistic reasoning. The focus of the research is on the processing of uncertain data and on the computation of probabilistic distribution. For this, new machine architectures are presented. The concept they are designed on is different to the one proposed by Von Neumann, without any fixed or floating point arithmetic. These architectures could replace the current processors in sensor processing and robotic fields.In this thesis, two types of probabilistic machines are presented. Their designs are radically different, but both are dedicated to Bayesian inferences and use stochastic computing. The first deals with small-dimension inference problems and uses stochastic computing to perform the necessary operations to calculate the inference. This machine is based on the concept of probabilistic bus and has a strong parallelism.The second machine can deal with intractable inference problems. It implements a particular MCMC method: the Gibbs algorithm at the binary level. In this case, stochastic computing is used for sampling the distribution of interest. An important feature of this machine is the ability to circumvent the convergence problems generally attributed to stochastic computing. Finally, an extension of this second type of machine is presented. It consists of a generic and programmable machine designed to approximate solution to any inference problem.
50

Modélisation 0D/1D de la combustion diesel : du mode conventionnel au mode homogène / 0D/1D modeling of Diesel combustion : from conventional to homogeneous combustion

Bordet, Nicolas 12 December 2011 (has links)
Cette thèse porte sur la modélisation 0D/1D de la combustion Diesel dans les moteurs récents. L’objectif est d’augmenter la précision des modèles tout en limitant les temps de calcul associés afin d’utiliser la simulation comme un outil dédié à la mise au point. Dans une première partie, le développement d’un modèle 0D orienté simulation système est présenté. La prise en compte de l’ensemble des phénomènes physico-chimiques se déroulant dans la chambre de combustion confère au modèle un niveau de prédictivité conséquent. Un nouveau modèle de combustion de prémélange est proposé, permettant une modélisation détaillée des combustions fortement diluées et des combustions relatives aux injections précoces. Une approche innovante permettant de quantifier les interactions entre les jets pour la multi injection est également proposée. Après calibration sur un nombre restreint d’essais moteur, les résultats du modèle global sont comparés à des mesures expérimentales pour toute la plage de fonctionnement du moteur. La seconde partie de ce travail porte sur la modélisation 1D de la combustion Diesel. Un modèle de jet Diesel est d’abord développé et validé sur des mesures expérimentales. Ce modèle est ensuite étendu à des conditions réactionnelles à l’aide d’un couplage avec un modèle de combustion. Ce dernier s’appuie sur une tabulation des mécanismes de cinétique chimique, ainsi que sur une approche Eddy Break-Up permettant de modéliser le taux de réaction lié au micro mélange. Ce modèle est ensuite intégré à un modèle de chambre de combustion et une première validation du modèle sur des essais moteur réels est entreprise. / The present thesis focuses on the 0D/1D Diesel combustion modeling of recent engines. The goal is to improve models accuracy while minimizing computation times in order to use simulation as a tool for engine pre-mapping. In the first part, a 0D model designed as a system simulation-oriented tool is proposed. The main contribution of this study is the modeling of the premixed part of the Diesel combustion. This model allows a detailed modeling of highly diluted combustion and combustion related to early injections. A new approach to quantify interactions between each spray in the case of multi injection strategies is also proposed. After calibration using a very small number of engine tests, results for the global combustion chamber model are compared with experimental measurements for the overall engine operating conditions. The second part of this work deals with the 1D Diesel combustion modeling. A Diesel spray model is at first developed and validated on experimental measurements. This model is then extended to reaction conditions using the coupling with a combustion model. The combustion model makes use of tabulated local reaction rates of fuel and is based on the Eddy Break-Up approach to describe the reaction rate related to the turbulent mixing process. The next step is the integration of the burning spray model into a Diesel engine combustion chamber model. A first validation using experimental results for a recent Diesel engine is done.

Page generated in 0.0295 seconds