• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 318
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 784
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 91
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Les déterminants de la santé en Chine : une approche de frontières stochastiques

Yao, Coffessou Diane January 2009 (has links) (PDF)
Les pays développés ont les indicateurs de santé les plus favorables du monde, à savoir, des taux de mortalités infantiles très bas et des niveaux d'espérance de vie très élevés. Plusieurs études essayent de cerner la relation qui existe entre les ressources de santé mises à la disposition des populations et J'état de santé de ces mêmes populations. II est possible de le faire en étudiant les dépenses de santé en relation avec l'état de santé. Toutefois, dans la plupart des études passées, des difficultés inhérentes à l'hétérogénéité des données ont fait en sorte qu'on obtient le plus souvent des résultats incertains. Il y a un manque de données de qualité, alors que le recours à des données homogènes est d'une très grande importance pour pouvoir mieux cerner l'impact des ressources en santé. Une des seules façons d'y arriver est d'utiliser des données provenant d'une seule source. Par exemple, le choix peut se porter sur des données provenant d'un seul pays, d'où l'intérêt d'utiliser des données régionales de la Chine. L'utilisation de ces données permet de tenir compte d'une part, du poids de la taille relative de chaque région dans l'analyse. Et d'autre part, elle permet d'éviter des problèmes liés à l'hétérogénéité des données. De ce fait, il n'y a pas de nécessité de conversion des unités monétaires, ni d'imprécision sur la notion de santé comme ce serait le cas dans une étude basée sur plusieurs pays. Les données chinoises sont fiables et de grande qualité et par conséquent peuvent être utilisées pour identifier les déterminants de la santé. Le fait que la Chine soit un pays émergent constitue un attrait en soi. Dans les pays développés, les investissements en santé sont extrêmement importants et de fait, le taux de rendement des dépenses en santé devient très faible (Crémieux et al., 1999). L'identification des déterminants de la santé devient difficile car la relation est identifiable à une constante et donc peu significative. Comme les dépenses de santé et les niveaux de santé dans les pays en voie de développement et les pays en émergence sont plus faibles, les possibilités d'identification des déterminants de la santé deviennent plus fortes. C'est cette combinaison de données de qualité et homogènes ainsi que de taux de rendement positif qui explique le recours aux données chinoises. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Frontières stochastiques, Déterminants de la santé, Taux de mortalité.
32

Optimisation stochastique et application financière

Sob Tchuakem, Pandry Wilson 10 1900 (has links) (PDF)
Notre travail concerne l'optimisation stochastique en temps continu et son application en finance. Nous donnons d'abord une formulation mathématique du problème, pour ensuite examiner deux approches de résolution du problème de contrôle optimal. La première, le principe du maximum stochastique, dans laquelle intervient la notion d'équations stochastiques rétrogrades (EDSRs), nous offre une condition nécessaire d'optimalité. Nous explorons également le cas où la condition devient suffisante. La deuxième approche quant à elle, est la programmation dynamique. Elle propose un candidat potentiel pour la solution optimale à travers la résolution d'une équation aux dérivées partielles appelée équation d'Hamilton Jacobi Bellman (HJB). Grâce au théorème de vérification, on pourra "vérifier" que le candidat est en fait la solution optimale. Enfin, nous appliquons ces deux techniques en résolvant le problème de sélection du portefeuille Moyenne-Variance avec ou sans contrainte d'interdiction de vente à découvert. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : contrôle optimal, principe du maximum, EDSR, programmation dynamique, HJB. Théorème de Vérification, moyenne-variance.
33

Méthodes particulaires en commande optimale stochastique

Dallagi, Anès 29 January 2007 (has links) (PDF)
Cette thèse, intitulée méthodes particulaires en commande optimale stochastique s'intéresse aux problèmes d'optimisation dans l'incertain et a leur résolution. Le terme particulaire renvoie au fait que nous considèrons des méthodes basées sur une approche de type Monte-Carlo, contrairement aux méthodes par programmation dynamiques stochastiques qui utilisent une discrétisation faite a priori.<br />La résolution des problèmes d'optimisation stochastique nécessite deux étapes : une étape d'approximation et une étape d'optimisation. Les deux premiers chapitres de ce manuscrit seront consacrées a la partie optimisation. Nous traiterons dans les chapitres qui suivront de l'approximation des problèmes d'optimisation dans l'incertain. Nous commencerons, dans ce manuscrit, (chapitre I) par présenter les problèmes qui seront abordés ; nous nous attarderons surtout sur la représentation de la structure d'information d'un probléme d'optimisation stochastique. Deux principales représentations se dégagent : une représentation algébrique et une représentation fonctionnelle. A partir de la nature de cette structure d'information, nous ferons la typologie des problémes d'optimisation stochastique : boucle ouverte, boucle fermée, information statique ou information dynamique. Le deuxième chapitre (chapitre II) traitera des conditions d'optimalité pour les problèmes de commande optimale stochastique : à partir des représentations algébriques ou fonctionnelles de l'information, nous présenterons des conditions d'optimalité du type Karush-Kuhn-Tucker. Les conditions présentées dans le chapitre II comportent presque invariablement des opérateurs d'espérance conditionnelle. La résolution de ces problèmes impose alors d'approximer ces opérateurs. Nous commencerons dans le chapitre III par motiver notre approche avant de passer à une revue de la littérature des problèmes d'estimation de densité, densité conditionnelle et espérance conditionnelle. Dans le chapitre IV, nous présentons la méthode des élements finis particulaires qui consiste en l'approximation de la structure d'information par une restriction du feedback à une classe donnée a priori de fonctions de base. Différents résultats de convergence et d'erreur asymptotique seront donné. L'avant dernier chapitre (chapitre V) présentera un algorithme chaotique de gradient pour la résolution de problémes d'optimisation stochastique en boucle fermée. Un résultat de convergence, de vitesse ainsi qu'une application numérique seront donnés. Nous nous intéresserons dans le dernier chapitre (chapitre VI) aux aspects numérique de la résolution des problèmes de commande optimale stochastique à partir des difféerentes méthodes présentes dans les chapitres précedents. Nous présenterons diffèrents algorithmes et heuristiques pour résoudre un problème de gestion de production d'un barrage hydro-électrique.
34

Application des méthodes d'approximations stochastiques à l'estimation de la densité et de la régression

Slaoui, Yousri 18 December 2006 (has links) (PDF)
L'objectif de cette thèse est d'appliquer les méthodes d'approximations stochastiques à l'estimation de la densité et de la régression. Dans le premier chapitre, nous construisons un algorithme stochastique à pas simple qui définit toute une famille d'estimateurs récursifs à noyau d'une densité de probabilité. Nous étudions les différentes propriétés de cet algorithme. En particulier, nous identifions deux classes d'estimateurs; la première correspond à un choix de pas qui permet d'obtenir un risque minimal, la seconde une variance minimale. Dans le deuxième chapitre, nous nous intéressons à l'estimateur proposé par Révész (1973, 1977) pour estimer une fonction de régression r:x-> E[Y|X=x]. Son estimateur r_n, construit à l'aide d'un algorithme stochastique à pas simple, a un gros inconvénient: les hypothèses sur la densité marginale de X nécessaires pour établir la vitesse de convergence de r_n sont beaucoup plus fortes que celles habituellement requises pour étudier le comportement asymptotique d'un estimateur d'une fonction de régression. Nous montrons comment l'application du principe de moyennisation des algorithmes stochastiques permet, tout d'abord en généralisant la définition de l'estimateur de Révész, puis en moyennisant cet estimateur généralisé, de construire un estimateur récursif br_n qui possède de bonnes propriétés asymptotiques. Dans le troisième chapitre, nous appliquons à nouveau les méthodes d'approximation stochastique à l'estimation d'une fonction de régression. Mais cette fois, plutôt que d'utiliser des algorithmes stochastiques à pas simple, nous montrons comment les algorithmes stochastiques à pas doubles permettent de construire toute une classe d'estimateurs récursifs d'une fonction de régression, et nous étudions les propriétés asymptotiques de ces estimateurs. Cette approche est beaucoup plus simple que celle du deuxième chapitre: les estimateurs construits à l'aide des algorithmes à pas doubles n'ont pas besoin d'être moyennisés pour avoir les bonnes propriétés asymptotiques.
35

TONGA : un algorithme de gradient naturel pour les problèmes de grande taille

Manzagol, Pierre-Antoine January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
36

Une approche neuronale pour l'optimisation stochastique des réservoirs hydroélectriques /

Boukhtouta, Abdeslem, January 2003 (has links)
Thèse (Ph. D.)--Université Laval, 2003. / Bibliogr.: f. [183]-196. Publié aussi en version électronique.
37

Bruits de microplasmas : modèles stochastiques.

Ellouze, Noureddine, January 1900 (has links)
Th.--Sci., électronique--Toulouse--I.N.P., 1977. N°: 28.
38

Multi-criteria Supply Chain Network Design under uncertainty / Conception des chaînes logistiques multicritères avec prise en compte des incertitudes

Bouzembrak, Yamine 09 December 2011 (has links)
Les modèles de conception des chaînes logistiques sont devenus de plus en plus complexes, à cause de l'environnement économique incertain et l'introduction de nouveaux critères de décision tels que : l'aspect environnemental, l'aspect social, l'aspect législatif, l'aspect économique, la satisfaction du client et la prise en compte des risques. Répondre aux changements qui touchent les chaînes logistiques exige de composer avec des incertitudes et des informations incomplètes. Configurer des chaînes logistiques multicritères avec prise en compte des incertitudes peut garantir la continuité des activités de l'entreprise.L'objectif principal de cette thèse est la conception de chaînes logistiques multicritères qui résistent aux changements et l'instabilité des marchés. Le manuscrit de cette thèse s'articule autour de sept principaux chapitres:1 - introduction.2 - Etat de l'art sur la conception des chaînes logistiques.3 -Conception des chaînes logistiques multicritères en mesure de répondre aux nouveauxcritères économiques, sociaux, environnementaux et législatifs.4 - Conception des chaînes logistiques multi-objectifs.5 - Développement d'une heuristique de résolution des problèmes de conception deschaînes logistiques de taille réelle.6 - Conception des chaînes logistiques avec prise en compte des incertitudes.7 - Conclusions et perspectives. / This thesis contributes to the debate on how uncertainty and concepts of sustainable development can be put into modern supply chain network and focuses on issues associated with the design of multi-criteria supply chain network under uncertainty. First, we study the literature review , which is a review of the current state of the art of Supply Chain Network Design approaches and resolution methods. Second, we propose a new methodology for multi-criteria Supply Chain Network Design (SCND) as well as its application to real Supply Chain Network (SCN), in order to satisfy the customers demand and respect the environmental, social, legislative, and economical requirements. The methodology consists of two different steps. In the first step, we use Geographic Information System (GIS) and Analytic Hierarchy Process (AHP) to buildthe model. Then, in the second step, we establish the optimal supply chain network using Mixed Integer Linear Programming model (MILP). Third, we extend the MILP to a multi-objective optimization model that captures a compromisebetween the total cost and the environment influence. We use Goal Programming approach seeking to reach the goals placed by Decision Maker. After that, we develop a novel heuristic solution method based on decomposition technique, to solve large scale supply chain network design problems that we failed to solve using exact methods. The heuristic method is tested on real case instances and numerical comparisons show that our heuristic yield high quality solutions in very limited CPU time. Finally, again, we extend the MILP model presented before where we assume that the costumer demands are uncertain. We use two-stage stochastic programming approach to model the supply chain network under demand uncertainty. Then, we address uncertainty in all SC parameters: opening costs, production costs, storage costs and customers demands. We use possibilistic linear programming approach to model the problem and we validate both approaches in a large application case.
39

Modélisation de la Grande Dépression : trois essais sur les expériences française et américaine / Modeling the Great Depression : three essays on the French and U.S. experiences

Bridji, Slim 14 September 2010 (has links)
L'objet de cette thèse est de mobiliser et de développer des modèles d'équilibre général dynamique et stochastique pour une meilleure compréhension de la Grande Dépression aux États-Unis et plus particulièrement en France. Elle comprend trois essais. Dans le premier est appliquée la méthode de la comptabilité des cycles des affaires pour identifier les principales frictions à l'origine de la Grande Dépression française. Ces frictions sont alors comparées à celles mises en avant pour la Grande Dépression américaine. Le deuxième essai propose une explication de la chute de la productivité totale des facteurs aux États-Unis et en France durant la Grande Dépression basée sur le capital organisationnel accumulé dans les entreprises par l'apprentissage par la pratique. Le troisième essai présente un modèle d'équilibre général dynamique et stochastique qui intègre les règles de l'étalon-or. La capacité de ce modèle à rendre compte des principales évolutions macroéconomiques et monétaires en France durant les années 1930 est alors évaluée. / This thesis uses and develops dynamic stochastic general equilibrium (DSGE) models for a better understanding of the Great Depression in U.S. and particularly in France. It is composed of three essays. In the first essay, the business cycle accounting method is used to identify the main frictions that account for the French Great Depression. Those frictions are then compared to the ones that are emphasized for explaining the U.S. Great Depression. The second essay provides an explanation of the total factor productivity collapse in the U.S. and in France during the Great Depression, based on the organizational capital that is accumulated by farms through a learning-by-doing mechanism. The third essay proposes a DSGE model which emphasizes the functioning of the gold standard. The ability of this model to replicate the French macroeconomic and monetary fluctuations during the 1930s is then assessed.
40

Equations aux dérivées partielles à conditions initiales aléatoires / Partial differential equations with random initial data

De suzzoni, Anne-Sophie 26 November 2012 (has links)
Cette thèse porte sur des équations aux dérivées partielles hamiltoniennes à conditions initiales aléatoires. En effet, on étudie ici l'évolution de certaines mesures à travers le flot de telles équations. Cette étude suit deux axes.Premièrement, on considère le caractère globalement bien posé de l'équation d'onde non linéaire quand la donnée initiale est de faible régularité. Cette donnée initiale est une variable aléatoire et on obtient le caractère globalement bien posé de façon presque sûre par rapport à la mesure induite par cette variable. La faible régularité fait référence à l'espace auquel appartient les valeurs de la variable aléatoires et dénote une régularité moins contraignante que celle requise par la théorie déterministe.Dans certaines conditions, des propriétés d'invariance de la loi de la donnée initiale sont nécessaires à la démonstration du caractère bien posé. C'est pourquoi le deuxième axe comprend la question de l'invariance de mesures et leurs stabilités à travers le flot d'EDPs.On donne ainsi une loi invariante à travers le flot de l'équation d'onde cubique et une autre à travers celui de l'équation de Benjamin-Bona-Mahony (BBM). la mesure invariante pour BBM est telle que les amplitudes associées à chaque longueur d'onde de la solution sont des variables aléatoires indépendantes les unes des autres. On considère alors la stabilité de l'invariance pour BBM lorsqu'on ajoute des corrélations entre ces amplitudes.Enfin, en s'inspirant de la littérature physique à propos de la turbulence faible, on s'est demandé ce qu'il advenait de l'indépendance entre les amplitudes dans un contexte plus général. Plus précisément, on a cherché à si les covariances des amplitudes restent petites lorsque celles-ci sont initialement indépendantes et que le terme non quadratique de l'énergie associée à l'équation étudiée est très petit devant l'énergie totale. / This thesis is about Hamiltonian partial differential equations with random initial data. Indeed, the evolution of particular measures are studied here through the flow of such equations. This study is done along two axis.First, the global well-posedness with initial data with low regularity is considered for the non linear wave equation. The initial datum is a random variable and the global well-posedness is obtained almost surely wrt the measure induced by this variable. The low regularity refers to the space which the values of the random initial datum belong to and means a regularity under the one given by deterministic theory.Some properties of invariance of the law of the initial datum are required in the proof of the global well-posedness under certain conditions. Hence, the second axis is the invariance of measures through the flow of PDEs and their stability.An invariant law is given for the cubic non linear wave equation and for the Benjamin-Bona-Mahony equation (BBM). The invariant measure for BBM is such that the amplitudes associated to each wavelength of the solution are random variables independent from each other. The stability of the invariance for BBM is considered when one adds correlations between these amplitudes.Finally, inspired by the Physics literature about wave turbulence, the stability of the independence between the amplitudes is investigated about. Namely, we tried to know if the covariances of the amplitudes remain small when they are initially independent and when the quadratic term of the energy associated to the equation is small compared to the total energy.

Page generated in 0.0645 seconds