• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 54
  • 13
  • 3
  • Tagged with
  • 204
  • 204
  • 124
  • 112
  • 55
  • 50
  • 34
  • 33
  • 32
  • 32
  • 25
  • 24
  • 23
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Inférence statistique pour l'optimisation stochastique : applications en finance et en gestion de production

Guigues, Vincent 30 June 2005 (has links) (PDF)
L'objet de cette thèse est de modéliser et analyser des problèmes d'optimisation stochastique et de proposer des méthodes de résolution pour ces problèmes.<br />Dans une première partie, on considère des problèmes d'allocation d'actifs se formulant comme des problèmes d'optimisation convexes. La fonction coût et les contraintes dépendent d'un paramètre multidimensionnel inconnu. On montre, sous l'hypothèse d'homogénéité temporelle locale pour le processus des rendements, que l'on peut construire des approximations du problème original se servant d'une estimation adaptative du paramètre inconnu. La précision du problème approché est fournie. Cette méthode a été appliquée sur les problèmes VaR et de Markowitz et l'on présente les résultats de simulations numériques sur des données réelles et simulées. On propose ensuite une analyse de sensibilité pour une classe de problèmes quadratiques dont on déduit une analyse de sensibilité du problème de Markowitz. Pour ce problème, on propose alors une calibration stable de la matrice de covariance et des contreparties robustes. <br />La deuxième partie porte sur l'analyse de problèmes de gestion de production et en particulier le problème de gestion de production électrique. Nous proposons de nouvelles modélisations pour ce problème et des moyens pour les mettre en oeuvre. L'un des modèles conduit à une résolution par décomposition par les prix. Dans ce cas, on montre comment calculer la fonction duale par programmation dynamique. On explique enfin comment dans chaque cas, une stratégie de gestion est mise en place. Les différentes méthodes de gestion sont comparées sur des données réelles et simulées.
12

Identification des lois de comportemement élastoplastiques par essais inhomogènes et simulations numériques

Khalfallah, ali 14 February 2004 (has links) (PDF)
Le sujet de thèse que nous abordons concerne l'identification des lois de comportement élastoplastiques anisotropes en vue de leur utilisation pour la simulation numérique des procédés de mise en forme par déformation plastique de tôles minces métalliques d'emboutissage. Nous avons essentiellement contribué à la définition et à la mise en oeuvre de stratégies et techniques d'identification des lois de comportement à partir d'essais expérimentaux. Les essais classiquement utilisés pour l'identification des modèles : la traction simple dans les axes et hors axes, la traction plane et le gonfelement hydraulique sont présentés et analysés du point de vue homogénéité des déformations pour aboutir à la relation contrainte-déformation à partir des mesures globales force-déplacement. L'identification des modèles de comportement à partir des essais inhomogènes nécessite une simulation numérique couplée avec une méthode d'optimisation (méthode du Simplexe) pour minimiser l'écart entre les résultats expérimentaux et la réponse du modèle calculée par une méthode d'élements finis. Nous avons identifié des lois de comportement élastoplastiques anisotropes avec écrouissage isotrope. Ces lois sont basées en particulier sur le choix d'une ou deux fonctions "contrainte équivalente" définissant le critère de plasticité et le potentiel plastique (cadre de la normalité non associée) ayant la même structure que la fonction seuil. Plusieurs critères quadratiques et non quadratiques sont alors utilisés. Nous avons développé une technique spécifique d'analyse de sensibilité des essais par rapport aux differents paramètres à identifier de la loi de comportement. Cette technique est mise en oeuvre sur des exemples pratiques.
13

Sensibilité et incertitude de modélisation sur les bassins versants à forte composante karstique

Mazzilli, Naomi 09 November 2011 (has links) (PDF)
L'objectif de cette thèse est de déterminer des caractéristiques générales du comportement de la sensibilité dans la modélisation hydrodynamique des écoulements en milieu karstique. Nous étudions l'influence des spécificités du milieu karstique (forte hétérogénéité de structure, dualité de l'écoulement, forte non-linéarité de fonctionnement) sur la propagation de la sensibilité en vue de déterminer des règles générales pour la calibration. En particulier, nous essayons de répondre aux questions suivantes: (i) la calibration est-elle possible ? (ii) la calibration est-elle robuste ? (iii) est-il possible de réduire l'équifinalité via une calibration multi-objectif ou multi-variable ? L'analyse est menée pour le cas d'une modélisation conceptuelle globale et pour celui d'une modélisation hybride distribuée. Cette contribution met en évidence le potentiel des méthodes locales d'analyse de sensibilité. En dépit des limitations inhérentes à cette approche (approximation locale), l'analyse locale permet une compréhension fine du fonctionnement du modèle, pour un coût de calcul réduit. Par ailleurs, cet travail souligne l'intérêt d'une calibration multi-variable par rapport à une calibration multi-objectif, dans une optique de réduction de l'équifinalité.
14

Estimation et analyse de la taille efficace de populations structurées en classes d'âge ou en stades

Andrello, Marco 03 December 2010 (has links) (PDF)
La taille efficace des populations, Ne, est un paramètre central en biologie de la conservation et en biologie évolutive et peut être estimée avec des méthodes démographiques et génétiques. L'objectif de cette thèse a été l'analyse des effets de l'histoire de vie sur Ne dans des espèces à générations chevauchantes en utilisant des modèles démographiques. Un modèle démographique et deux estimateurs génétiques ont été utilisés pour dériver Ne dans des population d' Eryngium alpinum, une plante pérenne et menacée. Les trois méthodes ont donné des estimations considérablement différentes. Les différences ont pu être attribuées à la difficulté d'obtenir toutes les données nécessaires au modèle démographique, mais aussi à la faible précision des estimateurs génétiques quand ils sont appliqués à des jeux de données limités. Les modèles démographiques ont cependant permis l'identification des effets de l'histoire de vie sur Ne à travers des analyses de sensibilité et d'élasticité. L'élasticité numérique a été utilisée pour étudier les effets sur Ne de taux vitaux stadespécifiques dans E. alpinum et dans Dracocephalum austriacum, une plante alpine pérenne et menacée. Les patrons d'élasticité dérivés étaient souvent, mais pas toujours, similaires dans des populations à démographie comparable. Ensuite, un modèle démographique a été analysé en détail pour dériver analytiquement une expression pour la sensibilité de Ne/N aux taux vitaux âgespécifiques. Cette expression a été utilisée pour étudier Ne/N dans trois espèces qui diffèrent dans leur patron de courbe de survie (humains, bruants et balanes). Les différences des patrons de sensibilité entre ces trois espèces ont pu être ainsi attribuées à des composantes spécifiques du cycle de vie. Cette thèse montre que les modèles démographiques sont des méthodes utiles pour comprendre les effets de l'histoire de vie sur Ne et qu'ils pourraient être des outils puissants pour complémenter les estimateurs génétiques quand des données écologiques et démographiques sont disponibles en quantité suffisante. L'étape suivante sera la généralisation des patrons de sensibilité et d'élasticité observés en utilisant une approche comparative sur un grande nombre de populations, ce qui sera possible grâce à la rapide accumulation de grandes quantités des données démographiques et génétiques sur un grand nombre d'espèces.
15

Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge

Varet, Suzanne 08 April 2010 (has links) (PDF)
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
16

Identification des lois de comportemement élastoplastiques par essais inhomogènes et simulations numériques

Khalfallah, ali 14 February 2004 (has links) (PDF)
Le sujet de thèse que nous abordons concerne l'identification des lois de comportement élastoplastiques anisotropes en vue de leur utilisation pour la simulation numérique des procédés de mise en forme par déformation plastique de tôles minces métalliques d'emboutissage. Nous avons essentiellement contribué à la définition et à la mise en oeuvre de stratégies et techniques d'identification des lois de comportement à partir d'essais expérimentaux. Les essais classiquement utilisés pour l'identification des modèles : la traction simple dans les axes et hors axes, la traction plane et le gonfelement hydraulique sont présentés et analysés du point de vue homogénéité des déformations pour aboutir à la relation contrainte-déformation à partir des mesures globales force-déplacement. L'identification des modèles de comportement à partir des essais inhomogènes nécessite une simulation numérique couplée avec une méthode d'optimisation (méthode du Simplexe) pour minimiser l'écart entre les résultats expérimentaux et la réponse du modèle calculée par une méthode d'élements finis. Nous avons identifié des lois de comportement élastoplastiques anisotropes avec écrouissage isotrope. Ces lois sont basées en particulier sur le choix d'une ou deux fonctions "contrainte équivalente" définissant le critère de plasticité et le potentiel plastique (cadre de la normalité non associée) ayant la même structure que la fonction seuil. Plusieurs critères quadratiques et non quadratiques sont alors utilisés. Nous avons développé une technique spécifique d'analyse de sensibilité des essais par rapport aux differents paramètres à identifier de la loi de comportement. Cette technique est mise en oeuvre sur des exemples pratiques.
17

Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion

Rousseau, Marie 17 December 2012 (has links) (PDF)
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement
18

Diagnostic du colmatage des générateurs de vapeur à l'aide de modèles physiques et statistiques

Girard, Sylvain 17 December 2012 (has links) (PDF)
Les générateurs de vapeur sont d'imposants échangeurs de chaleur qui alimentent les turbines des centrales nucléaires à eau pressurisée. Au cours de leur exploitation, des dépôts d'oxydes s'y accumulent et obstruent progressivement des trous prévus pour le passage du fluide. Ce phénomène, appelé colmatage, pose des problèmes de sûreté. Une méthode de diagnostic est nécessaire pour optimiser la stratégie de maintenance permettant de s'en prémunir. La piste explorée dans cette thèse est l'analyse de la réponse dynamique des générateurs de vapeur lors de transitoire de puissance, à l'aide d'un modèle physique monodimensionnel. Deux améliorations ont été apportées au modèle existant au cours de la thèse : la prise en compte des débits perpendiculaires à l'axe du générateur de vapeur et la modélisation du déséquilibre cinématique entre la phase liquide et la phase vapeur. Ces éléments ont ajouté des degrés de liberté permettant de mieux reproduire le comportement réel des générateurs de vapeur. Une nouvelle méthodologie de calage et de validation a alors été proposée afin de garantir la robustesse du modèle.Le problème inverse initial était mal posé car plusieurs configurations spatiales de colmatage peuvent donner des réponses identiques. La magnitude relative de l'effet des dépôts suivant leur localisation a été évaluée par analyse de sensibilité avec la méthode de Sobol'. La dimension de la sortie fonctionnelle du modèle a au préalable été réduite par une analyse en composantes principales.Enfin, une méthode de réduction de dimension appelée régression inverse par tranches a été mise en œuvre pour déterminer dessous-espaces de projection optimaux pour le diagnostic. Une méthode de diagnostic plus robuste et mieux maitrisée que celle existante a pu être proposée grâce à cette nouvelle formulation.
19

Modélisation de la demande énergétique des bâtiments à l'échelle urbaine : contribution de l'analyse de sensibilité à l'élaboration de modèles flexibles

Garcia Sanchez, David 29 October 2012 (has links) (PDF)
Pour répondre aux enjeux énergétiques et climatiques, une des échelles d'action pertinentes est désormais celle du quartier ou de la ville. Des besoins de connaissance, d'outils d'aide à la décision et d'évaluation à cette échelle se manifestent de plus en plus. Un des volets concerne la modélisation de la demande d'énergie des bâtiments résidentiels, préalable à la mise en place d'actions de rénovation de l'existant ou à la valorisation de sources d'énergie locales. La diversité de situations de terrains, d'objectifs d'acteurs et de contextes de disponibilité de données incitent à rechercher des modèles flexibles, aptes à produire de l'information pour différentes applications, à partir de jeux alternatifs de données d'entrée, combinant des modèles de natures diverses (notamment physiques et statistiques) selon les besoins. Dans cet esprit, le présent travail cherche à explorer le potentiel de méthodes dites ascendantes, s'appuyant sur des modèles développés à l'origine pour la simulation à l'échelle d'un bâtiment isolé, mais extrapolés ici pour le parc de bâtiments d'une zone urbaine sur la base de bâtiments types. Les deux questions clés abordées sont celles de la sélection des bâtiments types et de la reconstitution des données d'entrée pertinentes sur le plan statistique pour la zone étudiée. Des techniques d'analyse de sensibilité, en particulier la méthode des effets élémentaires de Morris, ont été appliquées à un code de calcul thermique de bâtiment (ESP-r). Elles ont mis en évidence une réponse non linéaire du modèle, notamment du fait des interactions entre paramètres et de la dispersion des paramètres d'entrée. Elles ont permis d'identifier les paramètres les plus sensibles et les plus en interaction (concernant les bâtiments eux-mêmes, leur environnement ou leurs habitants), sur lesquels doit être concentré le travail de collecte ou de reconstitution statistique. Un modèle, dénommé MEDUS, de reconstitution de la distribution des besoins de chaleur sur un quartier à partir de trois typologies de bâtiments, a été développé et testé sur le secteur St-Félix à Nantes. Il est alimenté par des données INSEE à l'échelle d'un IRIS. Ses résultats sont analysés, à la fois sous l'angle de la pertinence des typologies choisies et dans une perspective d'application à l'échelle du quartier.
20

Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.

Durrande, Nicolas 09 November 2011 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale.

Page generated in 0.1242 seconds