Spelling suggestions: "subject:"mixtes"" "subject:"bitextes""
281 |
Quelques problemes de Reflexion-Transmission en optique<br />dispersive faiblement non linaire.Lescarret, Vincent 26 September 2006 (has links) (PDF)
Cette these est consacre l'etude mathematique de la<br />propagation non-linaire d'ondes haute-frequence, dans des milieux <br />inhomognes constitues de deux matriaux d'indice de refraction constant et<br />separes par une interface plane. La presence de l'interface ncessite<br />de decrire les phnomenes de reflexion-transmission a la traverse de la<br />discontinuite. L'approche choisie releve de l'optique gometrique.<br />L'exemple typique, etudie, est le systeme d'quations Maxwell-Lorentz<br />complete de diverses quations dcrivant la polarisation de chaque milieux.<br /><br />La nouveaute de ce travail vient du caractere dispersif des quations<br />et de la prise en compte des quations de bord exactes.<br />Dans ce cadre la relation de dispersion ou variete caractristique n'est pas<br />homogne ce qui implique une reelle dpendance des vitesses de groupe<br />vis-a-vis de la taille des frequences et pas seulement de leur direction.<br />Au niveau du probleme limite ceci a pour consquence la creation de<br />nouvelles phases caracterisriques issues des intractions<br />non-lineaires des phases existentes avec le bord.<br /><br />Le premier chapitre re-situe la problematique dans un contexte<br />historique et mathematique. Il y est egalement donne un resume des<br />trois autres chapitres. Le second chapitre, coeur de la these,<br />concerne l'analyse de l'Optique Gomtrique pour le problme de<br />transmission avec des dveloppements assymptotiques tous ordres. Il<br />contient une analyse precise de la generation non-linaire des phases<br />au bord et justifie rigoureusement l'approximation du<br />developpement. Il donne galement un nouveau traitement des modes evanescents.<br /> <br />Dans le meme contexte geomtrique, le troisime chapitre aborde le<br />probleme de l'Optique Diffractive avec la recherche de solutions<br />assymptotiques approchees a tous ordres pour des temps de propagation plus long. <br /><br />Enfin, dans un quatrieme chapitre sont construits et testes des shemas<br />numriques 1D quasi linairement exacts pour simuler la propagation (en variable<br />d'espace) en temps long d'ondes issues d'un bord.
|
282 |
Sélection de modèle d'imputation à partir de modèles bayésiens hiérarchiques linéaires multivariésChagra, Djamila 06 1900 (has links)
Résumé
La technique connue comme l'imputation multiple semble être la technique la plus appropriée pour résoudre le problème de non-réponse. La littérature mentionne des méthodes qui modélisent la nature et la structure des valeurs manquantes. Une des méthodes les plus populaires est l'algorithme « Pan » de (Schafer & Yucel, 2002). Les imputations rapportées par cette méthode sont basées sur un modèle linéaire multivarié à effets mixtes pour la variable réponse. La méthode « BHLC » de (Murua et al, 2005) est une extension de « Pan » dont le modèle est bayésien hiérarchique avec groupes. Le but principal de ce travail est d'étudier le problème de sélection du modèle pour l'imputation multiple en termes d'efficacité et d'exactitude des prédictions des valeurs manquantes. Nous proposons une mesure de performance liée à la prédiction des valeurs manquantes. La mesure est une erreur quadratique moyenne reflétant la variance associée aux imputations multiples et le biais de prédiction. Nous montrons que cette mesure est plus objective que la mesure de variance de Rubin. Notre mesure est calculée en augmentant par une faible proportion le nombre de valeurs manquantes dans les données. La performance du modèle d'imputation est alors évaluée par l'erreur de prédiction associée aux valeurs manquantes. Pour étudier le problème objectivement, nous avons effectué plusieurs simulations. Les données ont été produites selon des modèles explicites différents avec des hypothèses particulières sur la structure des erreurs et la distribution a priori des valeurs manquantes. Notre étude examine si la vraie structure d'erreur des données a un effet sur la performance du choix des différentes hypothèses formulées pour le modèle d'imputation. Nous avons conclu que la réponse est oui. De plus, le choix de la distribution des valeurs manquantes semble être le facteur le plus important pour l'exactitude des prédictions. En général, les choix les plus efficaces pour de bonnes imputations sont une distribution de student avec inégalité des variances dans les groupes pour la structure des erreurs et une loi a priori choisie pour les valeurs manquantes est la loi normale avec moyenne et variance empirique des données observées, ou celle régularisé avec grande variabilité. Finalement, nous avons appliqué nos idées à un cas réel traitant un problème de santé.
Mots clés : valeurs manquantes, imputations multiples, modèle linéaire bayésien hiérarchique, modèle à effets mixtes. / Abstract
The technique known as multiple imputation seems to be the most suitable technique for solving the problem of non-response. The literature mentions methods that models the nature and structure of missing values. One of the most popular methods is the PAN algorithm of Schafer and Yucel (2002). The imputations yielded by this method are based on a multivariate linear mixed-effects model for the response variable. A Bayesian hierarchical clustered and more flexible extension of PAN is given by the BHLC model of Murua et al. (2005). The main goal of this work is to study the problem of model selection for multiple imputation in terms of efficiency and accuracy of missing-value predictions. We propose a measure of performance linked to the prediction of missing values. The measure is a mean squared error, and hence in addition to the variance associated to the multiple imputations, it includes a measure of bias in the prediction. We show that this measure is more objective than the most common variance measure of Rubin. Our measure is computed by incrementing by a small proportion the number of missing values in the data and supposing that those values are also missing. The performance of the imputation model is then assessed through the prediction error associated to these pseudo missing values. In order to study the problem objectively, we have devised several simulations. Data were generated according to different explicit models that assumed particular error structures. Several missing-value prior distributions as well as error-term distributions are then hypothesized. Our study investigates if the true error structure of the data has an effect on the performance of the different hypothesized choices for the imputation model. We concluded that the answer is yes. Moreover, the choice of missing-value prior distribution seems to be the most important factor for accuracy of predictions. In general, the most effective choices for good imputations are a t-Student distribution with different cluster variances for the error-term, and a missing-value Normal prior with data-driven mean and variance, or a missing-value regularizing Normal prior with large variance (a ridge-regression-like prior). Finally, we have applied our ideas to a real problem dealing with health outcome observations associated to a large number of countries around the world.
Keywords: Missing values, multiple imputation, Bayesian hierarchical linear model, mixed effects model. / Les logiciels utilisés sont Splus et R.
|
283 |
Méthodes de méta-analyse pour l'estimation des émissions de N2O par les sols agricolesPhilibert, Aurore 16 November 2012 (has links) (PDF)
Le terme de méta-analyse désigne l'analyse statique d'un large ensemble de résultats provenant d'études individuelles pour un même sujet donné. Cette approche est de plus en plus étudiée dans différents domaines, notamment en agronomie. Dans cette discipline, une revue bibliographique réalisée dans le cadre de la thèse a cependant montré que les méta-analyses n'étaient pas toujours de bonne qualité. Les méta-analyses effectuées en agronomie étudient ainsi très rarement la robustesse de leurs conclusions aux données utilisées et aux méthodes statistiques. L'objectif de cette thèse est de démontrer et d'illustrer l'importance des analyses de sensibilité dans le cadre de la méta-analyse en s'appuyant sur l'exemple de l'estimation des émissions de N2O provenant des sols agricoles. L'estimation des émissions de protoxyde d'azote (N2O) est réalisée à l'échelle mondaile par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le N2O est un puissant gaz à effet de serre avec un pouvoir de réchauffement 298 fois plus puissant que le CO2 sur une période de 100 ans. Les émissions de N2O ont la particularité de présenter une forte variabilité spatiale et temporelle. Deux bases de données sont utilisées dans ce travail : la base de données de Rochette et Janzen (2005) et celle de Stehfest et Bouwman (2006). Elles recensent de nombreuses mesures d'émissions de N2O réparties dans le monde provenant d'études publiées et ont joué un rôle important lors des estimations d'émissions de N2O réalisées par le GIEC. Les résultats montrent l'intérêt des modèles à effets aléatoires pour estimer les émissions de NO2 issues de sols agricoles. Ils sont bien adaptés à la structure des données (observations répétées sur un même site pour différentes doses d'engrais, avec plusieurs sites considérés). Ils permettent de distinguer la variabilité inter-sites de la variabilité intra-site et d'estimer l'effet de la dose d'engrais azoté sur les émissions de NO2. Dans ce mémoire, l'analyse de la sensibilité des estimations à la forme de la relation "Emission de N2O / Dose d'engrais azoté" a montré qu'une relation exponentielle était plus adaptée. Il apparait ainsi souhaitable de remplacer le facteur d'émission constant du GIEC (1% d'émission quelque soit la dose d'engrais azoté) par un facteur variable qui augmenterait en fonction de la dose. Nous n'avons par contre pas identifié de différence importante entre les méthodes d'inférence fréquentiste et bayésienne. Deux approches ont été proposées pour inclure des variables de milieu et de pratiques culturales dans les estimations de N2O. La méthode Random Forest permet de gérer les données manquantes et présente les meilleures prédictions d'émission de N2O. Les modèles à effets aléatoires permettent eux de prendre en compte ces variables explicatives par le biais d'une ou plusieurs mesures d'émission de N2O. Cette méthode permet de prédire les émissions de N2O pour des doses non testées comme le cas non fertilisé en parcelles agricoles. Les résultats de cette méthode sont cependant sensibles au plan d'expérience utilisé localement pour mesurer les émissions de N2O.
|
284 |
Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire.Giacofci, Madison 22 October 2013 (has links) (PDF)
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte.
|
285 |
Développement de modèles mécanistiques et évaluation de l'incertitude des paramètres par bootstrap : application aux médicaments anti-angiogéniquesThai, Hoai-Thu 24 May 2013 (has links) (PDF)
L'angiogenèse, la croissance de nouveaux vaisseaux sanguins à partir de vaisseaux préexistants, joue un rôle crucial dans la croissance des tumeurs malignes et le développement des métastases. Elle est médiée notamment par le facteur de croissance vasculaire endothélial (VEGF), cible thérapeutique de nouveaux médicaments anti-angiogéniques comme l'aflibercept (Zaltrap , développé conjointement par Regeneron et Sanofi). Il s'agit d'une protéine de fusion comportant des domaines des récepteurs VEGFR-1VEGFR-2 et un fragment Fc des IgG1. Il bloque le VEGF A, le VEGF-B ainsi que le facteur de croissance placentaire (PIGF) et donc l'angiogenèse. Du fait de cette liaison, les propriétés pharmacocinétique (PK)/pharmacodynamique (PD) de ce nouveau médicament deviennent plus complexes. Dans cette thèse, nous avons étudié le mécanisme d'action de l'aflibercept en développant des modèles PK/PD de population. Nous avons tout d'abord construit le modèle PK conjoint de l'aflibercept libre etchez les volontaires sains grâce aux données riches. Nous avons ensuite appliqué avec succès ce modèle aux données chez les patients atteints de cancer et étudié également l'influence de facteurs physiopathologiques sur leur PK. Ce modèle a permis de simuler les différents schémas d'administration et de supporter le choix de dose thérapeutique. Afin de mieux évaluer l'efficacité de l'aflibercept, nous avons par la suite construit un modèle PD caractérisant l'inhibition de la croissance tumorale sous l'effet combiné de l'afliberceptdu FOLFIRI (5-fluorouracile, la leucovorine et l'irinotécan) chez les patients atteints du cancer colorectal métastatique. L'incertitude liée à l'estimation des paramètres dans des modèles complexes peut être biaiséeparfois n'est pas obtenue. Nous avons donc étudié par simulation l'incertitude des paramètres obtenue par différentes méthodes de bootstrap permettant de rééchantillonner deux niveaux de variabilité (inter- sujet et résiduelle) dans les modèles non linéaires à effets mixtes (MNLEM). Ainsi, nous avons montré que le bootstrap ne fournit de meilleures estimations de l'incertitude des paramètres que dans les MNLEM avec une forte non linéarité par rapport à l'approche asymptotique. Le bootstrap par paires fonctionne aussi bien que le bootstrap non paramétrique des effets aléatoires et des résidus. Cependant, ils peuvent être confrontés à des problèmes pratiques, par exemple des distributions asymétriques dans les estimations des paramètres et des protocoles déséquilibrés où la stratification pourrait être insuffisante.
|
286 |
Modélisation numérique d'écoulements de mousseCheddadi, Ibrahim 22 June 2010 (has links) (PDF)
Les écoulements de mousse liquide sont directement impliqués dans de nombreuses applications dans des domaines aussi variés que les industries agro-alimentaire et cosmétique, l'extraction pétrolière, ou encore la décontamination nucléaire. Par ailleurs, l'étude des mousses apporte des connaissances fondamentales : plus facile à manipuler et analyser, la mousse est un fluide modèle pour comprendre des matériaux tels que les émulsions, les polymères, les pâtes, ou les agrégats de cellules, qui possèdent à la fois des propriétés liquides et solides. Les expériences systématiques réalisées par l'équipe de F. Graner ont fourni une série de données précises qui mettent l'accent sur les propriétés non newtoniennes de la mousse. Dans le même temps, P. Saramito a proposé un modèle visco-élasto-plastique (VEP) continu et tensoriel, à même de prédire le comportement de la mousse. L'objectif de cette thèse est de comprendre ce comportement complexe en s'appuyant sur ces deux éléments. Nous avons élaboré et validé un algorithme de résolution basé sur une méthode d'éléments finis bidimensionnelle. Les solutions numériques sont en excellent accord avec tous les champs mesurés (vitesse, déformation élastique, taux de déformation plastique), et nous avons confirmé le caractère prédictif du modèle. Nous avons identifié les paramètres dominants et établi la nécessité de traiter simultanément les contributions visqueuse, élastique, et plastique dans un formalisme tensoriel. Notre travail apporte une contribution substantielle à la compréhension des mousses et ouvre la voie à la simulation réaliste d'écoulements complexes de fluides VEP en vue d'applications industrielles.
|
287 |
Quelques contributions à la modélisation et l'analyse statistique de processus spatiauxHardouin, Cécile 11 July 2011 (has links) (PDF)
Le thème de cette habilitation est centré sur la modélisation et l'étude statistique de processus spatiaux ou spatio-temporels. Le premier chapitre synthétise les travaux sur une modélisation spatio-temporelle générale, consistant en des chaînes de Markov (temporelles) de champs de Markov (spatiaux), et à une généralisation des auto-modèles de Besag qui constituent une classe de champs markoviens particulièrement utilisés en statistique spatiale. Ces modèles généraux permettent une modélisation non hiérarchique pour des données spatiales ou spatio-temporelles de nature mixte, composées par exemple d'une masse en zéro accompagnée de valeurs réelles. Nous étudions la structure de ces modèles et leurs propriétés statistiques, comme l'ergodicité ou l'estimation paramétrique. Des applications sur des données réelles en météorologie ou en images illustrent les résultats. Le second chapitre concerne la modélisation de mécanismes conduisant à l'adoption de certains standards technologiques, dans un cadre de l'économie spatiale. Le but est de décrire la diffusion d'un processus technologique et de proposer des tests de coordination spatiale lorsque la règle de choix est locale et peut être dictée par les choix précédents des voisins. Le chapitre 3 présente quelques résultats récents sur le calcul de la constante de normalisation pour un processus de Gibbs via un algorithme récursif sur les lois conditionnelles. Enfin, le chapitre 4 reprend des travaux plus anciens en statistique paramétrique sur les méthodes d'estimation par minimum de contraste en situation non ergodique, et les méthodes de régression temporelle avec résidu à longue mémoire.
|
288 |
Programmation DC et DCA pour l'optimisation non convexe/optimisation globale en variables mixtes entières : Codes et ApplicationsPham, Viet Nga 18 April 2013 (has links) (PDF)
Basés sur les outils théoriques et algorithmiques de la programmation DC et DCA, les travaux de recherche dans cette thèse portent sur les approches locales et globales pour l'optimisation non convexe et l'optimisation globale en variables mixtes entières. La thèse comporte 5 chapitres. Le premier chapitre présente les fondements de la programmation DC et DCA, et techniques de Séparation et Evaluation (B&B) (utilisant la technique de relaxation DC pour le calcul des bornes inférieures de la valeur optimale) pour l'optimisation globale. Y figure aussi des résultats concernant la pénalisation exacte pour la programmation en variables mixtes entières. Le deuxième chapitre est consacré au développement d'une méthode DCA pour la résolution d'une classe NP-difficile des programmes non convexes non linéaires en variables mixtes entières. Ces problèmes d'optimisation non convexe sont tout d'abord reformulées comme des programmes DC via les techniques de pénalisation en programmation DC de manière que les programmes DC résultants soient efficacement résolus par DCA et B&B bien adaptés. Comme première application en optimisation financière, nous avons modélisé le problème de gestion de portefeuille sous le coût de transaction concave et appliqué DCA et B&B à sa résolution. Dans le chapitre suivant nous étudions la modélisation du problème de minimisation du coût de transaction non convexe discontinu en gestion de portefeuille sous deux formes : la première est un programme DC obtenu en approximant la fonction objectif du problème original par une fonction DC polyèdrale et la deuxième est un programme DC mixte 0-1 équivalent. Et nous présentons DCA, B&B, et l'algorithme combiné DCA-B&B pour leur résolution. Le chapitre 4 étudie la résolution exacte du problème multi-objectif en variables mixtes binaires et présente deux applications concrètes de la méthode proposée. Nous nous intéressons dans le dernier chapitre à ces deux problématiques challenging : le problème de moindres carrés linéaires en variables entières bornées et celui de factorisation en matrices non négatives (Nonnegative Matrix Factorization (NMF)). La méthode NMF est particulièrement importante de par ses nombreuses et diverses applications tandis que les applications importantes du premier se trouvent en télécommunication. Les simulations numériques montrent la robustesse, rapidité (donc scalabilité), performance et la globalité de DCA par rapport aux méthodes existantes.
|
289 |
Sur de nouveaux composes hydroxyfluores nanostructures à base d'aluminium : synthèses, structures & propriétés acides (Lewis/Bronsted)Dambournet, Damien 04 January 2008 (has links) (PDF)
Il s'agissait dans ce travail de préparer différentes variétés cristallines d'hydroxyfluorures d'aluminium présentant des tailles nanométrique en vue d'application en catalyse. Pour ce faire une méthode solvothermale assistée par chauffage micro-ondes a été utilisée. La variation des paramètres de synthèse telle que la nature du précurseur cationique, le taux HF/Al ou encore l'utilisation de solvants organiques a permis la préparation de diverses formes cristallines présentant une pureté phasique et un aspect divisé. Trois matériaux ont ainsi été obtenus avec des structures dérivés du pyrochlore (Fd-3m), des bronzes de tungstène hexagonaux (Cmcm) et de type ReO3 (Pm-3m). L'utilisation de nombreuses techniques de caractérisations (DRX, RMN à l'état solide des noyaux 27Al, 19F et 1H, microscopie électronique, mesure de surface spécifique et spectroscopie infra-rouge) ont permis une analyse détaillée des solides préparés. L'impact structural des groupements OH sur la forme cristalline stabilisée a été mise en avant dans le cas du pyrochlore AlF1.7(OH)1.3 et de la forme HTB AlF2.6(OH)0.4. Dans le troisième composé, la stabilisation de molécule d'eau comme ligand a permis l'obtention du premier composé lacunaire dans la famille des fluorures d'aluminium. Ce dernier présente la formule générale suivante Al0.82-0.18F2.46(H2O)0.54. Le traitement d'un gel d'alkoxyfluorures d'aluminium par micro-ondes puis sous fluor gazeux a permis d'obtenir un matériau possédant une très grande surface spécifique (330 m2.g-1). L'étude des propriétés acides de ces matériaux par adsorption de molécules sondes détectées par FTIR a révélé une large gamme d'acidité de Lewis et de Brønsted. Finalement, l'influence de la surface spécifique sur le nombre de sites de Lewis forts a été mise en avant.
|
290 |
Méthodologie et algorithmes adaptés à l’optimisation multi-niveaux et multi-objectif de systèmes complexes / Multi-level and multi-objective design optimization tools for handling complex systemsMoussouni, Fouzia 08 July 2009 (has links)
La conception d'un système électrique est une tâche très complexe qui relève d’expertises dans différents domaines de compétence. Dans un contexte compétitif où l’avance technologique est un facteur déterminant, l’industrie cherche à réduire les temps d'étude et à fiabiliser les solutions trouvées par une approche méthodologique rigoureuse fournissant une solution optimale systémique.Il est alors nécessaire de construire des modèles et de mettre au point des méthodes d'optimisation compatibles avec ces préoccupations. En effet, l’optimisation unitaire de sous-systèmes sans prendre en compte les interactions ne permet pas d'obtenir un système optimal. Plus le système est complexe plus le travail est difficile et le temps de développement est important car il est difficile pour le concepteur d'appréhender le système dans toute sa globalité. Il est donc nécessaire d'intégrer la conception des composants dans une démarche systémique et globale qui prenne en compte à la fois les spécificités d’un composant et ses relations avec le système qui l’emploie.Analytical Target Cascading est une méthode d'optimisation multi niveaux de systèmes complexes. Cette approche hiérarchique consiste à décomposer un système complexe en sous-systèmes, jusqu’au niveau composant dont la conception relève d’algorithmes d'optimisation classiques. La solution optimale est alors trouvée par une technique de coordination qui assure la cohérence de tous les sous-systèmes. Une première partie est consacrée à l'optimisation de composants électriques. L'optimisation multi niveaux de systèmes complexes est étudiée dans la deuxième partie où une chaîne de traction électrique est choisie comme exemple / The design of an electrical system is a very complex task which needs experts from various fields of competence. In a competitive environment, where technological advance is a key factor, industry seeks to reduce study time and to make solutions reliable by way of a rigorous methodology providing a systemic solution.Then, it is necessary to build models and to develop optimization methods which are suitable with these concerns. Indeed, the optimization of sub-systems without taking into account the interaction does not allow to achieve an optimal system. More complex the system is more the work is difficult and the development time is important because it is difficult for the designer to understand and deal with the system in its complexity. Therefore, it is necessary to integrate the design components in a systemic and holistic approach to take into account, in the same time, the characteristics of a component and its relationship with the system it belongs to.Analytical Target Cascading is a multi-level optimization method for handling complex systems. This hierarchical approach consists on the breaking-down of a complex system into sub-systems, and component where their optimal design is ensured by way of classical optimization algorithms. The optimal solution of the system must be composed of the component's solutions. Then a coordination strategy is needed to ensure consistency of all sub-systems. First, the studied and proposed optimization algorithms are tested and compared on the optimization of electrical components. The second part focuses on the multi-level optimization of complex systems. The optimization of railway traction system is taken as a test case
|
Page generated in 0.0296 seconds