• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 272
  • 87
  • 34
  • 1
  • 1
  • Tagged with
  • 394
  • 191
  • 102
  • 69
  • 49
  • 49
  • 47
  • 47
  • 47
  • 42
  • 38
  • 37
  • 37
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

The berth allocation problem at port terminals : a column generation framework

Saadaoui, Yousra 07 1900 (has links)
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes. / The berth allocation problem (BAP) is one of the key decision problems at port terminals and it has been widely studied. In previous research, the BAP has been formulated as a generalized set partitioning problem (GSPP) and solved using standard solver. The assignments (columns) were generated a priori in a static manner and provided as an input to the optimization model. The GSPP approach is able to solve to optimality relatively large size problems. However, a main drawback of this approach is the explosion in the number of feasible assignments of vessels with increase in problem size which leads in turn to the optimization solver to run out of memory. In this research, we address the limitation of the GSPP approach and present a column generation framework where assignments are generated dynamically to solve large problem instances of the berth allocation problem at port terminals. We propose a column generation based algorithm to address the problem that can be easily adapted to solve any variant of the BAP based on different spatial and temporal attributes. We test and validate the proposed approach on a discrete berth allocation model with dynamic vessel arrivals and berth dependent handling times. Computational experiments on a set of artificial instances indicate that the proposed methodology can solve even very large problem sizes to optimality or near optimality in computational time of only a few minutes.
252

Synthèse et caractérisation de nouveaux matériaux de cathode pour piles à combustible à conduction protonique PCFC (Protonic Ceramic Fuel Cell) / Synthesis and characterization of new PCFC (Protonic Ceramic Fuel Cell) cathode materials

Dailly, Julian 16 December 2008 (has links)
Le développement de piles à combustibles capables de fonctionner à des températures intermédiaires de l’ordre de 400-600°C présente un grand intérêt tant du point de vue du vieillissement des matériaux que des différents éléments du système complet. Une des technologies envisagées est basée sur l’utilisation d’électrolyte céramique possédant une conduction protonique élevée (Protonic Ceramic Fuel Cell PCFC). A ce jour, un des problèmes principaux concerne les fortes surtensions observées au niveau de la cathode lors du passage d’un courant. Dans ce cadre, le but de nos recherche a été de concevoir de nouveaux matériaux de cathode pour pile PCFC présentant de bonnes propriétés de conduction mixte ionique et électronique ainsi qu’une activité catalytique élevée vis-à-vis de la réaction de réduction de l’oxygène, entre 400 et 600°C. Plusieurs matériaux à conduction mixte ont été synthétisés à l’ICMCB, notamment des perovskites et des oxydes de structure de type Ruddlesden-Popper (en particulier les oxydes A2MO4+?). Des analyses thermogravimétriques ont été réalisées pour étudier la stabilité de ces phases sous air humide, ainsi qu’une éventuelle insertion d’eau dans la structure. Des demi-cellules symétriques ont été élaborées pour les caractérisations éléctrochimiques par spectroscopie d’impédance complexe et voltampérométrie (mesures de résistances spécifiques de surface, courbes de polarisation cathodique). Les caractérisations physico-chimiques et électrochimiques ont permit de sélectionner les meilleurs composés et ont conduit à la réalisation de la première monocellule PCFC utilisant le matériau de cathode Pr2NiO4+?. Des densités de puissance de 100 mW/cm² ont été mesurées pour une température de fonctionnement de 600°C. / Development of Fuel Cell operating at intermediate temperatures (400-600°C) is more and more interesting regarding ageing of materials. One of these technologies is based on ceramic electrolytes with high protonic conductivity (Protonic Ceramic Fuel Cell, PCFC). Nowadays, the major problem is overpotential at the cathode side, under polarization. In this context, our researches aimed to elaborate new cathode materials for PCFC with high mixed conductivity and good electrocatalytic property toward oxygen reduction, between 400 and 600°C. Several materials have been synthesised at the ICMCB, like perovskites and Ruddlesden-Popper type phase (A2MO4+?). Thermogramvimetric analyses have been realised in order to study phase stability under moist air and a possible insertion of water in the structure. Symmetrical half-cells have been elaborated for Electrochemical Impedance Spectroscopy and voltametric measurements (measure of Area Specific Resistance, cathodic polarization curves). The physico-chemical and electrochemical characterizations were useful to choose the best compounds and lead to fabrication of the first cell PCFC with Pr2NiO4+? as cathode materials. Power densities of 100mW/cm² have been reached for a working temperature of 600°C.
253

OPTIMISATION DU PLAN DE TRANSPORT PAR PLANIFICATION INTEGREE DES RESSOURCES / INTEGRATED PLANNING OF RAILWAY TRANSPORTATION RESOURCES

Benhizia, Faten 25 October 2012 (has links)
La production des circulations ferroviaires a la sncf repose actuellement sur un processus essentiellement sequentiel dans lequel la conception des grilles horaires de circulation (reservation de l'infrastructure pour la circulation des trains de l'offre de transport de la sncf) conditionne largement la conception des planifications des engins ferroviaires (les roulements engins), puis celle des agents de conduite (adc) (les grilles de service des adc). cette strategie de planification sequentielle des ressources ferroviaires a ete massivement adoptee pour des raisons pratiques et scientifiques (historique, savoir-faire, complexite du systeme ferroviaire, etc.). toutefois, cette strategie de planification sequentielle genere des solutions qui peuvent etre de cout eleve et moins robustes aux aleas, car les decisions prises a une etape donnee peuvent reduire considerablement l'ensemble des solutions realisables aux etapes suivantes. face a ce constat et a la forte interaction entre ces trois ressources heterogenes et tres couteuses, la sncf a souhaite investiguer la praticabilite et les apports d'une demarche d'optimisation du plan de transport par planification integree de ces ressources critiques. dans cette optique, les travaux de these ont porte sur l'etude de faisabilite, le prototypage et la validation d'une demarche de planification integree des ressources permettant d'ameliorer l'efficacite globale du plan de transport, d'accroitre la competitivite de la sncf et d'ameliorer la qualite de ses services. nous avons propose une formalisation du probleme de planification integree engins/adc et des algorithmes performants qui s'appuient sur une approche par relaxation lagrangienne pour resoudre de maniere efficace la problematique etudiee. cette approche repose sur l'exploitation de deux briques logicielles developpees a la sncf pour resoudre chacun des sous-problemes de planification des engins et des adc. les algorithmes ont ete testes experimentalement avec des donnees reelles de la region ter bretagne. differentes evolutions des modeles et des algorithmes ont ete etudiees pour rendre ces derniers plus efficaces. les tests de validation sur des jeux de donnees reelles a une echelle industrielle sont encourageants et montrent des gains potentiels allant jusqu'a 4% des adc exploites par rapport a une approche traditionnelle (sequentielle). / The planning of railway production at the french national railways (sncf) is currently based on a mainly sequential process in which the design of railway timetabling widely conditioning design planning of railway equipment (rolling stock), then one of the train drivers (driver rosters). this strategy of sequential planning of railway resources massively adopted for practical and scientific reasons (expertise, complexity of the railway system, etc.). however, this strategy generates solutions which can be more expensive and less robust to uncertainties, because decisions taken at any given stage can significantly reduce the overall feasible solutions of the following steps.given this situation and the strong interaction between these heterogeneous and very expensive resources, the thesis deals with the feasibility and inputs of a process where these critical resources could be planned and optimized in an integrated way. the thesis focuses on the feasibility study, prototyping and validation of an integrated approach for planning rolling stocks and drivers, so as to improve the efficiency of the overall transportation plan, increase sncf competitiveness and enhance the quality of its services. we propose a mixed integer linear programming formulation of the rolling stock/ train drivers integrated planning problem. in this mathematical model, each planning sub-problem is formalized and coupling constraints are further introduced to model the interdependencies of these two resources when they are simultaneously used for train production. in this heuristic, the solution of the lagrangian dual and the calculation of feasible solutions are performed by calling two proprietary software modules available at sncf for planning rolling stocks and train drivers. the heuristic is tested experimentally with real data from the ter bretagne region, and several evolutions are introduced in the models and algorithms so as to improve their performances.validation tests on of real data sets at an industrial scale are encouraging and, when compared to a traditional (sequential) approach, show gain of up to 4% for train drivers used.
254

Modélisation de la pharmacocinétique et des mécanismes d’action intracellulaire du 5-fluorouracile : applications à l’étude de la variabilité de l’effet thérapeutique en population et à l’innovation thérapeutique / Modeling of pharmacokinetics and intracellular mechanisms of action of 5-fluorouracil : applications to the study of the therapeutic effect variability in population and therapeutic innovation

Bodin, Justine 24 September 2010 (has links)
Les traitements existants des métastases hépatiques du cancer colorectal montrent une efficacité insuffisante. Le projet GR5FU visait à améliorer cette efficacité et consistait à délivrer le 5-fluorouracile (5FU) dans le foie via son encapsulation dans des globules rouges (GR). Dans ce contexte, la modélisation visait à prédire la quantité de 5FU à encapsuler dans les GR pour atteindre une efficacité équivalente à celle du 5FU standard. Dans cette thèse, nous avons construit et implémenté un modèle mathématique multi-échelle qui relie l’injection du 5FU à son efficacité sur la croissance tumorale en intégrant sa pharmacocinétique et son mécanisme d’action intracellulaire. Des simulations de population de ce modèle, s’appuyant sur des paramètres de la littérature, nous ont permis (i) de reproduire des résultats cliniques montrant le pouvoir prédictif de l’enzyme Thymidylate Synthase (TS) et (ii) d’identifier deux prédicteurs potentiels de la réponse au 5FU à l’échelle d’une population virtuelle, en complément du niveau de TS : la vitesse de croissance tumorale et le métabolisme intracellulaire des pyrimidines. Nous avons également analysé, à l’aide de modèles à effets mixtes, (i) la croissance in vivo de la tumeur intra-hépatique VX2 sans traitement, tenant lieu de modèle animal de métastase hépatique, et (ii) la distribution plasmatique et hépatique du 5FU chez l’animal. Cette modélisation statistique nous a permis d’identifier les modèles décrivant des données expérimentales, d’estimer les paramètres de ces modèles et leur variabilité, et de générer une meilleure connaissance de la croissance de la tumeur VX2 et de la pharmacocinétique animale du 5FU, en particulier hépatique. Dans cette thèse, nous avons illustré comment l’intégration du métabolisme d’un médicament et de son mécanisme d’action dans un modèle global et la simulation de ce modèle à l’échelle d’une population virtuelle, constituent une approche prometteuse pour optimiser le développement d’hypothèses thérapeutiques innovantes en collaboration avec des expérimentateurs. / Existing treatments for liver metastases of colorectal cancer show a lack of efficacy. In order to improve the prognosis of patients, the GR5FU project has been implemented. It consisted in delivering the drug 5-fluorouracil (5FU) in the liver via its encapsulation in red blood cells (RBC) to increase its efficacy / toxicity ratio. In this context, the modeling aimed at predicting the amount of 5FU to encapsulate in RBC to achieve an efficacy equivalent to standard 5FU. In this thesis, we have created and implemented a multiscale mathematical model that links the injection of 5FU to its efficacy on tumor growth by integrating its pharmacokinetics and mechanism of intracellular action. Population simulations of this model, using parameters from the literature, allowed us (i) to reproduce clinical results showing the predictive power of TS enzyme level and (ii) to identify two potential predictors of response to 5FU at the level of a population of virtual patients, in addition to TS level. We also analyzed, using mixed effects models, (i) the in vivo growth of intrahepatic VX2 tumor without treatment, serving as an animal model of liver metastasis, and (ii) the distribution of 5FU in the animal’s organism. This statistical modelization enabled us to identify the models describing experimental data, to estimate the parameters of these models and their variability, and generate a better knowledge of VX2 tumor growth and animal 5FU pharmacokinetics. In this thesis, we illustrated how the integration of drug metabolism and its mechanism of action in a global model and the simulation of this model at the scale of a virtual population, form a promising approach to optimize the development of innovative therapeutic hypotheses in collaboration with experimentalists.
255

Étude du couplage oxydant du méthane : approche combinée de la formulation des catalyseurs, de la cinétique de la réaction et de l'ingénierie des réacteurs / Investigation of the oxidative coupling of methane : combined approach of catalysts formulation, kinetics and engineering aspects

Olivier, Louis 02 April 2010 (has links)
Le couplage oxydant du méthane (OCM) est une réaction complexe de catalyse hétérogène, permettant la conversion directe du méthane en éthylène, pour un coût énergétique moindre par rapport aux procédés industriels indirects actuels. L’OCM nécessite une température supérieure à 700°C, à pression atmosphérique. Il y a donc compétition avec l’oxydation totale. Dans les nombreuses études rapportées dans la littérature, la limite de 25 % de rendement en C2 (éthane + éthylène) n’a pas été franchie. Les mécanismes proposés ne sont pas applicables à tous les catalyseurs actifs ou valables pour un large domaine de conditions opératoires. Une nouvelle manière d’aborder cette réaction est de prendre en compte la plus large diversité possible des paramètres intervenant dans ce procédé, de la formulation aux réacteurs en vue d'optimiser les performances. La présente étude a permis d’extraire des descripteurs pertinents du processus de l’OCM à partir de données expérimentales et d’établir certaines corrélations entre descripteurs et performances. Des catalyseurs LaSrCaO ont été sélectionnés après tests à haut débit en réacteur parallèle à lit fixe et un modèle micro-cinétique de l’OCM dans ce réacteur a été validé grâce aux données obtenues. D’autres expériences ont été menées avec succès en réacteur à membrane dense pour améliorer la productivité en éthylène. Le rôle joué par la composition de surface des catalyseurs a été identifié et une analyse critique de la méthode générale mise en œuvre conclut ce travail / The oxidative coupling of methane (OCM) is a complex heterogeneous catalytic reaction allowing the direct conversion of methane to ethylene, at a lower energetic cost than the current industrial processes. OCM requires a temperature higher than 700°C at atmospheric pressure. Hence, there is competition with total oxidation. In the numerous studies reported in literature, the limit of 25% C2 (ethane + ethylene) yield could not be overtaken. Proposed mechanisms are not relevant for all active materials or on all operating condition ranges. A new way to approach the reaction would be to take into account the wider possible panel of parameters involved in this process, from formulation to reactors targeting at process optimisation. The present study permitted to extract relevant descriptors of OCM process from experimental data and establish relationships between descriptors and performances. LaSrCaO catalysts were selected and tested in a parallel fixed-bed reactor and the data obtained were used to validate a micro-kinetic model in this reactor. Experiments were also performed successfully in a dense membrane reactor to improve ethylene productivity. The role played catalyst surface composition was also identified and a critical analysis of the global method implemented concludes this work
256

Modèles conjoints pour données longitudinales et données de survie incomplètes appliqués à l'étude du vieillissement cognitif

Dantan, Etienne 08 December 2009 (has links)
Dans l'étude du vieillissement cérébral, le suivi des personnes âgées est soumis à une forte sélection avec un risque de décès associé à de faibles performances cognitives. La modélisation de l'histoire naturelle du vieillissement cognitif est complexe du fait de données longitudinales et données de survie incomplètes. Par ailleurs, un déclin accru des performances cognitives est souvent observé avant le diagnostic de démence sénile, mais le début de cette accélération n'est pas facile à identifier. Les profils d'évolution peuvent être variés et associés à des risques différents de survenue d'un événement; cette hétérogénéité des déclins cognitifs de la population des personnes âgées doit être prise en compte. Ce travail a pour objectif d'étudier des modèles conjoints pour données longitudinales et données de survie incomplètes afin de décrire l'évolution cognitive chez les personnes âgées. L'utilisation d'approches à variables latentes a permis de tenir compte de ces phénomènes sous-jacents au vieillissement cognitif que sont l'hétérogénéité et l'accélération du déclin. Au cours d'un premier travail, nous comparons deux approches pour tenir compte des données manquantes dans l'étude d'un processus longitudinal. Dans un second travail, nous proposons un modèle conjoint à état latent pour modéliser simultanément l'évolution cognitive et son accélération pré-démentielle, le risque de démence et le risque de décès. / In cognitive ageing study, older people are highly selected by a risk of death associated with poor cognitive performances. Modeling the natural history of cognitive decline is difficult in presence of incomplete longitudinal and survival data. Moreover, the non observed cognitive decline acceleration beginning before the dementia diagnosis is difficult to evaluate. Cognitive decline is highly heterogeneous, e.g. there are various patterns associated with different risks of survival event. The objective is to study joint models for incomplete longitudinal and survival data to describe the cognitive evolution in older people. Latent variable approaches were used to take into account the non-observed mechanisms, e.g. heterogeneity and decline acceleration. First, we compared two approaches to consider missing data in longitudinal data analysis. Second, we propose a joint model with a latent state to model cognitive evolution and its pre-dementia acceleration, dementia risk and death risk.
257

Inférence statistique dans les modèles mixtes à dynamique Markovienne / Statistical inference for Markovian mixed-effects models

Delattre, Maud 04 July 2012 (has links)
La première partie de cette thèse est consacrée a l'estimation par maximum de vraisemblance dans les modèles mixtes a dynamique markovienne. Nous considérons plus précisément des modèles de Markov cachés a effets mixtes et des modèles de diffusion à effets mixtes. Dans le Chapitre 2, nous combinons l'algorithme de Baum-Welch a l'algorithme SAEM pour estimer les paramètres de population dans les modèles de Markov cachés à effets mixtes. Nous proposons également des procédures spéciques pour estimer les paramètres individuels et les séquences d'états cachés. Nous étudions les propriétés de cette nouvelle méthodologie sur des données simulées et l'appliquons sur des données réelles de nombres de crises d'épilepsie. Dans le Chapitre 3, nous proposons d'abord des modèles de diffusion à effets mixtes pour la pharmacocinétique de population. Nous en estimons les paramètres en combinant l'algorithme SAEM a un filtre de Kalman étendu. Nous étudions ensuite les propriétés asymptotiques de l'estimateur du maximum de vraisemblance dans des modèles de diffusion observés sans bruit de mesure continûment sur un intervalle de temps fixé lorsque le nombre de sujets tend vers l'infini. Le Chapitre 4 est consacré à la sélection de covariables dans des modèles mixtes généraux. Nous proposons une version du BIC adaptée au contexte de double asymptotique ou le nombre de sujets et le nombre d'observations par sujet tendent vers l'infini. Nous présentons quelques simulations pour illustrer cette procédure. / The first part of this thesis deals with maximum likelihood estimation in Markovianmixed-effects models. More precisely, we consider mixed-effects hidden Markov models and mixed-effects diffusion models. In Chapter 2, we combine the Baum-Welch algorithm and the SAEM algorithm to estimate the population parameters in mixed-effects hidden Markov models. We also propose some specific procedures to estimate the individual parameters and the sequences of hidden states. We study the properties of the proposed methodologies on simulated datasets and we present an application to real daily seizure count data. In Chapter 3, we first suggest mixed-effects diffusion models for population pharmacokinetics. We estimate the parameters of these models by combining the SAEM algorithm with the extended Kalman filter. Then, we study the asymptotic properties of the maximum likelihood estimatein some mixed-effects diffusion models continuously observed on a fixed time interval when the number of subjects tends to infinity. Chapter 4 is dedicated to variable selection in general mixed-effects models. We propose a BIC adapted to the asymptotic context where both of the number of subjects and the number of observations per subject tend to infinity. We illustrate this procedure with some simulations.
258

The mixed Ax-Lindemann theorem and its applications to the Zilber-Pink conjecture / Le théorème d’Ax-Lindemann mixte et ses applications à la conjecture de Zilber-Pink

Gao, Ziyang 24 November 2014 (has links)
La conjecture de Zilber-Pink est une conjecture diophantienne concernant les intersections atypiques dans les variétés de Shimura mixtes. C’est une généralisation commune de la conjecture d’André-Oort et de la conjecture de Mordell-Lang. Le but de cette thèse est d’étudier Zilber-Pink. Plus concrètement, nous étudions la conjecture d’André-Oort, selon laquelle une sous-variété d’une variété de Shimura mixte est spéciale si son intersection avec l’ensemble des points spéciaux est dense, et la conjecture d’André-Pink-Zannier, selon laquelle une sous-variété d’une variété de Shimura mixte est faiblement spéciale si son intersection avec une orbite de Hecke généralisée est dense. Cette dernière conjecture généralise Mordell-Lang comme expliqué par Pink.Dans la méthode de Pila-Zannier, un point clef pour étudier la conjecture de Zilber-Pink est de démontrer le théorème d’Ax-Lindemann qui est une généralisation du théorème classique de Lindemann-Weierstrass dans un cadre fonctionnel. Un des résultats principaux de cette thèse est la démonstration du théorème d’Ax-Lindemann dans sa forme la plus générale, c’est- à-dire le théorème d’Ax-Lindemann mixte. Ceci généralise les résultats de Pila, Pila-Tsimerman, Ullmo-Yafaev et Klingler-Ullmo-Yafaev concernant Ax-Lindemann pour les variétés de Shimura pures.Un autre résultat de cette thèse est la démonstration de la conjecture d’André-Oort pour une grande collection de variétés de Shimura mixtes : in- conditionnellement pour une variété de Shimura mixte arbitraire dont la par- tie pure est une sous-variété de AN6 (par exemple les produits des familles universelles des variétés abéliennes de dimension 6 et le fibré de Poincaré sur A6) et sous GRH pour toutes les variétés de Shimura mixtes de type abélien. Ceci généralise des théorèmes connus de Klinger-Ullmo-Yafaev, Pila, Pila-Tsimerman et Ullmo pour les variétés de Shimura pures.Quant à la conjecture d’André-Pink-Zannier, nous démontrons plusieurs cas valables lorsque la variété de Shimura mixte ambiante est la famille universelle des variétés abéliennes. Tout d’abord nous démontrons l’intersection d’André-Oort et André-Pink-Zannier, c’est-à-dire que l’on étudie l’orbite de Hecke généralisée d’un point spécial. Ceci généralise des résultats d’Edixhoven-Yafaev et Klingler-Ullmo-Yafaev pour Ag. Nous prouvons ensuite la conjecture dans le cas suivant : une sous-variété d’un schéma abélien au dessus d’une courbe est faiblement spéciale si son intersection avec l’orbite de Hecke généralisée d’un point de torsion d’une fibre non CM est Zariski dense. Finalement pour une orbite de Hecke généralisée d’un point algébrique arbitraire, nous démontrons la conjecture pour toutes les courbes. Ces deux derniers cas généralisent des résultats de Habegger-Pila et Orr pour Ag.Dans toutes les démonstrations, la théorie o-minimale, en particulier le théorème de comptage de Pila-Wilkie, joue un rôle important. / The Zilber-Pink conjecture is a diophantine conjecture concerning unlikely intersections in mixed Shimura varieties. It is a common generalization of the André-Oort conjecture and the Mordell-Lang conjecture. This dissertation is aimed to study the Zilber-Pink conjecture. More concretely, we will study the André-Oort conjecture, which predicts that a subvariety of a mixed Shimura variety having dense intersection with the set of special points is special, and the André-Pink-Zannier conjecture which predicts that a subvariety of a mixed Shimura variety having dense intersection with a generalized Hecke orbit is weakly special. The latter conjecture generalizes the Mordell-Lang conjecture as explained by Pink.In the Pila-Zannier method, a key point to study the Zilber-Pink conjec- ture is to prove the Ax-Lindemann theorem, which is a generalization of the functional analogue of the classical Lindemann-Weierstrass theorem. One of the main results of this dissertation is to prove the Ax-Lindemann theorem in its most general form, i.e. the mixed Ax-Lindemann theorem. This generalizes results of Pila, Pila-Tsimerman, Ullmo-Yafaev and Klingler-Ullmo-Yafaev concerning the Ax-Lindemann theorem for pure Shimura varieties.Another main result of this dissertation is to prove the André-Oort conjecture for a large class of mixed Shimura varieties: unconditionally for any mixed Shimura variety whose pure part is a subvariety of AN6 (e.g. products of universal families of abelian varieties of dimension 6 and the Poincaré bundle over A6) and under GRH for all mixed Shimura varieties of abelian type. This generalizes existing theorems of Klinger-Ullmo-Yafaev, Pila, Pila-Tsimerman and Ullmo concerning pure Shimura varieties.As for the André-Pink-Zannier conjecture, we prove several cases when the ambient mixed Shimura variety is the universal family of abelian varieties. First we prove the overlap of André-Oort and André-Pink-Zannier, i.e. we study the generalized Hecke orbit of a special point. This generalizes results of Edixhoven-Yafaev and Klingler-Ullmo-Yafaev for Ag. Secondly we prove the conjecture in the following case: a subvariety of an abelian scheme over a curve is weakly special if its intersection with the generalized Hecke orbit of a torsion point of a non CM fiber is Zariski dense. Finally for the generalized Hecke orbit of an arbitrary algebraic point, we prove the conjecture for curves. These generalize existing results of Habegger-Pila and Orr for Ag.In all these proofs, the o-minimal theory, in particular the Pila-Wilkie counting theorems, plays an important role.
259

Inférence dans les modèles conjoints et de mélange non-linéaires à effets mixtes / Inference in non-linear mixed effects joints and mixtures models

Mbogning, Cyprien 17 December 2012 (has links)
Cette thèse est consacrée au développement de nouvelles méthodologies pour l'analyse des modèles non-linéaires à effets mixtes, à leur implémentation dans un logiciel accessible et leur application à des problèmes réels. Nous considérons particulièrement des extensions des modèles non-linéaires à effets mixtes aux modèles de mélange et aux modèles conjoints. Dans la première partie, nous proposons, dans le but d'avoir une meilleure maîtrise de l'hétérogénéité liée aux données sur des patients issus de plusieurs clusters, des extensions des MNLEM aux modèles de mélange. Nous proposons ensuite de combiner l'algorithme EM, utilisé traditionnellement pour les modèles de mélanges lorsque les variables étudiées sont observées, et l'algorithme SAEM, utilisé pour l'estimation de paramètres par maximum de vraisemblance lorsque ces variables ne sont pas observées. La procédure résultante, dénommée MSAEM, permet ainsi d'éviter l'introduction d'une étape de simulation des covariables catégorielles latentes dans l'algorithme d'estimation. Cet algorithme est extrêmement rapide, très peu sensible à l'initialisation des paramètres, converge vers un maximum (local) de la vraisemblance et est implémenté dans le logiciel Monolix.La seconde partie de cette Thèse traite de la modélisation conjointe de l'évolution d'un marqueur biologique au cours du temps et les délais entre les apparitions successives censurées d'un évènement d'intérêt. Nous considérons entre autres, les censures à droite, les multiples censures par intervalle d'évènements répétés. Les paramètres du modèle conjoint résultant sont estimés en maximisant la vraisemblance jointe exacte par un algorithme de type MCMC-SAEM. Cette méthodologie est désormais disponible sous Monolix / The main goal of this thesis is to develop new methodologies for the analysis of non linear mixed-effects models, along with their implementation in accessible software and their application to real problems. We consider particularly extensions of non-linear mixed effects model to mixture models and joint models. The study of these two extensions is the essence of the work done in this document, which can be divided into two major parts. In the first part, we propose, in order to have a better control of heterogeneity linked to data of patient issued from several clusters, extensions of NLMEM to mixture models. We suggest in this Thesis to combine the EM algorithm, traditionally used for mixtures models when the variables studied are observed, and the SAEM algorithm, used to estimate the maximum likelihood parameters when these variables are not observed. The resulting procedure, referred MSAEM, allows avoiding the introduction of a simulation step of the latent categorical covariates in the estimation algorithm. This algorithm appears to be extremely fast, very little sensitive to parameters initialization and converges to a (local) maximum of the likelihood. This methodology is now available under the Monolix software. The second part of this thesis deals with the joint modeling of the evolution of a biomarker over time and the time between successive appearances of a possibly censored event of interest. We consider among other, the right censoring and interval censorship of multiple events. The parameters of the resulting joint model are estimated by maximizing the exact joint likelihood by using a MCMC-SAEM algorithm. The proposed methodology is now available under Monolix.
260

Modélisation CEM des équipements aéronautiques : aide à la qualification de l’essai BCI / EMC modeling of aeronautical equipment : support for the qualification of the BCI test

Cheaito, Hassan 06 November 2017 (has links)
L’intégration de l’électronique dans des environnements sévères d’un point de vue électromagnétique a entraîné en contrepartie l’apparition de problèmes de compatibilité électromagnétique (CEM) entre les différents systèmes. Afin d’atteindre un niveau de performance satisfaisant, des tests de sécurité et de certification sont nécessaires. Ces travaux de thèse, réalisés dans le cadre du projet SIMUCEDO (SIMUlation CEM basée sur la norme DO-160), contribuent à la modélisation du test de qualification "Bulk Current Injection" (BCI). Ce test, abordé dans la section 20 dans la norme DO-160 dédiée à l’aéronautique, est désormais obligatoire pour une très grande gamme d’équipements aéronautiques. Parmi les essais de qualification, le test BCI est l’un des plus contraignants et consommateurs du temps. Sa modélisation assure un gain de temps, et une meilleure maîtrise des paramètres qui influencent le passage des tests CEM. La modélisation du test a été décomposée en deux parties : l’équipement sous test (EST) d’une part, et la pince d’injection avec les câbles d’autre part. Dans cette thèse, seul l’EST est pris en compte. Une modélisation "boîte grise" a été proposée en associant un modèle "boîte noire" avec un modèle "extensif". Le modèle boîte noire s’appuie sur la mesure des impédances standards. Son identification se fait avec un modèle en pi. Le modèle extensif permet d’étudier plusieurs configurations de l’EST en ajustant les paramètres physiques. L’assemblage des deux modèles en un modèle boîte grise a été validé sur un convertisseur analogique-numérique (CAN). Une autre approche dénommée approche modale en fonction du mode commun (MC) et du mode différentiel (MD) a été proposée. Elle se base sur les impédances modales du système sous test. Des PCB spécifiques ont été conçus pour valider les équations développées. Une investigation est menée pour définir rigoureusement les impédances modales. Nous avons démontré qu’il y a une divergence entre deux définitions de l’impédance de MC dans la littérature. Ainsi, la conversion de mode (ou rapport Longitudinal Conversion Loss : LCL) a été quantifiée grâce à ces équations. Pour finir, le modèle a été étendu à N-entrées pour représenter un EST de complexité industrielle. Le modèle de l’EST est ensuite associé avec celui de la pince et des câbles travaux réalisés au G2ELAB. Des mesures expérimentales ont été faites pour valider le modèle complet. D’après ces mesures, le courant de MC est impacté par la mise en œuvre des câbles ainsi que celle de l’EST. Il a été montré que la connexion du blindage au plan de masse est le paramètre le plus impactant sur la distribution du courant de MC. / Electronic equipments intended to be integrated in aircrafts are subjected to normative requirements. EMC (Electromagnetic Compatibility) qualification tests became one of the mandatory requirements. This PhD thesis, carried out within the framework of the SIMUCEDO project (SIMulation CEM based on the DO-160 standard), contributes to the modeling of the Bulk Current Injection (BCI) qualification test. Concept, detailed in section 20 in the DO-160 standard, is to generate a noise current via cables using probe injection, then monitor EUT satisfactorily during test. Among the qualification tests, the BCI test is one of the most constraining and time consuming. Thus, its modeling ensures a saving of time, and a better control of the parameters which influence the success of the equipment under test. The modeling of the test was split in two parts : the equipment under test (EUT) on one hand, and the injection probe with the cables on the other hand. This thesis focuses on the EUT modeling. A "gray box" modeling was proposed by associating the "black box" model with the "extensive" model. The gray box is based on the measurement of standard impedances. Its identification is done with a "pi" model. The model, having the advantage of taking into account several configurations of the EUT, has been validated on an analog to digital converter (ADC). Another approach called modal, in function of common mode and differential mode, has been proposed. It takes into account the mode conversion when the EUT is asymmetrical. Specific PCBs were designed to validate the developed equations. An investigation was carried out to rigorously define the modal impedances, in particular the common mode (CM) impedance. We have shown that there is a discrepancy between two definitions of CM impedance in the literature. Furthermore, the mode conversion ratio (or the Longitudinal Conversion Loss : LCL) was quantified using analytical equations based on the modal approach. An N-input model has been extended to include industrial complexity. The EUT model is combined with the clamp and the cables model (made by the G2ELAB laboratory). Experimental measurements have been made to validate the combined model. According to these measurements, the CM current is influenced by the setup of the cables as well as the EUT. It has been shown that the connection of the shield to the ground plane is the most influent parameter on the CM current distribution.

Page generated in 0.0536 seconds