• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 316
  • 90
  • 22
  • 2
  • Tagged with
  • 437
  • 198
  • 105
  • 71
  • 65
  • 54
  • 52
  • 48
  • 44
  • 41
  • 38
  • 37
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Essays on the relationship between fertility and child mortality / Essais sur la relation entre mortalité infantile et fécondité

Bousmah, Marwân-al-Qays 05 February 2015 (has links)
Cette thèse se donne pour objectif de contribuer à la compréhension des tendances démographiques en Afrique subsaharienne par l’examen de l’influence de la mortalité infantile sur les comportements de fécondité. Dans le premier chapitre, j’examine la relation entre mortalité infantile et fécondité à l’échelle micro-économique. Des modèles de données de comptage sont utilisés pour analyser les déterminants de la fécondité complète de femmes d’une communauté rurale sénégalaise. Je montre que l’effet global de la mortalité infantile est positif tant sur la fécondité totale que sur la fécondité nette. De plus, j’identifie une relation en U inversé entre mortalité infantile et fécondité nette. Dans le second chapitre, j’analyse les effets de la mortalité infantile sur les comportements reproductifs dans un modèle de fécondité endogène où la survie infantile est stochastique. J’adopte une forme fonctionnelle de coût des enfants englobant quatre scénarios différents, chacun représentant un contexte socio-économique distinct. Mon modèle peut prédire des réponses positives et négatives de la fécondité, selon que les enfants sont respectivement “intensifs en temps” ou “pourvoyeurs en temps”. Finalement, le troisième chapitre analyse les effets de la mortalité et de la morbidité infantiles sur le processus de décision de fécondité des femmes rurales sénégalaises. J’estime des modèles dynamiques non linéaires de données de panel. Je montre que la mortalité et la morbidité palustres à l’échelle de la communauté, ont un effet positif sur les décisions ultérieures de fécondité. Cet effet est d’autant plus fort que la maladie est létale pour les enfants infectés. / This dissertation attempts to contribute to the understanding of current demographic trends in sub-Saharan Africa by examining the role of child mortality in shaping fertility behavior. In the first chapter of this dissertation, I examine the relationship between child mortality and fertility at the micro level. Count data models are employed to investigate the determinants of completed fertility of women from a Senegalese rural community. The global effect of child mortality on total and net fertility is found to be positive. I also identify an inverted-U shaped relationship between child mortality and net fertility. In the second chapter of this dissertation, I analyze the effects of child mortality changes on fertility behaviors in an endogenous fertility model where child survival is stochastic. I adopt a functional form for the cost of children that allows for four different scenarios, each of which is representative of a particular socio-economic setting. My model can predict both positive and negative fertility responses to child mortality depending on whether children are “time-intensive” or “time-supplying”, respectively. Finally, the third chapter analyzes the effects of childhood mortality and morbidity on the fertility decision-making process among rural Senegalese women. I estimate nonlinear dynamic panel data models of fertility behavior. I find that community child mortality and morbidity attributable to malaria exert a joint influence on fertility behaviors. Community-level malaria incidence among children has a positive effect on subsequent fertility choices, and this positive effect is stronger the more the disease is fatal to children who are infected.
372

Flood risk analysis : impact of uncertainty in hazard modelling and vulnerability assessments on damage estimations / Analyse du risque inondation : l'impact d'incertitudes dans les modélisations de l'aléa et de la vulnérabilité des enjeux sur les estimations de dommages

Eleutério, Julian 30 November 2012 (has links)
Cette thèse aide à approfondir les connaissances sur les différentes sources d’incertitude dans l’évaluation économique du risque inondation. Elle explore plusieurs disciplines afin d’analyser l’impact des stratégies utilisées pour modéliser l’aléa inondation et la vulnérabilité d’un territoire, sur l’évaluation des dommages potentiels. On a mesuré la variabilité des estimations en fonction des bases de données, modèles, méthodes et échelles considérés pour : analyser la probabilité des inondations (hydrologie) ; modéliser et cartographier l’aléa inondation (hydraulique) ; caractériser la vulnérabilité des enjeux et leur susceptibilité à subir des dommages (génie civil, géographie et économie de l’environnement). Les analyses et méthodes développées devront appuyer la prise en compte d’incertitudes, la détermination de priorités et l’optimisation de la distribution des ressources entre les différents modules de l’évaluation. Afin d’explorer un degré de complexité supplémentaire d’analyse de risque, nous avons développé une méthode d’analyse de la vulnérabilité systémique des réseaux d’infrastructure en lien avec leur résilience. / This thesis aims at exploring different sources of uncertainty related to the economic analysis of the flood risk. It embraces several fields of knowledge in order to determine how the selection of strategies used to model flood hazard and assess the vulnerability of a territory may affect damage potential estimations. We measured the variability of damage estimations as a function of the datasets, methods, models and scales considered to: analyse the probability of floods (hydrology); model and map flood hazard (hydraulics); assess the vulnerability and susceptibility of properties to floods (civil engineering, geography and environmental economics). The methods and analyses developed here should bring support for practitioners in the investigation of uncertainties, determination of evaluation priorities and optimisation of the distribution of resources between the different modules of the evaluation process. In order to explore a second level of complexity of flood risk evaluations, we developed a method for analysing the systemic vulnerability of infrastructure networks, in relation with their resilience.
373

Analyses médico-économiques de la prise en charge de la maladie coronarienne stable : méta-analyse en réseau et modélisation / Medico-economic analysis of the management of stable coronary artery disease : meta-analysis and network modeling

Caruba, Thibaut 27 September 2013 (has links)
La maladie coronaire stable est une maladie chronique pour laquelle de nombreuses stratégies thérapeutiques sont disponibles, dont le traitement par médicaments seuls et les traitements invasifs par angioplastie avec stent ou par pontage aortocoronaire. Face aux résultats de plusieurs méta-analyses mettant en évidence un taux de mortalité comparable entre ces traitements, nous avons décidé d’effectuer un travail de recherche comparant leurs coûts. Dans la première partie de mon travail, nous avons comparé, après une période de un an et une autre de 3 ans de suivi des patients, les données cliniques et économiques publiées pour 5 traitements de l’angor stable : les médicaments seuls, le pontage aortocoronaire, l’angioplastie sans stent, l’angioplastie avec stent nu et l’angioplastie avec stent actif. La mortalité et le taux d’IDM étaient nos critères de jugement clinique. Les coûts directs, liés au traitement effectué et liés à la prise en charge des éventuelles complications, ont été uniformisés via la parité de pouvoir d’achat et exprimés en US $ 2008. Il s’agissait de notre critère de jugement économique. Un total de 19 études cliniques a été retenu dans notre méta-analyse en réseau. Nos résultats mettent en évidence une absence de différence significative sur le critère clinique. En revanche, nous avons observé une différence concernant le coût moyen de chaque traitement après un an et 3 ans de suivi. Le traitement le moins onéreux était le traitement par médicaments seuls, après un an et 3 ans de suivi, avec respectivement un coût moyen par patient de 3 069 US $ et 13 854 US $. Le coût moyen le plus élevé a toujours été obtenu avec le traitement par pontage aortocoronaire : 27 003 US $ après un an et 28 670 US $ après 3 ans de suivi. Cependant, nos conclusions sont limitées d’une part, par la variabilité des méthodes économiques utilisées dans les études sélectionnées dans notre méta-analyse et, d’autre part, par l’évolution des traitements dans le temps. Dans la seconde partie de mon travail de recherche, nous avons calculé le coût de prise en charge d’un patient angoreux stable traité par l’une des 4 stratégies thérapeutiques suivantes : médicaments seuls, pontage aortocoronaire, angioplastie avec stent nu et angioplastie avec stent actif. Pour se faire, nous avons défini d’une part 6 situations cliniques correspondant aux possibles états cliniques du patient un an après l’instauration du traitement étudié et, d’autre part, déterminé les quantités de soins consommés pour chacune de ces situations cliniques. La perspective retenue était celle de l’Assurance Maladie. Les coûts calculés étaient liés aux hospitalisations, aux soins ambulatoires et aux moyens de transport utilisés pour accéder à l’hôpital. La stratégie médicamenteuse était la moins onéreuse avec un coût moyen annuel de 1 518 € ; ce coût prenant en compte les probabilités de survenue des 6 états cliniques. Le traitement par pontage aortocoronaire était le plus onéreux des 4 traitements étudiés, avec un coût moyen annuel de 15 237 €. La perspective de mes travaux est de modéliser la prise en charge d’un patient angoreux stable en envisageant un second traitement si le premier traitement effectué conduit à une situation d’échec thérapeutique. Les arbres que nous avons construits nous permettront ensuite d’effectuer une analyse coût-efficacité de deux stratégies thérapeutiques avec une durée totale de suivi des patients de 2 ans. Enfin, si nos travaux mettent en avant l’intérêt économique du traitement par médicaments, nous soulignons que ces résultats sont obtenus après avoir suivi les patients sur une courte durée (études à un an et à 3 ans), alors que l’angor stable est une maladie chronique où les stratégies thérapeutiques peuvent se succéder en cas d’échec à l’un des traitements... / Stable coronary artery disease is a chronic disease for which many treatment strategies are available, treatment with drugs alone and invasive treatment by stenting or coronary artery bypass graft. With the results of several meta-analyzes showing a mortality rate comparable between treatments, we decided to conduct a research comparing costs. In the first part of my work, we compared, after a period of one year and of 3 years of patient follow-up, clinical and economic data for five treatment of stable angina: medication alone, coronary artery bypass graft, angioplasty without stent, angioplasty with bare metal stent and angioplasty with drug-eluting stent. Mortality and MI rates were our clinical end point. Direct costs related to the treatment performed and related to the management of complications, have been standardized using the purchasing power parity and expressed in U.S. $ 2008. It was our criterion for economic analysis. A total of 19 clinical studies have been selected in our network meta-analysis. Our results show there is no significant difference in clinical end point. In contrast, we observed a difference in the average cost of each treatment after one year and three year follow-up. The least expensive treatment was the only treatment with drugs, after a year and 3 years of follow-up, each with an average cost per patient of U.S. $ 3,069 and U.S. $ 13,854. The highest average cost has been obtained with the treatment coronary artery bypass graft: U.S. $ 27,003 after one year and U.S. $ 28,670 after 3 years of follow-up. However, our conclusions are limited due to the high variability of the economic methods used in the selected studies and because of the evolution of revascularization techniques. In the second part of my research work, we calculated the cost of management of stable angina pectoris patients treated with one of the following four treatment strategies: medication alone, coronary artery bypass graft, angioplasty with bare metal stent and angioplasty with stent active. We defined a part 6 clinical situations corresponding to the possible clinical conditions of the patient one year after the treatment. We have defined the quantities of care consumed for each of these clinical situations. The perspective selected was the statutory health insurance in 2011. The calculated costs were related to hospitalization, ambulatory care and medical transport used to reach the hospital. The drug strategy was the least expensive with an average annual cost of € 1,518, the cost taking into account the probability of occurrence of 6 clinical conditions. Treatment with coronary artery bypass graft was the most expensive of the four treatments studied, with an average annual cost of € 15,237. The prospect of my work is to model the management of stable angina pectoris patient considering a second treatment if the first treatment led to a situation of treatment failure. The trees we built then allow us to perform a cost-effectiveness analysis of two strategies with a total duration of patient follow-up of 2 years. Finally, if our work highlights the economic benefits of drug treatment, we emphasize that these results are obtained after following patients over a short period (1 year and 3 years), while stable angina is a chronic disease where therapeutic strategies may succeed in case of failure to one of the treatments. In addition, we keep in mind that the choice of treatment, whether conservative or by drugs, by invasive myocardial revascularization should be done individually, i.e. taking into account the individual characteristics of each patient.
374

Estimation du bénéfice de survie à partir de méta-analyse sur données individuelles et évaluation économique. / Estimation of the survival benefit from individual participant data meta-analysis and economic evaluation.

Lueza, Béranger 30 September 2016 (has links)
Le bénéfice de survie restreint à un horizon temporel donné a été proposé comme mesure alternative aux mesures relatives de l’effet d’un traitement notamment dans le cas de non proportionnalité des risques de décès. Le bénéfice de survie restreint correspond à la différence des survies moyennes entre deux bras de traitement et s’exprime en nombre d’années de vie gagnées. Dans la littérature, cette mesure est présentée comme plus intuitive que le hazard ratio et plusieurs auteurs ont proposé son utilisation pour le design et l’analyse d’un essai clinique. Toutefois, ce n’est pas actuellement la mesure qui est utilisée de manière courante dans les essais randomisés. Cette mesure s’applique quelle que soit la distribution des temps de survie et est adaptée si l’hypothèse des risques proportionnels n’est pas respectée. De plus, le bénéfice de survie restreint peut être utilisé en évaluation médico-économique où la mesure d’un effet absolu est nécessaire (nombre d’années de vie gagnées pondérées ou non par la qualité de vie). Si l’on souhaite estimer le bénéfice de survie restreint à partir d’une méta-analyse sur données individuelles, se pose alors la question de prendre en compte l’effet essai dû à la structure hiérarchique des données. L’objectif de cette thèse était de comparer des méthodes statistiques d’estimation du bénéfice de survie restreint à partir de données individuelles d’une méta-analyse d’essais cliniques randomisés. Le point de départ a été une étude de cas (étude coût-efficacité) réalisée à partir des données de la Meta-Analysis of Radiotherapy in Lung Cancer. Cette étude a montré que les cinq méthodes d’estimation étudiées conduisaient à des estimations différentes du bénéfice de survie et de son intervalle de confiance. Le choix de la méthode d’estimation avait également un impact sur les résultats de l’analyse coût-efficacité. Un second travail a consisté à mener une étude de simulation pour mieux comprendre les propriétés des méthodes d’estimation considérées en termes de biais moyen et d’erreur-type. Enfin, la dernière partie de la thèse a mis en application les enseignements de cette étude de simulation au travers de trois méta-analyses sur données individuelles dans le cancer du nasopharynx et dans le cancer du poumon à petites cellules. / The survival benefit restricted up to a certain time horizon has been suggested as an alternative measure to the common relative measures used to estimate the treatment effect, especially in case of non-proportional hazards of death. The restricted survival benefit corresponds to the difference of the two restricted mean survival times estimated for each treatment arm, and is expressed in terms of life years gained. In the literature, this measure is considered as more intuitive than the hazard ratio and many authors have suggested its use for the design and the analysis of clinical trials. However, it is not currently the most used measure in randomized trials. This measure is valid under any distribution of the survival times and is adapted if the proportional hazards assumption does not hold. In addition, the restricted survival benefit can be used in medico-economic evaluation where an absolute measure of the treatment effect is needed (number of [quality adjusted] life years gained). If one wants to estimate the restricted survival benefit from an individual participant data meta-analysis, there is a need to take into account the trial effect due to the hierarchical structure of the data. The aim of this thesis was to compare statistical methods to estimate the restricted survival benefit from an individual participant data meta-analysis of randomized trials. The starting point was a case study (cost-effectiveness analysis) using data from the Meta-Analysis of Radiotherapy in Lung Cancer. This study showed that the five investigated methods yielded different estimates for the restricted survival benefit and its confidence interval. The choice of a method to estimate the survival benefit also impacted on cost-effectiveness results. Our second project consisted in a simulation study to have a better understanding of the properties of the investigated methods in terms of bias and standard error. Finally, the last part of the thesis illustrated the lessons learned from the simulation study through three examples of individual participant data meta-analysis in nasopharynx cancer and in small cell lung cancer.
375

Évènements rares et gestion des actifs en contexte d'Hydro-Québec : prise de décision sous risque, incertitude et résilience

Diallo, Ibrahima January 2020 (has links) (PDF)
No description available.
376

Optimisation de coût de production de l'électricité dans un micro réseau électrique

Phommixay, Sengthavy January 2021 (has links) (PDF)
No description available.
377

Cognitive Computational Models of Pronoun Resolution / Modèles cognitifs et computationnels de la résolution des pronoms

Seminck, Olga 23 November 2018 (has links)
La résolution des pronoms est le processus par lequel un pronom anaphorique est mis en relation avec son antécédent. Les humains en sont capables sans efforts notables en situation normale. En revanche, les systèmes automatiques ont une performance qui reste loin derrière, malgré des algorithmes de plus en plus sophistiqués, développés par la communauté du Traitement Automatique des Langues. La recherche en psycholinguistique a montré à travers des expériences qu'au cours de la résolution de nombreux facteurs sont pris en compte par les locuteurs. Une question importante se pose : comment les facteurs interagissent et quel poids faut-il attribuer à chacun d'entre eux ? Une deuxième question qui se pose alors est comment les théories linguistiques de la résolution des pronoms incorporent tous les facteurs. Nous proposons une nouvelle approche à ces problématiques : la simulation computationnelle de la charge cognitive de la résolution des pronoms. La motivation pour notre approche est double : d'une part, l'implémentation d'hypothèses par un système computationnel permet de mieux spécifier les théories, d’autre part, les systèmes automatiques peuvent faire des prédictions sur des données naturelles comme les corpus de mouvement oculaires. De cette façon, les modèles computationnels représentent une alternative aux expériences classiques avec des items expérimentaux construits manuellement. Nous avons fait plusieurs expériences afin d'explorer les modèles cognitifs computationnels de la résolution des pronoms. D'abord, nous avons simulé la charge cognitive des pronoms en utilisant des poids de facteurs de résolution appris sur corpus. Ensuite, nous avons testé si les concepts de la Théorie de l’Information sont pertinents pour prédire la charge cognitive des pronoms. Finalement, nous avons procédé à l’évaluation d’un modèle psycholinguistique sur des données issues d’un corpus enrichi de mouvements oculaires. Les résultats de nos expériences montrent que la résolution des pronoms est en effet multi-factorielle et que l’influence des facteurs peut être estimée sur corpus. Nos résultats montrent aussi que des concepts de la Théorie de l’Information sont pertinents pour la modélisation des pronoms. Nous concluons que l’évaluation des théories sur des données de corpus peut jouer un rôle important dans le développement de ces théories et ainsi amener dans le futur à une meilleure prise en compte du contexte discursif. / Pronoun resolution is the process in which an anaphoric pronoun is linked to its antecedent. In a normal situation, humans do not experience much cognitive effort due to this process. However, automatic systems perform far from human accuracy, despite the efforts made by the Natural Language Processing community. Experimental research in the field of psycholinguistics has shown that during pronoun resolution many linguistic factors are taken into account by speakers. An important question is thus how much influence each of these factors has and how the factors interact with each-other. A second question is how linguistic theories about pronoun resolution can incorporate all relevant factors. In this thesis, we propose a new approach to answer these questions: computational simulation of the cognitive load of pronoun resolution. The motivation for this approach is two-fold. On the one hand, implementing hypotheses about pronoun resolution in a computational system leads to a more precise formulation of theories. On the other hand, robust computational systems can be run on uncontrolled data such as eye movement corpora and thus provide an alternative to hand-constructed experimental material. In this thesis, we conducted various experiments. First, we simulated the cognitive load of pronouns by learning the magnitude of impact of various factors on corpus data. Second, we tested whether concepts from Information Theory were relevant to predict the cognitive load of pronoun resolution. Finally, we evaluated a theoretical model of pronoun resolution on a corpus enriched with eye movement data. Our research shows that multiple factors play a role in pronoun resolution and that their influence can be estimated on corpus data. We also demonstrate that the concepts of Information Theory play a role in pronoun resolution. We conclude that the evaluation of hypotheses on corpus data enriched with cognitive data ---- such as eye movement data --- play an important role in the development and evaluation of theories. We expect that corpus based methods will lead to a better modelling of the influence of discourse structure on pronoun resolution in future work.
378

Jeux concurrents enrichis : témoins pour les preuves et les ressources / Enriched concurrent games : witnesses for proofs and resource analysis

Alcolei, Aurore 17 October 2019 (has links)
La sémantique des jeux est une sémantique dénotationnelle centrée sur l’interaction : preuves et programmes y sont représentés par des stratégies modélisant, par le flot d’exécution, leur manière de réagir à leur environnement. Malgré cette présentation intensionnelle, les sémantiques de jeux ne suffisent pas à capturer certaines informations calculatoires annexes au flot d’exécution telles que, par exemple, la production de témoins en logique du premier ordre ou la consommation de ressources dans les langages de programmation. Dans cette thèse nous proposons un enrichissement du modèle des jeux concurrent à base de structures d’événements permettant de garder trace de ces informations.Nous construisons d’abord un modèle de jeux concurrent dans lequel les coups joueurs d’une stratégie sont annotés par les termes d’une théorie (in)équationnelle. Cette théorie est un paramètre de notre modèle et les annotations permettent de refléter de manière compacte des informations d’exécution n’ayant pas d’influence sur le flot d’exécution. Nous montrons que le modèle ainsi construit préserve la structure catégorique compacte fermée du modèle sans annotation.Nous explorons ensuite l’expressivité de notre modèle et présentons deux interprétations nouvelles en sémantique des preuves et des programmes : l’une interprétant les preuves de la logique classique du premier ordre par des stratégies concurrentes avec échange de témoins, donnant une version compositionnelle au théorème de Herbrand ; l’autre permettant de refléter les aspects quantitatifs liés à la consommation de ressources telles que le temps, dans l’exécution de programmes concurrents d’ordre supérieur avec mémoire partagée. / This thesis presents a general framework for enriching causal concurrent games model with annotations. These annotations can be viewed as meta-data on strategies: they are modified throughout interactions but do not affect their general flow of control. These data can be of various nature, in particular our enrichment is parametrised over any multi-sorted equational theory and can also reflect structure upon these data such as a partial order. From a semantics point of view, this construction is motivated by problems from both logic and programming languages: On the logic side, the annotated games model specialised to first-order terms enables us to give a novel interpretation of first-order classical proofs as concurrent strategies carrying first-order witnesses. In particular this answer the question of giving a compositional version to Herbrand’s theorem while avoiding the usual proof sequentialization of other denotational approaches. On the programming language side, annotations on games offer intrinsic quantitative models. We show that those can be used to provide denotational semantics for resource consumption analysis of concurrent higher order programming language with shared memory.These enrichments, strongly connected to the causal structure of concurrent games, give an argument in favor of a causal meaning of computations.
379

Accélération des projets de fabrication et modélisation de l’impact de la main d’œuvre additionnelle sur la qualité / Project crashing with overtime and temporary work under quality constraints

Bou Orm, Mayassa 04 July 2017 (has links)
Cette thèse s'inscrit dans la littérature relative au problème d'arbitrage durée, coût et qualité en gestion de projet. Nous développons un modèle d'accélération des projets de fabrication par le recours au travail temporaire et aux heures supplémentaires. Nous prenons en compte l'impact de la main d'œuvre additionnelle sur la durée via les pertes de productivité et sur la qualité des activités qui composent le projet. La qualité de toute activité est mesurée par le pourcentage d'items validés dans sa check-list de contrôle qualité. Nous proposons une formulation linéaire du problème de minimisation de la durée du projet sous contrainte de budget et de respect d'un seuil de qualité minimum pour chacune des activités que le projet comporte. Le programme d'optimisation mixte qui en résulte est appliqué au cas d'un projet de fabrication d'une motrice TGV et permet d'obtenir une planification prévisionnelle de la main d'œuvre pour atteindre la durée optimale d'exécution. Le modèle peut également être utilisé pour accélérer un projet en cours d'exécution ou à des fins plus stratégiques de dimensionnement des postes de travail. / We address the discrete time resource-constrained project scheduling problem in which each activity has a specified work content and its resource usage may vary from period to period. We consider temporary work and overtime as additional renewable resources for crashing the project. We assume that the project quality may be affected by crashing as well as its completion time through productivity loss due to overmanning. We develop a Mixed-Integer Linear Programming (MILP) model to minimise the makespan subject to a budget constraint and to acceptable quality levels for all activities so as to avoid rework. The proposed approach is applied to an actual manufacturing project of a very high speed train motor coach.
380

Towards new sensing capabilities for legged locomotion using real-time state estimation with low-cost IMUs / Vers de nouvelles capacités de perception pour les robotes à jambes à l'aide de l'estimation d'états temps réel avec des centrales inertielles à bas coût

Atchuthan, Dinesh 23 October 2018 (has links)
L'estimation en robotique est un sujet important affecté par les compromis entre certains critères majeurs parmi lesquels nous pouvons citer le temps de calcul et la précision. L'importance de ces deux critères dépend de l'application. Si le temps de calcul n'est pas important pour les méthodes hors ligne, il devient critique lorsque l'application doit s'exécuter en temps réel. De même, les exigences de précision dépendent des applications. Les estimateurs EKF sont largement utilisés pour satisfaire les contraintes en temps réel tout en obtenant une estimation avec des précisions acceptables. Les centrales inertielles (Inertial Measurement Unit - IMU) demeurent des capteurs répandus dnas les problèmes d'estimation de trajectoire. Ces capteurs ont par ailleurs la particularité de fournir des données à une fréquence élevée. La principale contribution de cette thèses est une présentation claire de la méthode de préintégration donnant lieu à une meilleure utilisation des centrales inertielles. Nous appliquons cette méthode aux problèmes d'estimation dans les cas de la navigation piétonne et celle des robots humanoïdes. Nous souhaitons par ailleurs montrer que l'estimation en temps réel à l'aide d'une centrale inertielle à faible coût est possible avec des méthodes d'optimisation tout en formulant les problèmes à l'aide d'un modèle graphique bien que ces méthodes soient réputées pour leurs coûts élevés en terme de calculs. Nous étudions également la calibration des centrales inertielles, une étape qui demeure critique pour leurs utilisations. Les travaux réalisés au cours de cette thèse ont été pensés en gardant comme perspective à moyen terme le SLAM visuel-inertiel. De plus, ce travail aborde une autre question concernant les robots à jambes. Contrairement à leur architecture habituelle, pourrions-nous utiliser plusieurs centrales inertielles à faible coût sur le robot pour obtenir des informations précieuses sur le mouvement en cours d'exécution ? / Estimation in robotics is an important subject affected by trade-offs between some major critera from which we can cite the computation time and the accuracy. The importance of these two criteria are application-dependent. If the computation time is not important for off-line methods, it becomes critical when the application has to run on real-time. Similarly, accuracy requirements are dependant on the applications. EKF estimators are widely used to satisfy real-time constraints while achieving acceptable accuracies. One sensor widely used in trajectory estimation problems remains the inertial measurement units (IMUs) providing data at a high rate. The main contribution of this thesis is a clear presentation of the preintegration theory yielding in a better use IMUs. We apply this method for estimation problems in both pedestrian and humanoid robots navigation to show that real-time estimation using a low- cost IMU is possible with smoothing methods while formulating the problems with a factor graph. We also investigate the calibration of the IMUs as it is a critical part of those sensors. All the development made during this thesis was thought with a visual-inertial SLAM background as a mid-term perspective. Firthermore, this work tries to rise another question when it comes to legged robots. In opposition to their usual architecture, could we use multiple low- cost IMUs on the robot to get valuable information about the motion being executed?

Page generated in 0.0592 seconds