• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 141
  • 35
  • 3
  • 1
  • Tagged with
  • 515
  • 187
  • 142
  • 103
  • 84
  • 80
  • 67
  • 66
  • 63
  • 63
  • 63
  • 62
  • 58
  • 57
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Contributions to robust methods in nonparametric frontier models

Bruffaerts, Christopher 10 September 2014 (has links)
Les modèles de frontières sont actuellement très utilisés par beaucoup d’économistes, gestionnaires ou toute personne dite « decision-maker ». Dans ces modèles de frontières, le but du chercheur consiste à attribuer à des unités de production (des firmes, des hôpitaux ou des universités par exemple) une mesure de leur efficacité en terme de production. Ces unités (dénotées DMU-Decision-Making Units) utilisent-elles à bon escient leurs « inputs » et « outputs »? Font-elles usage de tout leur potentiel dans le processus de production? <p>L’ensemble de production est l’ensemble contenant toutes les combinaisons d’inputs et d’outputs qui sont physiquement réalisables dans une économie. De cet ensemble contenant p inputs et q outputs, la notion d’efficacité d ‘une unité de production peut être définie. Celle-ci se définie comme une distance séparant le DMU de la frontière de l’ensemble de production. A partir d’un échantillon de DMUs, le but est de reconstruire cette frontière de production afin de pouvoir y évaluer l’efficacité des DMUs. A cette fin, le chercheur utilise très souvent des méthodes dites « classiques » telles que le « Data Envelopment Analysis » (DEA).<p><p>De nos jours, le statisticien bénéficie de plus en plus de données, ce qui veut également dire qu’il n’a pas l’opportunité de faire attention aux données qui font partie de sa base de données. Il se peut en effet que certaines valeurs aberrantes s’immiscent dans les jeux de données sans que nous y fassions particulièrement attention. En particulier, les modèles de frontières sont extrêmement sensibles aux valeurs aberrantes et peuvent fortement influencer l’inférence qui s’en suit. Pour éviter que certaines données n’entravent une analyse correcte, des méthodes robustes sont utilisées.<p><p>Allier le côté robuste au problème d’évaluation d’efficacité est l’objectif général de cette thèse. Le premier chapitre plante le décor en présentant la littérature existante dans ce domaine. Les quatre chapitres suivants sont organisés sous forme d’articles scientifiques. <p>Le chapitre 2 étudie les propriétés de robustesse d’un estimateur d’efficacité particulier. Cet estimateur mesure la distance entre le DMU analysé et la frontière de production le long d’un chemin hyperbolique passant par l’unité. Ce type de distance très spécifique s’avère très utile pour définir l’efficacité de type directionnel. <p>Le chapitre 3 est l’extension du premier article au cas de l’efficacité directionnelle. Ce type de distance généralise toutes les distances de type linéaires pour évaluer l’efficacité d’un DMU. En plus d’étudier les propriétés de robustesse de l’estimateur d’efficacité de type directionnel, une méthode de détection de valeurs aberrantes est présentée. Celle-ci s’avère très utile afin d’identifier les unités de production influençantes dans cet espace multidimensionnel (dimension p+q). <p>Le chapitre 4 présente les méthodes d’inférence pour les efficacités dans les modèles nonparamétriques de frontière. En particulier, les méthodes de rééchantillonnage comme le bootstrap ou le subsampling s’avère être très utiles. Dans un premier temps, cet article montre comment améliorer l’inférence sur les efficacités grâce au subsampling et prouve qu’il n’est pas suffisant d’utiliser un estimateur d’efficacité robuste dans les méthodes de rééchantillonnage pour avoir une inférence qui soit fiable. C’est pourquoi, dans un second temps, cet article propose une méthode robuste de rééchantillonnage qui est adaptée au problème d’évaluation d’efficacité. <p>Finalement, le dernier chapitre est une application empirique. Plus précisément, cette analyse s’intéresse à l ‘efficacité des universités américaines publiques et privées au niveau de leur recherche. Des méthodes classiques et robustes sont utilisées afin de montrer comment tous les outils étudiés précédemment peuvent s’appliquer en pratique. En particulier, cette étude permet d’étudier l’impact sur l’efficacité des institutions américaines de certaines variables telles que l’enseignement, l’internationalisation ou la collaboration avec le monde de l’industrie.<p> / Doctorat en sciences, Orientation statistique / info:eu-repo/semantics/nonPublished
332

Utilisation de copules paramétriques en présence de données observationnelles : cadre théorique et modélisations. / Use of parametric copulas with observational data : theoretical framework and modelizations.

Fontaine, Charles 19 September 2016 (has links)
Les études observationnelles (non-randomisées) sont principalement constituées de données ayant des particularités qui sont en fait contraignantes dans un cadre statistique classique. En effet, dans ce type d'études, les données sont rarement continues, complètes et indépendantes du bras thérapeutique dans lequel les observations se situent. Cette thèse aborde l'utilisation d'un outil statistique paramétrique fondé sur la dépendance entre les données à travers plusieurs scénarios liés aux études observationnelles. En effet, grâce au théorème de Sklar (1959), les copules paramétriques sont devenues un sujet d'actualité en biostatistique. Pour commencer, nous présentons les concepts de base relatifs aux copules et aux principales mesures d'association basées sur la concordance retrouvées dans la littérature. Ensuite, nous donnons trois exemples d'application des modèles de copules paramétriques pour autant de cas de données particulières retrouvées dans des études observationnelles. Nous proposons d’abord une stratégie de modélisation de l'analyse coût-efficacité basée uniquement sur une réécriture des fonctions de distribution jointes et évitant les modèles de régression linéaire. Nous étudions ensuite, les contraintes relatives aux données discrètes, particulièrement dans un contexte de non-unicité de la fonction copule, nous réécrivons le score de propension grâce à une approche novatrice basée sur l'extension d'une sous-copule. Enfin, nous évoquons un type particulier de données manquantes : les données censurées à droite, dans un contexte de régression, grâce à l'utilisation de copules semi-paramétriques. / Observational studies (non-randomized) consist primarily of data with features that are in fact constraining within a classical statistical framework. Indeed, in this type of study, data are rarely continuous, complete, and independent of the therapeutic arm the observations are belonging to. This thesis deals with the use of a parametric statistical tool based on the dependence between the data, using several scenarios related to observational studies. Indeed, thanks to the theorem of Sklar (1959), parametric copulas have become a topic of interest in biostatistics. To begin with, we present the basic concepts of copulas, as well as the main measures of association based on the concordance founded on an analysis of the literature. Then, we give three examples of application of models of parametric copulas for as many cases of specific data found in observational studies. We first propose a strategy of modeling cost-effectiveness analysis based essentially on rewriting the joint distribution functions, while discarding the use of linear regression models. We then study the constraints relative to discrete data, particularly in a context of non-unicity of the copula function. We rewrite the propensity score, thanks to an innovative approach based on the extension of a sub-copula. Finally, we introduce a particular type of missing data: right censored data, in a regression context, through the use of semi-parametric copulas.
333

Etude et implémentation des critères de seconde génération dans un code de stabilité / Analysis and implementation of second generation criteria in a stability computer code

Grinnaert, François 19 January 2017 (has links)
Les critères de stabilité à l’état intact de seconde génération sont en cours de finalisation par l’Organisation Maritime Internationale. Ils doivent compléter les critères actuels en apportant une sécurité accrue dans les vagues. Ils sont organisés en cinq modes de défaillance et trois niveaux d’évaluation dans chaque mode de défaillance. Le premier niveau est basé sur une approche déterministe simplifiée des phénomènes et assure des marges de sécurité importantes. Le second niveau requiert des calculs plus complexes basés sur des considérations hydrostatiques dans les vagues. Il est supposé assurer des marges de sécurité réduites. Le troisième niveau, actuellement en cours de développement, devrait consister en des simulations numériques du comportement du navire sur des états de mer réels réalisés par des instituts spécialisés. Les deux premiers niveaux des modes de défaillance perte pure de stabilité et roulis paramétrique ont été implémentés dans un code de stabilité. Les courbes de KGmax associées à ces critères sont calculées pour une sélection de navires civils et militaires de différents types ayant des comportements connus ou supposés différents vis-à-vis de ces modes de défaillance. Les exigences et la pertinence des critères sont analysées. La seconde vérification du critère de niveau deux en roulis paramétrique est étudiée en détail. Une méthode simplifiée de calcul de l’angle maximum de roulis paramétrique supposant un GZ linéaire est proposée et implémentée dans le critère correspondant. / The second generation intact stability criteria are currently under finalization by the International Maritime Organization. They are intended to improve the current intact stability rules by adding safety in waves. They are structured in five failure modes and three levels of assessment in each failure mode. The first level is based on a simplified deterministic approach of the phenomena and ensures high safety margins. The second level requires more complex computations based on hydrostatic considerations with regard to static waves and is expected to provide reduced safety margins. The third level, currently under development, would consist of numerical simulations of the ship’s behavior in real sea states performed by specialized institutes. Level-one and level-two criteria of both pure loss of stability and parametric roll failure modes have been implemented in a stability code. The KGmax curves associated with these future criteria are computed for a selection of different ships of different types, both civilian and military, expected or known to have different behaviors with regard to the considered failure modes. The requirement and the relevance of the criteria are analyzed. The second check of parametric roll level-two criterion is thoroughly analyzed. A simplified method providing the maximum parametric roll angle assuming a linear GZ is developed and implemented in the corresponding criterion.
334

Modeling and control of MEMS tweezers for the characteriza- tions of enzymatic reactions on DNA molecules / Caractérisation et commande de micropince en silicium pour l’amélioration de la sensibilité paramétrique d’expériences biologiques sur des molécules d’ADN

Lafitte, Nicolas 04 April 2012 (has links)
L’objectif de ce travail de thèse est de démontrer pour la première fois la capture, la manipulationet la caractérisation de molécules biologiques grâce à une micropince réaliséeen technologie microsystème. La molécule d’ADN étant, dans un premier temps, la moléculecible, des fibres d’ADN sont capturées grâce à l’immersion de la micropince dansun petit volume inférieur à 1 μL de solution contenant les molécules. Elles sont ensuitecaractérisées mécaniquement et électriquement grâce aux fonctionnalités intégrées sur lamême puce en silicium.Le second volet de ce travail consiste à améliorer les performances du système pouratteindre la résolution d’une seule molécule. En effet dans le but d’étudier les phénomènesd’interactions au niveau moléculaire, il s’avère essentiel d’améliorer le système. Dans cebut précis, une commande par retour d’état de la micropince est étudiée. Elle permetalors de spécifiquement sensibiliser le système aux variations de raideur mécanique dusystème {micropince + molécules d’ADN}.[...] / The main objective of this Ph.D. work is to achieve biological experimentson DNA molecules with versatile silicon nanotweezers. Experiments on single moleculerely mostly on Optical Tweezers, Magnetic Tweezers or Atomic Force Spectroscopy, buthave a low throughput since preparations are done one at a time. To move towardssystematic biological or medical analysis, micro- and nano-systems (MNEMS) are theappropriate tools as they can integrate accurate molecular level engineering tools andcan be cheaply produced with highly parallel process.Design and fabrication of the silicon tweezers are made by ourselves in the lab of Pr.Hiroyuki Fujita (U. of Tokyo, Japan). DNA molecules are firstly trapped in solution bydielectrophoresis. Then biological reactions are characterized in real-time by monitoringthe mechanical resonance of the system {tweezers + DNA bundle}. The resolution of themeasurements allowed the sensing of about 30 of λ-DNA molecule stiffness (i.e. about20 mN/m). To achieve the single molecule resolution, we propose to implement a feedbackstrategy to alter the system.State feedback was developed to emulate a new system more sensitive to mechanicalstiffness parameter detection. As it remains problematic to design and fabricate newmicro mechanical device with extremely low stiffness (< 1 N/m), we propose to emulate acompliant system. By simulations it was demonstrated an enhancement of the sensitivityof about 10 when the resonant frequency of the closed-loop system is designed to be 10times lower than the tweezers resonant frequency (i.e. reducing the stiffness parameterof the system). Experimentally we demonstrated an improvement of the the sensitivityof superior to 2. However the issue is here to obtain stability, robustness with respectto disturbances and unmodeled dynamics. Before to attain the sensitivity of the singlemolecule, problematics about the model of the device or about the several dynamics ofthe device needs to be dealt in order to control and fit the improvement with the theory.
335

Contribution à la modélisation et à la commande assistive basée, intention d’un exosquelette du membre inférieur / Contribution to the modeling and the intention-based assistive control of a lower limb exoskeleton

Hassani, Walid 19 December 2014 (has links)
La robotique constitue une solution prometteuse pour développer des systèmes d'assistance visant à améliorer l'autonomie et les conditions de vie des personnes dépendantes. Ainsi, de nombreuses recherches sont menées actuellement à travers le monde pour concevoir et développer des robots portables ou exosquelettes, en tant que dispositifs d'aide à la mobilité pour augmenter les capacités motrices des sujets porteurs, ou comme auxiliaires de rééducation neuro-musculaire. Cette thèse vise le développement des modèles de connaissances nécessaires pour la mise en oeuvre de commandes assistives d'un exosquelette de l'articulation du genou, notamment celles basées sur l'intention du sujet porteur. Cet exosquelette est destiné à l'assistance des mouvements de flexion/extension du genou pour des personnes souffrant de pathologies du genou, ou pour le renforcement musculaire et la rééducation de sujets âgés ou hémiparétiques. Pour l'estimation de l'intention de mouvement du porteur, nous proposons modèle musculo-squelettique polynomial, complété par un modèle muscle-tendons de type Hill et le modèle bi-linéaire de Zajac pour modéliser la dynamique d'activation et de désactivation musculaire. Le modèle musculo-squelettique polynomial proposé offre le même niveau de réalisme et de précision qu'un modèle musculo-squelettique générique anatomique, sans nécessiter l'emploi de méthodes d'optimisation gourmandes en temps de calcul. Dans cette thèse, nous proposons un ensemble de trois commandes assistives destinées à guider ou à assister, via l'exosquelette, un sujet dans un contexte d'assistance à la rééducation en mode actif-aidé: La première, basée sur la passivité, exploite les propriétés physiques de l'exosquelette et du sujet porteur pour stabiliser asymptotiquement l'ensemble exosquelette-membre inférieur du porteur. Les paramètres du contrôleur sont ajustés automatiquement en fonction de la contribution du sujet au mouvement. A travers cette commande, l'exosquelette développe un couple correctif pour guider le genou vers la trajectoire de référence ou son voisinage. La seconde commande introduit une saturation pour maintenir le couple d'assistance dans un intervalle donné, garantissant ainsi la sécurité du sujet porteur. Cette commande garantit aussi des mouvements à des vitesses raisonnables et une convergence vers la trajectoire de référence. La deuxième loi de commande est complétée par une fonction permettant de moduler le couple d'assistance en fonction de la phase de rééducation. Enfin, la troisième commande proposée vise à maximiser la transparence de l'exosquelette pour éviter d'altérer les mouvements naturels du sujet porteur. Elle exploite la dynamique d'interaction induite par les mouvements relatifs du sujet porteur par rapport à l'exosquelette dus aux compliances intrinsèques de l'ensemble exosquelette-membre inférieur. Ces commandes ont été évaluées sur un sujet volontaire sain âgé de 29 ans, en considérant les modes d'assistance passif et actif-aidé. L'analyse des résultats expérimentaux montre de bonnes performances en termes de précision de poursuite de trajectoire, de robustesse vis-à-vis des incertitudes paramétriques et des perturbations externes. Ces résultats montrent également des propriétés importantes comme la sécurité du sujet porteur, le suivi précis de l'intention du porteur, l'assistance adaptative pour la rééducation active et la transparence de l'interaction exosquelette-porteur / Nowadays, robotics constitutes a promising solution to develop assistive systems to improve autonomy of dependent people during everyday activities. Thus, much research is being conducted currently worldwide to design and develop wearable robots or exoskeletons as assistive devices for mobility in order to improve the capabilities of the wearer. These devices can also be used during neuromuscular rehabilitation processes. This thesis aims to develop models necessary for the implementation of subject's intention wearer assistive control strategies using a knee joint exoskeleton. In order to estimate the movement intention of the wearer, we propose a Hill- Zajac based musculoskeletal model. This musculoskeletal model provides a high level of realism and accuracy compared to an anatomical generic musculoskeletal model without requiring the use of optimization methods techniques that are generally computational effort consuming. Three assistive control strategies are developed in this thesis to assist the wearer in a context of assistance and rehabilitation. In this thesis, we propose a set of three assistive commands to guide or assist through the exoskeleton, a subject in the context of rehabilitation assistance to active-assisted method: The first, based on passivity, operates the physical properties of the exoskeleton about the wearer and to stabilize the lower assembly asymptotically exoskeleton-member carrier. The first one is based on passivity and uses the physical properties of the exoskeleton and the wearer to stabilize asymptotically the human- lower-limb exoskeleton system. The second one introduces a saturation threshold to maintain the assistive torque in a given interval, ensuring the safety of the wearer. The third one aims to maximize the transparency of the exoskeleton to avoid altering the natural movements of the wearer. It uses the interaction dynamics induced by the relative movements between the wearer and the exoskeleton. These control strategies were evaluated on a 29-year-old healthy volunteer subject. The analysis of the experimental results shows satisfactory performances in terms of trajectory tracking accuracy, robustness with respect to parametric uncertainties and external disturbances. The results show also a good accuracy in the human intention detection and an adaptive support for active rehabilitation and transparent human-robot interaction
336

Vieillissement des batteries Li-ion de traction : des mécanismes vers le vieillissement accéléré / Study of the lithium ion batteries ageing : from mechanisms to accelerated ageing

Edouard, Clément 13 October 2015 (has links)
En raison de leurs performances en termes de densités énergétiques et de puissance, les batteries Li-ion sont les systèmes de stockage électrique privilégiés pour les nouvelles générations de véhicules électriques. Leur modélisation est indispensable pour fournir une évaluation de leurs performances tout au long de leur durée de vie tout en limitant le nombre d'essais expérimentaux, et ceci dans le but de concevoir des configurations et des gestions optimales des packs batteries pour une application envisagée. Le but de ce travail consiste à proposer un modèle physique capable de prédire le comportement et le vieillissement de la batterie sous différentes conditions. Un modèle simplifié électrochimique et thermique capable de prédire le comportement physicochimique et le vieillissement de batteries Li-ion a été étudié. Une analyse de sensibilité a été menée sur l'ensemble des paramètres du modèle dans différentes conditions afin de mettre en évidence leurs influences sur les sorties du modèle. Sur cette base, une méthode d'identification a été proposée pour préserver une indépendance des résultats de l'identification paramétrique par rapport à la sensibilité des paramètres. Cette méthode a permis d'améliorer les prédictions de vieillissement avec des estimations très proches des résultats expérimentaux. Au-delà des gains en compréhension et prédiction, ce modèle physique ouvre de nouvelles possibilités pour établir des protocoles de vieillissement accélérés. / Due to their high power and energy densities, Li-ion batteries are the leading systems for the new generations of electric vehicles, for which an optimum cell design, management and configuration is essential. Modeling provides tools to perform complex analysis of the performance of Li-ion batteries and reduces the amount of time spent on experimental testing. The aim of our research is to propose a physics-based model that can predict battery behavior and aging under various conditions during the entire lifespan. A simplified electrochemical and thermal model that can predict both physicochemical and aging behaviors of Li-ion batteries has been studied. A sensitivity analysis of all its physical parameters has been performed in order to find out their influence on the model outputs based on simulations under various conditions. The results gave hints on whether a parameter needs particular attention when measured or identified and on the conditions under which it is the most sensitive. A specific simulation profile has been designed for parameters involved in aging equations in order to determine their sensitivity. Finally, a step-wise method has been followed to limit the influence of parameter values when identifying sorne of them. This sensitivity analysis and the subsequent step-wise identification method show very good results, such as a better fitting of the experimental data with simulated cell voltage. Beyond advanced comprehension and prediction, this physical model opens new possibilities to define accelerated aging tests.
337

Développements méthodologiques en IRM pré-clinique chez le petit animal : apports de l’acquisition spirale pour l’imagerie paramétrique et fonctionnelle / Methodological developments in preclinical MRI in small animals : contributions of the spiral acquisition for parametric and functional imaging

Castets, Charles 25 November 2016 (has links)
L’IRM est de plus en plus utilisée pour diagnostiquer et évaluer un très grand nombre de pathologies. Cette technique présente cependant deux inconvénients majeurs. En effet, les examens restent encore très longs (notamment en imagerie 3D) et la quantification est très difficile par rapport à d’autres modalités comme la tomographie par émission de positons. L’objectif de ce travail de thèse a été de diminuer significativement les temps d’acquisition nécessaires pour l’imagerie volumique et de développer des techniques quantitatives robustes, permettant d’effectuer des suivis longitudinaux.Pour cela, des méthodes innovantes ont été développées à très haut champ magnétique (7T) et validées sur des modèles murins sains et pathologiques. Trois développements majeurs sont ressortis de cette thèse. Tout d’abord, une mesure rapide des temps de relaxation longitudinale (T1) a été développée.Cette méthode basée sur une approche Look-Locker a été couplée avec un échantillonnage en empilement de spirales et a permis d’obtenir au niveau cardiaque des cartes T1 en 3D sur des souris saines et des modèles d’infarctus du myocarde en moins de 15 minutes. Ensuite, une approche dite« spiral-in » a été couplée avec une méthode de multi-échos de spin afin d’accélérer la mesure des temps de relaxation transversale (T2). Cette méthode a permis d’obtenir des cartes T2 en 3D sur des cerveaux de souris saines et métastatiques en moins de 20 minutes. Enfin, une approche hybride couplant les avantages de l’acquisition spiralée et ceux de l’échantillonnage radial a été développée.Cette méthode a été couplée avec une technique de Golden-Angle pour échantillonner aléatoirement l’espace de Fourier et a permis pour la première fois de visualiser une angiographie 3D d’un foie de souris en respiration libre en moins de 12 minutes. Toutes les méthodes développées dans ce travail ont été validées au niveau de leur robustesse et démontrent que l’IRM peut être une technique à la fois rapide et quantitative. Ces développements pourront être transférés vers la clinique dans de futurs travaux. / MRI is more and more used to diagnose and assess a wide range of pathologies. However, this technique is still limited by two disadvantages. Indeed, the acquisition times are too long(especially in 3D) and the quantification is still difficult compared to other techniques like positron emission tomography. The aim of this PhD project was to significantly reduce acquisition times required for 3D imaging and to develop robust quantitative techniques allowing longitudinal studies.To these ends, innovative methods have been developed at very high magnetic field (7T) and validated on healthy and diseased mouse models. Three major developments arose from this work. Firstly, a fast measurement of the longitudinal relaxation time (T1) has been developed. This method based on a Look-Locker approach was coupled with a sampling using stack-of-spirals and allowed to get T1 mapsin 3D in healthy and myocardial infarction models in less than 15 minutes. Then, a "spiral-in" approach was coupled with a multi spin echoes acquisition to accelerate the measurement of the transverse relaxation time (T2). This method allowed to get T2 maps in 3D of healthy and metastatic mouse brains in less than 20 minutes. Finally, a hybrid approach combining the advantages of the spiral acquisition with those of the radial sampling has been developed. This method has been coupled with a Golden-Angle technique for randomly sampling the k-space and allowed for the first time to display a 3Dangiography of a mouse liver in free breathing in less than 12 minutes. All the protocols developed inthis PhD project were validated in terms of robustness and showed that MRI can be a technique both rapid and quantitative. These developments will be transferred to the clinic in future works.
338

Estimation par tests / Estimation via testing

Sart, Mathieu 25 November 2013 (has links)
Cette thèse porte sur l'estimation de fonctions à l'aide de tests dans trois cadres statistiques différents. Nous commençons par étudier le problème de l'estimation des intensités de processus de Poisson avec covariables. Nous démontrons un théorème général de sélection de modèles et en déduisons des bornes de risque non-asymptotiques sous des hypothèses variées sur la fonction à estimer. Nous estimons ensuite la densité de transition d'une chaîne de Markov homogène et proposons pour cela deux procédures. La première, basée sur la sélection d'estimateurs constants par morceaux, permet d'établir une inégalité de type oracle sous des hypothèses minimales sur la chaîne de Markov. Nous en déduisons des vitesses de convergence uniformes sur des boules d'espaces de Besov inhomogènes et montrons que l'estimateur est adaptatif par rapport à la régularité de la densité de transition. La performance de l'estimateur est aussi évalué en pratique grâce à des simulations numériques. La seconde procédure peut difficilement être implémenté en pratique mais permet d'obtenir un résultat général de sélection de modèles et d'en déduire des vitesses de convergence sous des hypothèses plus générales sur la densité de transition. Finalement, nous proposons un nouvel estimateur paramétrique d'une densité. Son risque est contrôlé sous des hypothèses pour lesquelles la méthode du maximum de vraisemblance peut ne pas fonctionner. Les simulations montrent que ces deux estimateurs sont très proches lorsque le modèle est vrai et suffisamment régulier. Il est cependant robuste, contrairement à l'estimateur du maximum de vraisemblance. / This thesis deals with the estimation of functions from tests in three statistical settings. We begin by studying the problem of estimating the intensities of Poisson processes with covariates. We prove a general model selection theorem from which we derive non-asymptotic risk bounds under various assumptions on the target function. We then propose two procedures to estimate the transition density of an homogeneous Markov chain. The first one selects an estimator among a collection of piecewise constant estimators. The selected estimator is shown to satisfy an oracle-type inequality under minimal assumptions on the Markov chain which allows us to deduce uniform rates of convergence over balls of inhomogeneous Besov spaces. Besides, the estimator is adaptive with respect to the smoothness of the transition density. We also evaluate the performance of the estimator in practice by carrying out numerical simulations. The second procedure is only of theoretical interest but yields a general model selection theorem from which we derive rates of convergence under more general assumptions on the transition density. Finally, we propose a new parametric estimator of a density. We upper-bound its risk under assumptions for which the maximum likelihood method may not work. The simulations show that these two estimators are very close when the model is true and regular enough. However, contrary to the maximum likelihood estimator, this estimator is robust.
339

Conception robuste en vibration et aéroélasticité des roues aubagées de turbomachines / Robust design in vibration and aeroelasticity of turbomachinery bladed disks

Mbaye, Moustapha 03 November 2009 (has links)
Les roues aubagées sont des composants dont le comportement dynamique est très sensible au désaccordage involontaire causé par les tolérances de fabrication qui rendent les aubes légèrement différentes les unes des autres. Cette sensibilité se traduit généralement par une amplification des vibrations. L’objectif de ce travail de recherche est de proposer de nouvelles méthodologies permettant d’optimiser la conception en vibration des roues aubagées vis à vis du désaccordage involontaire. L’optimisation est faite pour la réponse forcée et sous une contrainte de marge à la stabilité aéroélastique. Dans ce contexte, le désaccordage intentionnel par modification géométrique des aubes est utilisé. Pour réduire les temps de calcul, une nouvelle méthode de réduction de modèles de roues aubagées désaccordées intentionnellement par modification géométrique est développée et validée. La modélisation des incertitudes incluant le désaccordage involontaire, est faite avec une approche probabiliste non paramétrique. Une application à l’optimisation de la conception en vibration d’une roue réelle a finalement été effectuée en deux phases : (1) une optimisation de la répartition des différentes aubes désaccordées intentionnellement sur la roue aubagée et (2) une optimisation du niveau de modification géométrique de ces aubes. Les résultats montrent qu’une conception robuste par désaccordage intentionnel de la roue aubagée a été effectuée / Bladed disks are components which dynamic behaviour are very sensitive to mistuning induced by the manufacturing process which makes blades differ from one another. This sensitivity increases in general the vibrations. The objective of this research is to propose new methods for optimizing design in vibration of bladed disks with respect to mistuning. Optimization is done for the forced response while keeping a sufficient aeroelastic stability margin. In this context, detuning by modifying geometrically the blades’ shapes is used. To reduce numerical computational costs, a new reduction method for geometrically detuned bladed disks is developed and validate. Uncertainties modeling including mistuning is done with a non-parametric probabilistic approach. An application by optimizing the design in vibration of a realistic bladed disk is finally done in two steps : (1) An optimization of the different detuned blades arrangements around the disk and (2) an optimization of the geometric modification level of blades. The results show that a robust design of the bladed disks has been done using geometric detuning
340

Sur les épreuves et les types dans la logique du second ordre / On proofs and types in second order logic

Pistone, Paolo 27 March 2015 (has links)
Dans cette thèse on s'intéresse aux formes de "circularité" qui apparaissent dans la théorie de la preuve de la logique du second ordre et de son contrepartie constructive, le Système F.Ces "circularités", ou "cercles vicieux" (Poincaré 1900), sont analysées sur la base d'une distinction entre deux points de vue distincts et irréductible (à cause des théorèmes d'incomplétude): le premier ("le pourquoi", Girard 1989) concerne la cohérence et l'Hauptsatz et demande des méthodes infinitaires (i.e. non élémentaires) de preuve. Le deuxième ("le comment", Girard 1989) concerne le contenu computationnel et combinatoire des preuves, donné par la correspondance entre preuves et programmes, et ne demande que de méthodes élémentaires de preuve.Dans la première partie de la thèse, dévouée au "pourquoi", les arguments philosophiques traditionnels sur les "cercles vicieux" sont confrontés avec la perspective qui émerge de la démonstration de l' Hauptsatz pour la logique de second ordre (obtenue par Girard avec la technique des candidats de réductibilité).Dans la deuxième partie de la thèse, dévouée au "comment", deux approches combinatoires aux cercles vicieux sont proposés: la première se basant sur la théorie du polymorphisme paramétrique, la deuxième sur l'analyse géométrique du typage qui vient de la théorie de l'unification. / In this dissertation several issues concerning the proof-theory of second order logic and its constructive counterpart (System F, Girard 1971) are addressed. The leitmotiv of the investigations here presented is the apparent "circularity'' or "impredicativity'' of second order proofs. This circularity is reflected in System F by the possibility to type functions applied to themselves, in contrast with Russell's idea that typing should rather forbid such ``vicious circles'' (Poincare 1906). A fundamental methodological distinction between two irreducible (because of incompleteness) approaches in proof theory constitutes the background of this work: on the one hand, "why-proof theory'' ("le pourquoi'', Girard 1989) addresses coherence and the Hauptsatz and requires non-elementary ("infinitary'') techniques; on the other hand, "how-proof theory'' ("le comment'', Girard 1989) addresses the combinatorial and computational content of proofs, given by the correspondence between proofs and programs, and is developed on the basis of elementary ("finitary'') techniques. }In the first part of the thesis, dedicated to "why-proof theory'', the traditional philosophical arguments on "vicious circles'' are confronted with the perspective arising from the proof of the Hauptsatz for second order logic (first obtained in Girard 1971 with the technique of reducibility candidates).In the second part of the thesis, dedicated to "how-proof theory'', two combinatorial approaches to "vicious circles'' are presented, with some technical results: the first one based on the theory of parametric polymorphism, the second one on the geometrical analysis of typing coming from unification theory.

Page generated in 0.0511 seconds