• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 17
  • 3
  • Tagged with
  • 46
  • 29
  • 13
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Estimation multi-robuste efficace en présence de données influentes

Michal, Victoire 08 1900 (has links)
No description available.
32

Modèles d'appariement du greffon à son hôte, gestion de file d'attente et évaluation du bénéfice de survie en transplantation hépatique à partir de la base nationale de l'Agence de la Biomédecine. / Liver transplantation graft-to-recipient matching models, queue management and evaluation of the survival benefit : study based on the Agency of Biomedicine national database

Winter, Audrey 28 September 2017 (has links)
La transplantation hépatique (TH) est la seule intervention possible en cas de défaillance hépatique terminale. Une des limitations majeures à la TH est la pénurie d'organes. Pour pallier ce problème, les critères de sélection des donneurs ont été élargis avec l'utilisation de foie de donneurs dits à "critères étendus" (extended criteria donor (ECD)). Cependant, il n'existe pas de définition univoque de ces foies ECD. Un score donneur américain a donc été mis en place : le Donor Risk Index (DRI), pour qualifier ces greffons. Mais à qui doit-on donner ces greffons "limites"? En effet, une utilisation appropriée des greffons ECD pourrait réduire la pénurie d'organes. Le but de cette thèse est d'établir un nouveau système d'allocation des greffons qui permettrait à chaque greffon d'être transplanté au candidat dont la transplantation permettra le plus grand bénéfice de survie et d'évaluer l'appariement entre donneurs et receveurs en tenant compte des greffons ECD.La première étape a consisté à effectuer une validation externe du DRI ainsi que du score qui en découle : l'Eurotransplant-DRI. Toutefois la calibration et la discrimination n'étaient pas maintenus dans la base française. Un nouveau score pronostique donneur a donc été élaboré : le DRI-Optimatch, à l'aide d'un modèle de Cox donneur ajusté sur les covariables receveur. Le modèle a été validé par bootstrap avec correction de la performance par l'optimisme.La seconde étape consista à explorer l'appariement entre donneur et receveur afin d'attribuer les greffons ECD de manière optimale. Il a été tenu compte des critères donneurs et receveurs, tels qu'évalués par le DRI-Optimatch et par le MELD (Model for End-stage Liver Disease, score pronostique receveur), respectivement. La méthode de stratification séquentielle retenue s'inspire du principe de l'essai contrôlé randomisé. Nous avons alors estimé, à l'aide de rapport de risques, quel bénéfice de survie un patient donné (repéré à l'aide du MELD) pourrait avoir avec un greffon donné (repéré à l'aide du DRI-Optimatch) en le comparant avec le groupe de référence composé des patients (même MELD), éligibles à la greffe, restés sur liste dans l'attente d'un meilleur greffon (DRI-Optimatch plus petit).Dans une troisième étape, nous avons développé un système d'allocation basé sur le bénéfice de survie alliant deux grands principes dans l'allocation de greffons; l'urgence et l'utilité. Dans ce type de système, un greffon alloué est attribué au patient avec la plus grande différence entre la durée de vie post-transplantation prédite et la durée estimée sur la liste d'attente pour un donneur spécifique. Ce modèle est principalement basé sur deux modèles de Cox : un pré-greffe et un post-greffe. Dans ces deux modèles l'évènement d'intérêt étant le décès du patient, pour le modèle pré-greffe, la censure dépendante a été prise en compte. En effet, sur liste d'attente le décès est bien souvent censuré par un autre évènement : la transplantation. Une méthode dérivée de l'Inverse Probability of Censoring Weighting a été utilisée pour pondérer chaque observation. De plus, données longitudinales et données de survie ont aussi été utilisées. Un modèle "en partie conditionnel", permettant d'estimer l'effet de covariables dépendantes du temps en présence de censure dépendante, a été utilisé pour modéliser la survie pré-greffe.Après avoir développé un nouveau système d'allocation, la quatrième et dernière étape, nous a permis de l'évaluer à travers de simulation d'évènement discret ou DES : Discret Event Simulation. / Liver transplantation (LT) is the only life-saving procedure for liver failure. One of the major impediments to LT is the shortage of organs. To decrease organ shortage, donor selection criteria were expanded with the use of extended criteria donor (ECD). However, an unequivocal definition of these ECD livers was not available. To address this issue, an American Donor Risk Index (DRI) was developed to qualify those grafts. But to whom should those ECD grafts be given? Indeed, a proper use of ECD grafts could reduce organ shortage. The aim of this thesis is to establish a new graft allocation system which would allow each graft to be transplanted in the candidate whose LT will allow the greatest survival benefit; and to evaluate the matching between donors and recipients taking into account ECD grafts.The first step was the external validation of the DRI as well as the resultant Eurotransplant-DRI score. However, calibration and discrimination were not maintained on the French database. A new prognostic donor score: the DRI-Optimatch was then developed using a Cox donor model with adjustment on recipient covariates. The model was validated by bootstrapping with correction of the performance by the optimism.The second step was to explore the matching between donors and recipients in order to allocate ECD grafts optimally. Consideration should be given to the donor and recipient criteria, as assessed by the DRI-Optimatch and the Model for End-stage Liver Disease (MELD), respectively. The sequential stratification method retained is based on the randomized controlled trial principle. We then estimated, through hazard ratios, the survival benefit for different categories of MELD and DRI-Optimatch compared against the group of candidates remaining on the wait list (WL) and waiting for a transplant with a graft of better quality (lower DRI-Optimatch).In the third step, we have developed an allocation system based on survival benefit combining the two main principles in graft allocation; urgency and utility. In this system, a graft is allocated to the patient with the greatest difference between the predicted post-transplant life and the estimated waiting time for a specific donor. This model is mainly based on two Cox models: pre-LT and post-LT. In these two models the event of interest being the death of the patient, for the pre-graft model, the dependent censoring was taken into account. Indeed, on the WL, death is often censored by another event: transplantation. A method derived from Inverse Probability of Censoring Weighting was used to weight each observation. In addition, longitudinal data and survival data were also used. A partly conditional model, to estimate the effect of time-dependent covariates in the presence of dependent censoring, was therefore used for the pre-LT model.After developing a new allocation system, the fourth and final step was to evaluate it through Discrete Event Simulation (DES).
33

Estimation non-paramétrique du quantile conditionnel et apprentissage semi-paramétrique : applications en assurance et actuariat / Nonparametric estimation of conditional quantile and semi-parametric learning : applications on insurance and actuarial data

Knefati, Muhammad Anas 19 November 2015 (has links)
La thèse se compose de deux parties : une partie consacrée à l'estimation des quantiles conditionnels et une autre à l'apprentissage supervisé. La partie "Estimation des quantiles conditionnels" est organisée en 3 chapitres : Le chapitre 1 est consacré à une introduction sur la régression linéaire locale, présentant les méthodes les plus utilisées, pour estimer le paramètre de lissage. Le chapitre 2 traite des méthodes existantes d’estimation nonparamétriques du quantile conditionnel ; Ces méthodes sont comparées, au moyen d’expériences numériques sur des données simulées et des données réelles. Le chapitre 3 est consacré à un nouvel estimateur du quantile conditionnel et que nous proposons ; Cet estimateur repose sur l'utilisation d'un noyau asymétrique en x. Sous certaines hypothèses, notre estimateur s'avère plus performant que les estimateurs usuels.<br> La partie "Apprentissage supervisé" est, elle aussi, composée de 3 chapitres : Le chapitre 4 est une introduction à l’apprentissage statistique et les notions de base utilisées, dans cette partie. Le chapitre 5 est une revue des méthodes conventionnelles de classification supervisée. Le chapitre 6 est consacré au transfert d'un modèle d'apprentissage semi-paramétrique. La performance de cette méthode est montrée par des expériences numériques sur des données morphométriques et des données de credit-scoring. / The thesis consists of two parts: One part is about the estimation of conditional quantiles and the other is about supervised learning. The "conditional quantile estimate" part is organized into 3 chapters. Chapter 1 is devoted to an introduction to the local linear regression and then goes on to present the methods, the most used in the literature to estimate the smoothing parameter. Chapter 2 addresses the nonparametric estimation methods of conditional quantile and then gives numerical experiments on simulated data and real data. Chapter 3 is devoted to a new conditional quantile estimator, we propose. This estimator is based on the use of asymmetrical kernels w.r.t. x. We show, under some hypothesis, that this new estimator is more efficient than the other estimators already used.<br> The "supervised learning" part is, too, with 3 chapters: Chapter 4 provides an introduction to statistical learning, remembering the basic concepts used in this part. Chapter 5 discusses the conventional methods of supervised classification. Chapter 6 is devoted to propose a method of transferring a semiparametric model. The performance of this method is shown by numerical experiments on morphometric data and credit-scoring data.
34

The MAPK Slt2 regulates development and pathogenicity in Zymoseptoria tritici / Fonctions biologiques et pouvoir pathogène régulés par la MAPK Ztslt2 chez Zymoseptoria tritici

Marchegiani, Elisabetta 29 January 2015 (has links)
Zymoseptoria tritici est l'un des dix plus importants champignons pathogènes des plantes. Son impact économique sur la production de blé et ses caractéristiques biologiques (dimorphisme levure-hyphae, hémi-biotrophie, populations sexuées et diversifiées) fait de Z. tritici un organisme unique parmi les champignons pathogènes des plantes. Au cours des dix dernières années, il a suscité un intérêt croissant de la communauté scientifique conduisant au développement d'outils génomiques et génétiques. Ces efforts ont permis de mieux comprendre les mécanismes impliqués dans sa pathogénie et son évolution. Nous avons focalisé notre étude sur les trois «Mitogen-Activated Kinases» (MAPK) ZtFus3, ZtHog1 et ZtSlt2 de Z. tritici nécessaires au succès de l’infection. Nous avons réalisé une caractérisation phénotypique détaillée du mutant de délétion ZtSLT2 lors de l'infection du blé et du développement fongique in vitro. Nous avons montré que le mutant ΔZtslt2 est non pathogène pour les feuilles de blé, même lorsque la pénétration stomatique est court-circuitée par injection de spores dans la feuille, ce qui suggère que ce mutant présente un défaut dans la colonisation des tissus de la plante. Pendant la croissance in vitro, ZtSLT2 est nécessaire à la pigmentation, des colonies, l’émergence des hyphes aériens, la formation de biofilm et l’hydrophobicité de la colonie. Ces phénotypes sont des marqueurs d'un processus développemental qui se produit pendant le vieillissement de la colonie de Z. tritici (développement de colonies pigmentées et hydrophobes portant des hyphes aériens blancs). Ce processus développemental survient à des moments différents selon le milieu de culture et la température, le plus rapide étant sur milieu pauvre «Pomme de terre Glucose» (PD) à 25 °C (4 jours) et le plus lent sur milieu riche complet «Extrait de Levure, Peptone, Glucose» (YPD) à 18 °C (18 jours). Nous avons montré que les gènes codant pour des enzymes impliquées dans la biosynthèse de la mélanine, des α-1,3-glucanes et des hydrophobines sont surexprimées au cours de ce processus développemental dans la souche sauvage, en particulier après trois jours de culture sur PD à 25 °C par rapport aux autres conditions. Cette surexpression nécessite que la voie ZtSLT2 soit fonctionnelle. L’analyse transcriptomique (RNAseq) de ces conditions différentielles est en cours pour identifier le réseau de gènes nécessitant la protéine Slt2 pour leur expression. Ces gènes cibles de ZtSLT2 sont des facteurs de pathogénicité putatifs.Nous avons également développé un nouvel outil moléculaire pour Z. tritici. Nous avons montré que les promoteurs pMoNIA1 et pZtNIA1 des gènes codant les nitrates réductases de Magnaporthe oryzae et Z. tritici, respectivement, sont régulés par la source d’azote du milieu de la même façon chez Z. tritici. L’expression de gènes sous le contrôle de ces deux promoteurs est maximale en présence de nitrate comme seule source d'azote, mais réduite en présence de glutamate. Ces promoteurs peuvent donc être utilisés pour l'expression conditionnelle de gènes et le remplacement de promoteur chez Z. tritici. Ils seront utiles pour contrôler l'expression des allèles constitutivement actifs des MAP kinase kinases dans le but d’activer les voies des MAPK de manière conditionnelle. / Zymoseptoria tritici is one of the ten more important fungal plant pathogens. Its economic impact on wheat production and its biological characteristics (yeast-fungal dimorphism, hemi-biotrophy, sexual and highly diverse populations) make Z. tritici unique among fungal plant pathogens. It has therefore drawn attention of the scientific community during the last ten years, leading to the development of genomic and genetic tools. These efforts have improved our understanding of its pathogenicity and evolution. We have focused our study on the three Z. tritici Mitogen-Activated Protein Kinase (MAPK) signalling pathways (ZtFUS3, ZtHOG1, and ZtSLT2) which are required for pathogenicity. We provided novel insights in the role of ZtSlt2 MAPK signalling pathway using a detailed phenotypic characterization of SLT2 deletion mutant during wheat infection and in vitro development. We showed that SLT2 is non-pathogenic on wheat leaves, even when stomatal penetration is bypassed by spore injection, suggesting a defect in leaf colonisation. During in vitro growth, SLT2 is required for melanisation, aerial hyphae emergence, biofilm formation and colony hydrophobicity which are markers of a developmental switch occurring during Z. tritici colony aging (development of melanised and hydrophobic colonies supporting abundant white aerial hyphae). This developmental switch occurs at different times depending on media and temperatures, quickest being on poor plant-derived Potato Dextrose (PD) medium at 25°C (4 days) and slowest on rich complex Yeast Extract Peptone Dextrose (YPD) medium 18°C (18 days). We provided evidence that genes encoding enzymes involved in both melanin and α-1,3-glucan biosynthesis, and hydrophobins are up-regulated during this developmental switch in wild type, in particular at 3 days on PD at 25°C compared to other conditions. This up-regulation clearly requires a functional ZtSLT2 pathway. Transcriptomic analysis (RNAseq) of these differential conditions is ongoing to identify the network of genes requiring SLT2 for their expression. These SLT2 target genes are putative pathogenicity factors. We also provide a new molecular tool for Z. tritici. We showed that pMoNIA1 and pZtNIA1 promoters from nitrate reductases encoding genes of Magnaporthe oryzae, and Z. tritici, respectively, are nitrogen-responsive in Z. tritici to a similar extent. They are fully expressed in presence of nitrate as sole nitrogen source and down-regulated in presence of glutamate, showing they are suitable for conditional gene expression and promoter replacement in Z. tritici. These promoters will be useful to control the expression of constitutively active alleles of MAP Kinase kinases in order to activate MAPK pathways in a conditional manner.
35

Recherche sur la subvention : contribution à l'étude du don en droit public / Research on grant : contribution to the study of gift in public law

Blanchon, Clothilde 08 December 2017 (has links)
Parfois occultée, longtemps étouffée, l’interrogation sur l’identité juridique de la subvention s’avère indispensable dans un contexte de confusion de celle-ci avec la notion de commande publique. Pour l’isoler de ce « genre » voisin et lui fournir une identité propre, un seul trait distinctif paraît opératoire : sa qualité de don public ou, pour emprunter un vocabulaire plus civiliste, son titre gratuit. La recherche des deux éléments utilisés en droit privé pour identifier un tel acte s’avère concluante, et plus encore, révèle la spécificité de cet objet en droit public. L’intention libérale s’articule de manière originale avec l’intérêt général, et dresse la subvention en véritable donation avec charges de droit public. Le don public, avec son lot de spécificités, vient ensuite façonner les règles applicables à la subvention, pour lui offrir un véritable régime juridique, cohérent et compréhensible. L’octroi de la subvention s’avère régulé par l’intérêt général, et la mise en œuvre de cet acte, gouvernée par sa nature conditionnelle. La subvention est un don public, et se trouve régie comme telle. C’est à la faveur d’une rencontre de la valeur heuristique du don qu’elle a pu être saisie / The issue of the legal definition of grant has long been blotted out and constrained. Nowadays, in a context of confusion between this notion with the closely related notion of public procurement, it is more than necessary to tackle it. A single distinctive feature seems efficient to isolate itself from this nearby type: its very nature of public gift or, to employ the French “civil law” terminology, its quality of “gratuitous act”. The research for the two elements used in French private law to identify such an act proves to be conclusive. Furthermore, it reveals the specificity of this item in public law. Animus donandi can originally be combined with general interest, and this raises grant as a real gift with charges of public law. Public gift, as specific as it is, fashions the rules applied to grants. It provides this notion with a genuine legal status, which turns out to be consistent and intelligible. The funding mechanism is ruled by the concept of general interest, and its implementation is governed by its conditional quality. Grants proves to be a public gift, and it is ruled as such. This conclusion couldn’t have been reached without meeting with the heuristic value of the concept of public gift
36

Finite population inference for population with a large number of zero-valued observations

Nolet-Pigeon, Isabelle 08 1900 (has links)
Dans certaines enquêtes auprès des entreprises, il n'est pas rare de s'intéresser à estimer le total ou la moyenne d'une variable qui, par sa nature, prend souvent une valeur nulle. En présence d'une grande proportion de valeurs nulles, les estimateurs usuels peuvent s'avérer inefficaces. Dans ce mémoire, nous étudions les propriétés des estimateurs habituels pour des populations exhibant une grande proportion de zéros. Dans un contexte d'une approche fondée sur le modèle, nous présentons des prédicteurs robustes à la présence de valeurs influentes pour ce type de populations. Finalement, nous effectuons des études par simulation afin d'évaluer la performance de divers estimateurs/prédicteurs en termes de biais et d'efficacité. / In business surveys, we are often interested in estimating population means or totals of variables which, by nature, will often take a value of zero. In the presence of a large proportion of zero-valued observations, the customary estimators may be unstable. In this thesis, we study the properties of commonly used estimators for populations exhibiting a large proportion of zero-valued observations. In a model-based framework, we present some robust predictors in the presence of influential units. Finally, we perform simulation studies to evaluate the performance of several estimators in terms of bias and efficiency.
37

Prévision non paramétrique dans les modèles de censure via l'estimation du quantile conditionnel en dimension infinie / Nonparametric prediction in censorship models via the estimation of the conditional quantile in infinite dimension

Horrigue, Walid 12 December 2012 (has links)
Dans cette thèse, nous étudions les propriétés asymptotiques de paramètres fonctionnels conditionnels en statistique non paramétrique, quand la variable explicative prend ses valeurs dans un espace de dimension infinie. Dans ce cadre non paramétrique, on considère les estimateurs des paramètres fonctionnels usuels, tels la loi conditionnelle, la densité de probabilité conditionnelle, ainsi que le quantile conditionnel. Le premier travail consiste à proposer un estimateur du quantile conditionnel et de prouver sa convergence uniforme sur un sous-ensemble compact. Afin de suivre la convention dans les études biomédicales, nous considérons une suite de v.a {Ti, i ≥ 1} identiquement distribuées, de densité f, censurée à droite par une suite aléatoire {Ci, i ≥ 1} supposée aussi indépendante, identiquement distribuée et indépendante de {Ti, i ≥ 1}. Notre étude porte sur des données fortement mélangeantes et X la covariable prend des valeurs dans un espace à dimension infinie.Le second travail consiste à établir la normalité asymptotique de l’estimateur à noyau du quantile conditionnel convenablement normalisé, pour des données fortement mélangeantes, et repose sur la probabilité de petites boules. Plusieurs applications à des cas particuliers ont été traitées. Enfin, nos résultats sont appliqués à des données simulées et montrent la qualité de notre estimateur. / In this thesis, we study some asymptotic properties of conditional functional parameters in nonparametric statistics setting, when the explanatory variable takes its values in infinite dimension space. In this nonparametric setting, we consider the estimators of the usual functional parameters, as the conditional law, the conditional probability density, the conditional quantile. We are essentially interested in the problem of forecasting in the nonparametric conditional models, when the data are functional random variables. Firstly, we propose an estimator of the conditional quantile and we establish its uniform strong convergence with rates over a compact subset. To follow the convention in biomedical studies, we consider an identically distributed sequence {Ti, i ≥ 1}, here density f, right censored by a random {Ci, i ≥ 1} also assumed independent identically distributed and independent of {Ti, i ≥ 1}. Our study focuses on dependent data and the covariate X takes values in an infinite space dimension. In a second step we establish the asymptotic normality of the kernel estimator of the conditional quantile, under α-mixing assumption and on the concentration properties on small balls of the probability measure of the functional regressors. Many applications in some particular cases have been also given.
38

Acceleration and new analysis of convex optimization algorithms

Liu, Lewis 07 1900 (has links)
Ces dernières années ont vu une résurgence de l’algorithme de Frank-Wolfe (FW) (également connu sous le nom de méthodes de gradient conditionnel) dans l’optimisation clairsemée et les problèmes d’apprentissage automatique à grande échelle avec des objectifs convexes lisses. Par rapport aux méthodes de gradient projeté ou proximal, une telle méthode sans projection permet d’économiser le coût de calcul des projections orthogonales sur l’ensemble de contraintes. Parallèlement, FW propose également des solutions à structure clairsemée. Malgré ces propriétés prometteuses, FW ne bénéficie pas des taux de convergence optimaux obtenus par les méthodes accélérées basées sur la projection. Nous menons une enquête dé- taillée sur les essais récents pour accélérer FW dans différents contextes et soulignons où se situe la difficulté lorsque l’on vise des taux linéaires globaux en théorie. En outre, nous fournissons une direction prometteuse pour accélérer FW sur des ensembles fortement convexes en utilisant des techniques d’intervalle de dualité et une nouvelle notion de régularité. D’autre part, l’algorithme FW est une covariante affine et bénéficie de taux de convergence accélérés lorsque l’ensemble de contraintes est fortement convexe. Cependant, ces résultats reposent sur des hypothèses dépendantes de la norme, entraînant généralement des bornes invariantes non affines, en contradiction avec la propriété de covariante affine de FW. Dans ce travail, nous introduisons de nouvelles hypothèses structurelles sur le problème (comme la régularité directionnelle) et dérivons une analyse affine invariante et indépendante de la norme de Frank-Wolfe. Sur la base de notre analyse, nous proposons une recherche par ligne affine invariante. Fait intéressant, nous montrons que les recherches en ligne classiques utilisant la régularité de la fonction objectif convergent étonnamment vers une taille de pas invariante affine, malgré l’utilisation de normes dépendantes de l’affine dans le calcul des tailles de pas. Cela indique que nous n’avons pas nécessairement besoin de connaître à l’avance la structure des ensembles pour profiter du taux accéléré affine-invariant. Dans un autre axe de recherche, nous étudions les algorithmes au-delà des méthodes du premier ordre. Les techniques Quasi-Newton approchent le pas de Newton en estimant le Hessien en utilisant les équations dites sécantes. Certaines de ces méthodes calculent le Hessien en utilisant plusieurs équations sécantes mais produisent des mises à jour non symétriques. D’autres schémas quasi-Newton, tels que BFGS, imposent la symétrie mais ne peuvent pas satisfaire plus d’une équation sécante. Nous proposons un nouveau type de mise à jour symétrique quasi-Newton utilisant plusieurs équations sécantes au sens des moindres carrés. Notre approche généralise et unifie la conception de mises à jour quasi-Newton et satisfait des garanties de robustesse prouvables. / Recent years have witnessed a resurgence of the Frank-Wolfe (FW) algorithm, also known as conditional gradient methods, in sparse optimization and large-scale machine learning problems with smooth convex objectives. Compared to projected or proximal gradient methods, such projection-free method saves the computational cost of orthogonal projections onto the constraint set. Meanwhile, FW also gives solutions with sparse structure. Despite of these promising properties, FW does not enjoy the optimal convergence rates achieved by projection-based accelerated methods. On the other hand, FW algorithm is affine-covariant, and enjoys accelerated convergence rates when the constraint set is strongly convex. However, these results rely on norm-dependent assumptions, usually incurring non-affine invariant bounds, in contradiction with FW’s affine-covariant property. In this work, we introduce new structural assumptions on the problem (such as the directional smoothness) and derive an affine in- variant, norm-independent analysis of Frank-Wolfe. Based on our analysis, we pro- pose an affine invariant backtracking line-search. Interestingly, we show that typical back-tracking line-search techniques using smoothness of the objective function surprisingly converge to an affine invariant stepsize, despite using affine-dependent norms in the computation of stepsizes. This indicates that we do not necessarily need to know the structure of sets in advance to enjoy the affine-invariant accelerated rate. Additionally, we provide a promising direction to accelerate FW over strongly convex sets using duality gap techniques and a new version of smoothness. In another line of research, we study algorithms beyond first-order methods. Quasi-Newton techniques approximate the Newton step by estimating the Hessian using the so-called secant equations. Some of these methods compute the Hessian using several secant equations but produce non-symmetric updates. Other quasi- Newton schemes, such as BFGS, enforce symmetry but cannot satisfy more than one secant equation. We propose a new type of quasi-Newton symmetric update using several secant equations in a least-squares sense. Our approach generalizes and unifies the design of quasi-Newton updates and satisfies provable robustness guarantees.
39

Distributed conditional computation

Léonard, Nicholas 08 1900 (has links)
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts. / The objective of this paper is to present different applications of the distributed conditional computation research program. It is hoped that these applications and the theory presented here will lead to a general solution of the problem of artificial intelligence, especially with regard to the need for efficiency. The vision of distributed conditional computation is to accelerate the evaluation and training of deep models which is very different from the usual objective of improving its generalization and optimization capacity. The work presented here has close ties with mixture of experts models. In Chapter 2, we present a new deep learning algorithm that uses a form of reinforcement learning on a novel neural network decision tree model. We demonstrate the need for a balancing constraint to keep the distribution of examples to experts uniform and to prevent monopolies. To make the calculation efficient, the training and evaluation are constrained to be sparse by using a gater that samples experts from a multinomial distribution given examples. In Chapter 3 we present a new deep model consisting of a sparse representation divided into segments of experts. A neural network language model is constructed from blocks of sparse transformations between these expert segments. The block-sparse operation is implemented for use on graphics cards. Its speed is compared with two dense operations of the same caliber to demonstrate and measure the actual efficiency gain that can be obtained. A deep model using these block-sparse operations controlled by a distinct gater is trained on a dataset of one billion words. A new algorithm for data partitioning (clustering) is applied to a set of words to organize the output layer of a language model into a conditional hierarchy, thereby making it much more efficient. The work presented in this thesis is central to the vision of distributed conditional computation as issued by Yoshua Bengio. It attempts to apply research in the area of mixture of experts to deep models to improve their speed and their optimization capacity. We believe that the theory and experiments of this thesis are an important step on the path to distributed conditional computation because it provides a good framework for the problem, especially concerning competitiveness inherent to systems of experts.
40

Inférence robuste à la présence des valeurs aberrantes dans les enquêtes

Dongmo Jiongo, Valéry 12 1900 (has links)
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse. / This thesis focuses on the treatment of representative outliers in two important aspects of surveys: small area estimation and imputation for item non-response. Concerning small area estimation, robust estimators in unit-level models have been studied. Sinha & Rao (2009) proposed estimation procedures designed for small area means, based on robustified maximum likelihood parameters estimates of linear mixed model and robust empirical best linear unbiased predictors of the random effect of the underlying model. Their robust methods for estimating area means are of the plug-in type, and in view of the results of Chambers (1986), the resulting robust estimators may be biased in some situations. Biascorrected estimators have been proposed by Chambers et al. (2014). In addition, these robust small area estimators were associated with the estimation of the Mean Square Error (MSE). Sinha & Rao (2009) proposed a parametric bootstrap procedure based on the robust estimates of the parameters of the underlying linear mixed model to estimate the MSE. Analytical procedures for the estimation of the MSE have been proposed in Chambers et al. (2014). However, their theoretical validity has not been formally established and their empirical performances are not fully satisfactorily. Here, we investigate two new approaches for the robust version the best empirical unbiased estimator: the first one relies on the work of Chambers (1986), while the second proposal uses the concept of conditional bias as an influence measure to assess the impact of units in the population. These two classes of robust small area estimators also include a correction term for the bias. However, they are both fully bias-corrected, in the sense that the correction term takes into account the potential impact of the other domains on the small area of interest unlike the one of Chambers et al. (2014) which focuses only on the domain of interest. Under certain conditions, non-negligible bias is expected for the Sinha-Rao method, while the proposed methods exhibit significant bias reduction, controlled by appropriate choices of the influence function and tuning constants. Monte Carlo simulations are conducted, and comparisons are made between: the new robust estimators, the Sinha-Rao estimator, and the bias-corrected estimator. Empirical results suggest that the Sinha-Rao method and the bias-adjusted estimator of Chambers et al (2014) may exhibit a large bias, while the new procedures offer often better performances in terms of bias and mean squared error. In addition, we propose a new bootstrap procedure for MSE estimation of robust small area predictors. Unlike existing approaches, we formally prove the asymptotic validity of the proposed bootstrap method. Moreover, the proposed method is semi-parametric, i.e., it does not rely on specific distributional assumptions about the errors and random effects of the unit-level model underlying the small-area estimation, thus it is particularly attractive and more widely applicable. We assess the finite sample performance of our bootstrap estimator through Monte Carlo simulations. The results show that our procedure performs satisfactorily well and outperforms existing ones. Application of the proposed method is illustrated by analyzing a well-known outlier-contaminated small county crops area data from North-Central Iowa farms and Landsat satellite images. Concerning imputation in the presence of item non-response, some single imputation methods have been studied. The deterministic regression imputation, which includes the ratio imputation and mean imputation are often used in surveys. These imputation methods may lead to biased imputed estimators if the imputation model or the non-response model is not properly specified. Recently, doubly robust imputed estimators have been developed. However, in the presence of outliers, the doubly robust imputed estimators can be very unstable. Using the concept of conditional bias as a measure of influence (Beaumont, Haziza and Ruiz-Gazen, 2013), we propose an outlier robust version of the doubly robust imputed estimator. Thus this estimator is denoted as a triple robust imputed estimator. The results of simulation studies show that the proposed estimator performs satisfactorily well for an appropriate choice of the tuning constant.

Page generated in 0.0618 seconds