• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 14
  • 11
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Stratégies de modélisation et protection vis à vis des décharges électrostatiques (ESD) adaptées aux exigences de la norme du composant chargé (CDM) / Simulation, realisation and characterization of ESD protection structures adapted to the CDM dischange

Gao, Yuan 13 February 2009 (has links)
Dans l’industrie semiconducteur, une décharge électrostatique peut se produire tout au long de la vie d’une puce électronique, et constitue un vrai problème pour la fiabilité du circuit intégré et une cause majeure de défaillance. Un nouveau modèle, modèle du composant chargé (CDM, Charged Device Model) a été récemment développé pour simuler un composant chargé qui se décharge au travers d'une de ses broches vers la masse. La forme d’onde d’une telle décharge se présente comme une impulsion de courant de grande amplitude (15A pour un CDM de 1KV sur une capacité de charge de 10pF) d’une durée de seulement quelques nanosecondes. En effet, il est de plus en plus courant de constater des signatures de défaillance ESD au coeur des circuits intégrés, généralement des claquages d’oxyde qui sont typiquement induites par les décharges CDM. Une protection ESD ayant une dynamique de déclenchement inappropriée ou la circulation d'un fort courant de décharge (dans le substrat ou sur les pistes métalliques) peut induire localement des variations de potentiel suffisantes pour endommager les oxydes (3-5nm d’épaisseur pour la technologie CMOS 45nm). Face aux défis de la décharge CDM, dans cette thèse, nous nous sommes intéressée d’abord à la détection et la compréhension des défauts latents induits par les stress CDM dans les circuits intégrés, en utilisant une technique de haute sensibilité, « la mesure de bruit en basse fréquence ». Un convertisseur DC-DC a été stressé par le test CDM, après chaque étape de traitement (stockage, recuit, et vieillissement), et l’évolution des défauts latents générés a été étudiée. Ensuite, nous avons proposé une méthodologie de modélisation du circuit intégré complet afin de simuler la stratégie de protection vis-à-vis des stress CDM en limitant les problèmes de convergence de simulation. Son originalité réside dans la modélisation de la résistance du substrat en très forte injection adaptée à la décharge CDM à l’aide de la mesure VF-TLP (Very Fast Transmission Line Pulsing) et de la simulation physique 2D et 3D. La méthodologie a été validée sur une technologie CMOS avancée 45nm et une technologie BiCMOS 0,25mm). A la fin, la méthodologie de simulation CDM a été validée sur un produit commercial. / In the semiconductor industry, electrostatic discharge (ESD) can occur throughout over the whole life of a chip. This is a real problem for the reliability of the integrated circuit (IC) and a major failure cause. A new ESD model, Charged Device Model (CDM) was recently developed to simulate a charged device which discharges through one of its pin to ground. The waveform of such a discharge is a current pulse of high amplitude (15A for a 1KV CDM stress on a precharged capacitor of 10pF) over a few nanoseconds duration. Indeed, it is increasingly common to encounter ESD failure signatures into the IC core, usually gate oxide breakdowns that are typically induced by CDM stress. ESD protections with inappropriate triggering speed or strong discharge currents (into the substrate or the metal tracks) can locally lead to potential drop sufficient to damage the oxide (3-5nm thickness in 45nm CMOS technology).Given the challenges of the CDM discharges, this thesis was firstly focused on the detection and understanding of latent defects caused by CDM stress in integrated circuits, using a high- ensitivity technique, namely low frequency noise measurement (LFN). A DCDC converter has been stressed by the CDM test. After each step of processing (storage, burn-in, and aging), the evolution of latent defects generated was investigated. Secondly, a methodology for modeling the complete integrated circuit has been proposed to simulate the CDM protection strategy by limiting the simulation convergence problems. Its main originality consists in the modeling of the substrate resistance under very high injection adapted to the CDM discharge using both VF-TLP (Very Fast Transmission Line Pulsing) measurement and 2D/3D physical simulation. The model was successfully validated on 45nm CMOS and 0.25 µm BiCMOS technologies. Finally, the CDM simulation methodology was validated on a commercial product.
2

Stress électrique post irradiation des transistors MOS de puissance pour les systèmes embarqués spatiaux / Post-irradiation Gate Stress

Privat, Aymeric 12 December 2014 (has links)
L'oxyde de grille des composants peut subir un claquage suite au passage d'un ion lourd unique au travers d'un événement appelé « Single Event Gate Rupture » (SEGR). Dans certains cas, aucune dégradation apparente n'est observée après irradiation bien qu'une interaction ait eue lieu au sein de la couche d'oxyde. Nous parlons alors de la création de défauts latents au sein de la couche isolante. L'objet de cette thèse consiste à évaluer l'impact de ce type de défaut sur la dé-fiabilisation des systèmes de conversion d'énergie embarqués à bord des satellites. En Europe, les principaux maîtres d'œuvre dans la fabrication des satellites se trouvent aujourd'hui face au problème que pose la prise en compte de ces défauts latents. En effet, pour garantir la fiabilité du système de conversion d'énergie, les transistors MOS de puissance doivent suivre une procédure de qualification radiation basée sur la méthode de test militaire américaine MIL-STD-750E/1080. Cette méthode est identique en tout point au standard européen mais recommande en plus, d'effectuer un stress électrique post radiation (Post Gate Stress Test, PGST) afin de révéler la présence d'éventuels défauts latents créés pendant l'irradiation. L'objet de ce travail est d'amener des résultats scientifiques permettant de statuer sur la pertinence du PGST. / At present, space actors are highly concerned with heavy ion-induced power MOSFETs hard failures and in particular by oxide rupture after heavy ion irradiations. In order to guarantee the reliability of space systems, contractors have to follow qualification procedures. The US military standard for heavy ion testing, MIL-STD-750E method 1080, recommends performing a post irradiation test (Post Gate Stress Test PGST) in order to reveal latent defects sites that might have been created during irradiation. Unfortunately, this type of test can only be considered as a pass or fail test. With a too much restrictive approach, rare are the devices to be qualified. Even if the US test method is accurate on most of the points, the main issue is related to the Post-irradiation Gate Stress. What is lacking is that this part of the US Test Standard has neither been dedicated to real space missions nor adapted to space environment. The PGST has even no physical basis justifying performing it for space applications. Working from fundamental to applicative, we aim at drawing test standards dedicated to the engineer in charge of space applications. The qualification of power MOSFETs for space applications is one of the major challenges for European space actors. The goal of this thesis is first to focus on latent defects formation criteria and then, to show under which conditions the post irradiation gate stress test might be relevant or not.
3

Classification croisée pour l'analyse de bases de données de grandes dimensions de pharmacovigilance / Coclustering for the analysis of pharmacovigilance massive datasets

Robert, Valérie 06 June 2017 (has links)
Cette thèse regroupe des contributions méthodologiques à l'analyse statistique des bases de données de pharmacovigilance. Les difficultés de modélisation de ces données résident dans le fait qu'elles produisent des matrices souvent creuses et de grandes dimensions. La première partie des travaux de cette thèse porte sur la classification croisée du tableau de contingence de pharmacovigilance à l’aide du modèle des blocs latents de Poisson normalisé. L'objectif de la classification est d'une part de fournir aux pharmacologues des zones intéressantes plus réduites à explorer de manière plus précise, et d'autre part de constituer une information a priori utilisable lors de l'analyse des données individuelles de pharmacovigilance. Dans ce cadre, nous détaillons une procédure d'estimation partiellement bayésienne des paramètres du modèle et des critères de sélection de modèles afin de choisir le modèle le plus adapté aux données étudiées. Les données étant de grandes dimensions, nous proposons également une procédure pour explorer de manière non exhaustive mais pertinente, l'espace des modèles en coclustering. Enfin, pour mesurer la performance des algorithmes, nous développons un indice de classification croisée calculable en pratique pour un nombre de classes élevé. Les développements de ces outils statistiques ne sont pas spécifiques à la pharmacovigilance et peuvent être utile à toute analyse en classification croisée. La seconde partie des travaux de cette thèse porte sur l'analyse statistique des données individuelles, plus nombreuses mais également plus riches en information. L'objectif est d'établir des classes d'individus selon leur profil médicamenteux et des sous-groupes d'effets et de médicaments possiblement en interaction, palliant ainsi le phénomène de coprescription et de masquage que peuvent présenter les méthodes existantes sur le tableau de contingence. De plus, l'interaction entre plusieurs effets indésirables y est prise en compte. Nous proposons alors le modèle des blocs latents multiple qui fournit une classification croisée simultanée des lignes et des colonnes de deux tableaux de données binaires en leur imposant le même classement en ligne. Nous discutons des hypothèses inhérentes à ce nouveau modèle et nous énonçons des conditions suffisantes de son identifiabilité. Ensuite, nous présentons une procédure d'estimation de ses paramètres et développons des critères de sélection de modèles associés. De plus, un modèle de simulation numérique des données individuelles de pharmacovigilance est proposé et permet de confronter les méthodes entre elles et d'étudier leurs limites. Enfin, la méthodologie proposée pour traiter les données individuelles de pharmacovigilance est explicitée et appliquée à un échantillon de la base française de pharmacovigilance entre 2002 et 2010. / This thesis gathers methodological contributions to the statistical analysis of large datasets in pharmacovigilance. The pharmacovigilance datasets produce sparse and large matrices and these two characteritics are the main statistical challenges for modelling them. The first part of the thesis is dedicated to the coclustering of the pharmacovigilance contingency table thanks to the normalized Poisson latent block model. The objective is on the one hand, to provide pharmacologists with some interesting and reduced areas to explore more precisely. On the other hand, this coclustering remains a useful background information for dealing with individual database. Within this framework, a parameter estimation procedure for this model is detailed and objective model selection criteria are developed to choose the best fit model. Datasets are so large that we propose a procedure to explore the model space in coclustering, in a non exhaustive way but a relevant one. Additionnally, to assess the performances of the methods, a convenient coclustering index is developed to compare partitions with high numbers of clusters. The developments of these statistical tools are not specific to pharmacovigilance and can be used for any coclustering issue. The second part of the thesis is devoted to the statistical analysis of the large individual data, which are more numerous but also provides even more valuable information. The aim is to produce individual clusters according their drug profiles and subgroups of drugs and adverse effects with possible links, which overcomes the coprescription and masking phenomenons, common contingency table issues in pharmacovigilance. Moreover, the interaction between several adverse effects is taken into account. For this purpose, we propose a new model, the multiple latent block model which enables to cocluster two binary tables by imposing the same row ranking. Assertions inherent to the model are discussed and sufficient identifiability conditions for the model are presented. Then a parameter estimation algorithm is studied and objective model selection criteria are developed. Moreover, a numeric simulation model of the individual data is proposed to compare existing methods and study its limits. Finally, the proposed methodology to deal with individual pharmacovigilance data is presented and applied to a sample of the French pharmacovigilance database between 2002 and 2010.
4

Estimation et sélection de modèle pour le modèle des blocs latents / Estimation and model selection for the latent block model

Brault, Vincent 30 September 2014 (has links)
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données. / Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering.
5

Impact des ions lourds sur la fiabilité des MOSFET de puissance embarqués en environnement spatial / Heavy ion effect on the oxide reliability of power MOSFET embedded in a space applications

Naceur, Mehdi 09 October 2012 (has links)
L'objectif de cette thèse s'oriente principalement sur l'étude du de puisclaquage post-radiatif des MOSFET sances irradiés aux ions lourds. Nous avons pu constater, pour la première fois, une réduction des paramètres de fiabilité et de durée de vie des MOSFET de puissance irradiés aux ions lourds grâce à un protocole de test combinant les connaissances sur les effets des rayonnements et des tests électriques accélérés. Les MOSFET ont été irradiés principalement en absence de polarisation, dans le but de discriminer tout effet dû aux polarisations. Grâce à des irradiations réalisées à différentes valeurs d'énergie, nous nous sommes intéressés aux effets de l'énergie des particules et des pertes d'énergie associées. Nous avons pu constater que la dégradation de la fiabilité des MOSFET ne peut pas être corrélée uniquement à l'énergie perdue par excitation électronique (LET), ou pour des ions avec la même valeur de LET obtenue pour deux énergies différentes, le pire cas a été observé à l'énergie la plus faible. Cette dégradation est même plus importante que celle obtenue à la valeur maximale de LET (au pic de Bragg). Appuyé par des résultats obtenus grâce à des irradiations aux neutrons, nous avons pu proposer une hypothèse qui est basée sur une corrélation entre l'effet des pertes d'énergie associées aux passages des ions et les mécanismes de claquage des diélectriques. / The goal of this thesis is oriented mainly on the study of Post Irradiation Gate Stress (PiGS) of power MOSFETs irradiated with heavy ions. We have seen, for the first time, a reduction of reliability parameters and lifetime of power MOSFETs irradiated with heavy ions using a test panel combining the knowledge of the effects of radiation and accelerated electrical test. MOSFETs were irradiated mainly with no polarization, in order to discriminate any effect attributed to the polarizations. Using irradiation performed at different energy values, we investigated the effects of the energy and energy lost by ionizing and non ionizing process. We have seen that the reliability degradation of MOSFETs can't be correlated only to the energy lost by electron excitation (LET), or ions with the same LET value obtained for two different energies, the worst case was observed at the lowest energy. This degradation is even greater than that obtained with the maximum value of LET (the Bragg peak). Supported by results obtained by neutrons irradiation, we could propose a hypothesis that is based on a correlation between the effect of energy lost associated with the passage of ions and mechanisms of dielectric breakdown.
6

Modélisation dynamique des sphères anatomique, cognitive et fonctionnelle dans la maladie d’Alzheimer : une approche par processus latents / Dynamic modeling of anatomic cognitive and functional spheres in Alzheimer’s disease : a latent process approach

Tadde, Oladédji bachirou 30 November 2018 (has links)
En santé publique, l’étude de la progression d’une maladie chronique et de son mécanisme peut nécessiter la modélisation conjointe de plusieurs marqueurs longitudinaux et leur structure de dépendances. Des approches de modélisation existent dans la littérature pour répondre partiellement aux objectifs de modélisation. Ces approches deviennent rapidement coûteuses et difficiles à utiliser dans certaines maladies complexes à caractère latent, dynamique et multidimensionnel, comme la maladie d’Alzheimer. Dans un tel contexte, l’objectif de cette thèse était de proposer une méthodologie innovante pour modéliser la dynamique de plusieurs processus latents et leurs influences temporelles à des fins d’interprétations causales à partir d’observations répétées de marqueurs continus Gaussiens et non Gaussiens. L’approche proposée, centrée sur des processus latents, définit un modèle structurel pour la trajectoire des processus latents et un modèle d’observation pour lier les marqueurs longitudinaux aux processus qu’ils mesurent. Dans le modèle structurel, défini en temps discret, le niveau initial et le taux de variation des processus spécifiques aux individus sont modélisés par des modèles linéaires à effets mixtes. Le modèle du taux de variation comporte une composante auto-régressive d’ordre 1 qui permet de modéliser l’effet d’un processus sur un autre processus en tenant explicitement compte du temps. Le modèle structurel, tel que défini, bénéficie des mêmes interprétations causales que les modèles à équations différentielles (ODE) de l’approche mécaniste de la causalité tout en évitant les problèmes numériques de ces derniers. Le modèle d’observation utilise des fonctions de lien paramétrées pour que le modèle puisse être appliqué à des marqueurs longitudinaux possiblement non Gaussiens. La méthodologie a été validée par des études de simulations. Cette approche, appliquée à la maladie d’Alzheimer a permis de décrire conjointement la dynamique de l’atrophie de l’hippocampe, du déclin de la mémoire épisodique, du déclin de la fluence verbale et de la perte d’autonomie ainsi que les influences temporelles entre ces dimensions dans plusieurs phases de la maladie à partir des données ADNI. / In public health, the study of the progression of a chronic disease and its mechanisms may require the joint modeling of several longitudinal markers and their dependence structure. Modeling approaches exist in the literature to partially address these modeling objectives. But these approaches become rapidly numerically expensive and difficult to use in some complex diseases involving latent, dynamic and multidimensional aspects, such as in Alzheimer’s disease. The aim of this thesis was to propose an innovative methodology for modeling the dynamics of several latent processes and their temporal influences for the purpose of causal interpretations, from repeated observations of continuous Gaussian and non Gaussian markers. The proposed latent process approach defines a structural model in discrete time for the latent processes trajectories and an observation model to relate longitudinal markers to the process they measure. In the structural model, the initial level and the rate of change of individual-specific processes are modeled by mixedeffect linear models. The rate of change model has a first order auto-regressive component that can model the effect of a process on another process by explicitly accounting for time. The structural model as defined benefits from the same causal interpretations as the models with differential equations (ODE) of the mechanistic approach of the causality while avoiding major numerical problems. The observation model uses parameterized link functions to handle possibly non-Gaussian continuous markers. The consistency of the ML estimators and the accuracy of the inference of the influence structures between the latent processes have been validated by simulation studies. This approach, applied to Alzheimer’s disease, allowed to jointly describe the dynamics of hippocampus atrophy, the decline of episodic memory, the decline of verbal fluency, and loss of autonomy as well as the temporal influences between these dimensions in several stages of Alzheimer’s dementia from the data of the ADNI initiative.
7

Novas distribuições em análise de sobrevivência envolvendo composição e correlação dentre as causas competitivas

Marchi, Vitor Alex Alves de 14 August 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-14T19:37:01Z No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:45Z (GMT) No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:49Z (GMT) No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Made available in DSpace on 2016-09-16T19:48:53Z (GMT). No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) Previous issue date: 2015-08-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis, we construct distribution functions for analysis of lifetimes with the focus in scenes of latent risks inspired in models of the carcinogenesis process. Some properties of these distribution functions are presented and discussed as well as the viability front the models in literature. In some cases the models were describes as long-time model where a part of population presents infinite lifetime, i.e, on the population in study some objects are not susceptible (or immunes) for the event of interest. Some models present complexity in the maximization and was necessary the implementation of routines of maximization that allows us the control some variables that are not offered in routines in tradicional programs. The implemented routine is available in appendix. / Nesta tese apresentamos novas distribuições para o estudo do tempo de vida com foco no cenário de riscos latentes com interpretações das construções dos modelos direcionados com os estudos da carcinogênese. Várias propriedades das distribuições são apresentadas e discutidas bem como a viabilidade destes novos modelos frente a vários modelos na literatura. Alguns dos modelos são estendidos para modelos de longa duração, que são modelos que permitem que os tempos de vida sejam infinitos ou em outras palavras que existem indivíduos não suscetíveis (ou curados) ao evento de interesse. Pela complexidade de vários modelos obtidos foi necessário a implementação de rotinas de maximização para o controle de variáveis que não são oferecidos nas rotinas de maximização em programas tradicionais e esta rotina está disponibilizada em anexo.
8

Modèles à facteurs latents pour les études d'association écologique en génétique des populations / Latent factor models for ecological association studies in population genetics

Frichot, Eric 26 September 2014 (has links)
Nous introduisons un ensemble de modèles à facteurs latents dédié à la génomique du paysage et aux tests d'associations écologiques. Cela comprend des méthodes statistiques pour corriger des effets d'autocorrélation spatiale sur les cartes de composantes principales en génétique des populations (spFA), des méthodes pour estimer rapidement et efficacement les coefficients de métissage individuel à partir de matrices de génotypes de grande taille et évaluer le nombre de populations ancestrales (sNMF) et des méthodes pour identifier les polymorphismes génétiques qui montrent de fortes corrélations avec des gradients environnementaux ou avec des variables utilisées comme des indicateurs pour des pressions écologiques (LFMM). Nous avons aussi développé un ensemble de logiciels libres associés à ces méthodes, basés sur des programmes optimisés en C qui peuvent passer à l'échelle avec la dimension de très grand jeu de données, afin d'effectuer des analyses de structures de population et des cribles génomiques pour l'adaptation locale. / We introduce a set of latent factor models dedicated to landscape genomics and ecological association tests. It includes statistical methods for correcting principal component maps for effects of spatial autocorrelation (spFA); methods for estimating ancestry coefficients from large genotypic matrices and evaluating the number of ancestral populations (sNMF); and methods for identifying genetic polymorphisms that exhibit high correlation with some environmental gradient or with the variables used as proxies for ecological pressures (LFMM). We also developed a set of open source softwares associated with the methods, based on optimized C programs that can scale with the dimension of very large data sets, to run analyses of population structure and genome scans for local adaptation.
9

Analyse de survie bivariée à facteurs latents : théorie et applications à la mortalité et à la dépendance / Bivariate Survival Analysis with Latent Factors : Theory and Applications to Mortality and Long-Term Care

Lu, Yang 24 June 2015 (has links)
Cette thèse étudie quelques problèmes d’identification et d’estimation dans les modèles de survie bivariée, avec présence d’hétérogénéité individuelle et des facteurs communs stochastiques.Chapitre I introduit le cadre général.Chapitre II propose un modèle pour la mortalité des deux époux dans un couple. Il permet de distinguer deux types de dépendance : l’effet de deuil et l’effet lié au facteur de risque commun des deux époux. Une analyse de leurs effets respectifs sur les primes d’assurance écrites sur deux têtes est proposée.Chapitre III montre que, sous certaines hypothèses raisonnables, on peut identifier l’évolution jointe du risque d’entrer en dépendance et du risque de mortalité, à partir des données de mortalité par cohortes. Une application à la population française est proposée.Chapitre IV étudie la queue de distribution dans les modèles de survie bivariée. Sous certaines hypothèses, la loi jointe des deux durées résiduelles converge, après une normalisation adéquate. Cela peut être utilisé pour analyser le risque parmi les survivants aux âges élevés. Parallèlement, la distribution d’hétérogénéité parmi les survivants converge vers une distribution semi-paramétrique. / This thesis comprises three essays on identification and estimation problems in bivariate survival models with individual and common frailties.The first essay proposes a model to capture the mortality dependence of the two spouses in a couple. It allows to disentangle two types of dependencies : the broken heart syndrome and the dependence induced by common risk factors. An analysis of their respective effects on joint insurance premia is also proposed.The second essay shows that, under reasonable model specifications that take into account the longevity effect, we can identify the joint distribution of the long-term care and mortality risks from the observation of cohort mortality data only. A numerical application to the French population data is proposed.The third essay conducts an analysis of the tail of the joint distribution for general bivariate survival models with proportional frailty. We show that under appropriate assumptions, the distribution of the joint residual lifetimes converges to a limit distribution, upon normalization. This can be used to analyze the mortality and long-term care risks at advanced ages. In parallel, the heterogeneity distribution among survivors converges also to a semi-parametric limit distribution. Properties of the limit distributions, their identifiability from the data, as well as their implications are discussed.
10

Analyse de profils latents des carrières criminelles des auteurs de leurre informatique

Bélair, Gabrielle 04 1900 (has links)
L’approche de la carrière criminelle a été appliquée à maintes reprises auprès de délinquants sexuels afin d’approfondir les connaissances relatives à leur participation criminelle, à la fréquence de leur passage à l’acte, à la durée de leur parcours criminel, à la gravité de leurs crimes et au polymorphisme dont ces délinquants font preuve. Parallèlement à l’essor des nouvelles technologies, un besoin grandissant d’en apprendre davantage sur la carrière criminelle des auteurs de leurre informatique s’est fait ressentir. À ce jour, peu d’études ont analysé le parcours criminel emprunté par ces cyberdélinquants sexuels en ayant recours au cadre d’analyse de la carrière criminelle. Afin de remédier à cette limite, le présent mémoire a comme objectif principal d’analyser les parcours criminels des auteurs de leurre informatique afin d’élargir les connaissances quant à la participation, la fréquence, la durée, la gravité et le polymorphisme. Plus précisément, l’objectif spécifique est d’analyser les tendances en termes de carrières criminelles. Pour ce faire, une analyse de profils latents a été menée auprès d’un échantillon de 1 201 auteurs de leurre. Les résultats indiquent l’existence de divers parcours criminels des auteurs de leurre et mettent en lumière quatre profils, soit (1) l’auteur de leurre « ponctuel à délinquance unique », (2) l’auteur de leurre « versatile tardif », (3) l’auteur de leurre « délinquant sexuel spécialiste » et (4) l’auteur de leurre « polymorphe prolifique ». Le premier profil identifié est composé d’auteurs de leurre ne commettant qu’un seul crime à travers leur parcours criminel selon les données officielles. Le second profil, pour sa part, regroupe les individus commettant plusieurs crimes sexuels et non sexuels et qui mettent fin tardivement à leur carrière criminelle. Ensuite, le troisième profil identifié comprend les auteurs ayant un penchant pour les crimes de sexuels, bien que leur carrière criminelle soit limitée en termes de participation et de fréquence. Dernièrement, le quatrième profil est constitué d’auteurs polymorphes commettant une variété de crimes sexuels et non sexuels. / The criminal career approach has been extensively applied in the context of sexual delinquency and allowed to deepen knowledge regarding the crimes committed by sex offenders, the duration of their criminal involvement, the seriousness of their criminal behaviors, and the variety of crimes they commit. Along with the rise of new technologies, there has been a growing need to learn more about the criminal careers of online groomers. To date, no studies have analyzed the criminal path of these online sex offenders using a criminal career framework. To remedy this limitation, the main objective of this paper is to analyze the criminal paths of online groomers as to broaden knowledge on participation, frequency, duration, seriousness, and versatility. Specifically, the objective is to identify tendencies in regards to their criminal careers. To do so, a latent profile analysis was performed on a sample of 1 201 online groomers. The results support the existence of multiple delinquent paths of individuals who sexually solicit youth online and highlight the existence of four profiles: (1) the “one-timer” groomer, (2) the “versatile and late” groomer, (3) the “specialist sex offender” groomer, and (4) the “versatile and prolific” groomer. The first profile identified consists of online groomers committing a single crime across their criminal path. The second profile includes individuals who commit multiple sexual and non-sexual crimes and who end their criminal career belatedly. The third identified profile includes perpetrators with a preference for sexual crimes, but whose criminal careers are limited in terms of participation and frequency. Lastly, the fourth profile is composed of versatile offenders committing a variety of sexual and non-sexual crimes.

Page generated in 0.0656 seconds