• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 3
  • 3
  • 1
  • Tagged with
  • 15
  • 12
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Complex boundaries for the Totally Asymmetric Simple Exclusion process / Mécanismes de bord complexes pour le processus d’exclusion simple totalement asymétrique

Sonigo, Nicky 02 November 2011 (has links)
Le processus d’exclusion simple est défini formellement de la façon suivante : chaque particule effectue une marche aléatoire sur un ensemble de sites et interagit avec les autres particules en ne se déplaçant jamais sur un site occupé.Malgré sa simplicité, ce processus présente des propriétés que l’on retrouve dans beaucoup de modèles de mécanique statistique plus complexes. C’est la conjonction de la simplicité du processus et de l’intérêt des phénomènes observés quien fait l’un des modèles de référence en mécanique statistique hors équilibre. Dans cette thèse, je me suis intéressé au cas du processus d’exclusion totalement asymétrique (les particules sautent uniquement vers la droite) sur Nafin d’étudier son comportement en fonction du mécanisme de création de particules: on crée des particules au site 0 avec un taux dépendant de la configurationactuelle. Dès que ce mécanisme n’est plus un processus de Poisson, le processusd’exclusion associé n’admet plus de mesure invariante sous forme de produitce qui fait que les méthodes classiques de calcul sur le générateur infinitésimaln’aboutissent que rarement. Je me suis donc appuyé principalement sur les méthodesde couplage et de particules de deuxième classe.Dans la première partie de la thèse, je me suis intéressé au modèle introduitpar Grosskinsky pour lequel j’ai obtenu les résultats suivants : si le taux maximumde création et la densité initiale de particules sont plus petits que 12 et sile mécanisme de création est à portée intégrable, il n’y a pas de transition dephase c’est-à-dire qu’il n’y a qu’une seule mesure invariante.Dans la deuxième partie de la thèse, je me suis intéressé au problème inversedont le but est de construire un processus à portée finie mais non-intégrableayant une transition de phase. Pour cela, je me suis inspiré des méthodes développéespour le processus des spécifications de Bramson et Kalikow. / The simple exclusion process is formally defined as follows : each particle performs a simple random walk on a set of sites and interacts with other particles by never moving on occupied sites. Despite its simplicity, this process has properties that are found in many more complex statistical mechanics models. It is the combination of the simplicity of the process and the importance of the observed phenomena that make it one of the reference models in out of equilibrium statistical mechanics. In this thesis, I’m interested in the case of the totally asymmetric exclusion process (particles jump only to the right) on N to study its behavior according to the mechanism of particle creation : particles are created at site 0 with arate depending on the current configuration. Once this mechanism is no longer a Poisson process, the associated exclusion process does not admit a product invariant measure. As a consequence, classical computation methods with theinfinitesimal generator are rarely successful. So I used mainly the methods of coupling and second class particles.In the first part of the thesis, I’m interested in the model introduced by Grosskinsky for which I get the following result : if the maximum rate of creation and the initial density of particles are smaller than 12 and if the creation mechanism is of integrable range, there is no phase transition which means that there is only one invariant measure. In the second part of the thesis, my goal was to construct a process with finite and non-integrable range that has a phase transition. For this, I was inspired by methods developed for the process of specification of Bramson and Kalikow.
2

Nouvelle méthodologie pour la caractérisation de distributions de masses molaires d'échantillons cellulosiques complexes / New methodology for the caracterization of molar mass distributions of complex cellulosic samples

Rebiere, Jérémy 20 March 2017 (has links)
La cellulose est un biopolymère naturel et très abondant. Selon son origine et son mode d’extraction, elle présente des propriétés de cristallinité et de longueur de chaînes variables. Les interactions hydrogène entre les chaînes de cellulose sont en grande partie responsables de son organisation et forment un réseau très dense qui limite sa solubilité. Sa dissolution, complète et non-dégradante, est donc compliquée et dépend de la capacité du solvant à rompre ces liaisonshydrogène intermoléculaires. L’analyse de la cellulose par chromatographie d’exclusion stérique (SEC) pour suivre l’évolution des distributions de masses molaires (DMM) au cours des procédés de transformation est donc toujours problématique. Le système de solvant le plus commun estactuellement le chlorure de lithium/N,N-diméthylacétamide (LiCl/DMAc) qui est extrêmement toxique. L’objectif de ce travail est le développement d’une méthode d’analyse des DMM de la cellulose dans des conditions moins toxiques et adaptée à tous les types de cellulose. Parmi les nombreux systèmes de solvant décrits dans la littérature, 3 systèmes, plus verts et nondérivatisants, ont été sélectionnés afin d’identifier un système de solvant permettant la dissolution,sans dégradation, d‘échantillons de cellulose de cristallinité et de masse molaire moyenne variables afin de remplacer LiCl/DMAc. Les analyses thermogravimétriques et les mesures viscosimétriques ont permis d’évaluer et de comparer les modifications de 4 échantillons de cellulose dissous dans ces 3 systèmes et dans le LiCl/DMAc. LiCl/DMAc dégrade les celluloses de plus haute masse molaire (-cellulose et Vitacel), réduisant de 50 % les longueurs de chaîne après dissolution. Le système tétrabutylammonium/diméthylsulfoxide (TBAF/DMSO) permet une dissolution rapide des 4 échantillons de cellulose sans dégradation ou modification majeure. Le système TBAF/DMSO a, par la suite, été privilégié pour la caractérisation des échantillons en SEC. Du fait d’interactions possibles entre les groupements aromatiques composant la phase stationnaire et les molécules de TBAF, le système complet n’a pas pu être utilisé comme éluant. L’éluant choisi a donc été le DMSO mais qui, seul, ne solubilise pas les échantillons cellulosiques. Les molécules de TBAF sont cependant indispensables au mécanisme de dissolution et laconcentration en TBAF dans le DMSO a dû être adaptée en fonction des échantillons. Pour les échantillons cellulosiques de faible masse molaire, une concentration en TBAF de l’ordre de 1 %(m/v) est suffisante et permet de réaliser une analyse des masses molaires satisfaisantes. Pour les échantillons de plus haut poids moléculaire, cette concentration n’est plus suffisante pour les dissoudre convenablement. Or, avec des concentrations plus élevées, des phénomènesd’agrégation provoque l’élution d’une partie importante des macromolécules dans le volume mort, comme observé avec l’analyse de standards de pullulane. / Cellulose is a very abundant natural biopolymer. According to its origin and to its extraction mode, it presents various cristallinity rate and molar mass. Its organization relies mainly on intermolecular hydrogen bonds that form a strong network and thus limitating cellulose solubility. Complete andnon-degradative dissolution is then complicated and depends on the solvent ability to disrupt these hydrogen bonds. Analysis of the molar mass distribution (MMD) of cellulose by size exclusion chromatography (SEC) of cellulose is consequently problematic while the study of the evolution of cellulose molar mass during transformations could be extremely useful in many processes. The most common solvent used in SEC is lithium chloride/N,N-dimethylacetamide (LiCl/DMAc), which is extremely toxic. The aim of this PhD study is then to develop a new analytical method to characterize cellulose MMD using safer solvents and adapted to all kinds of cellulosic sample. Among the numerous non-derivatizing solvent systems described in the literature, three of themhave been selected. Greener and less toxic than LiCl/DMAc, their ability to dissolve cellulosic sample of various cristallinity and average molar mass without degradation was then tested. Thermogravimetric analyses and viscosimetric studies allowed to evaluate and to compare the modifications involved by the dissolution for four different cellulosic samples. LiCl/DMAc degraded the samples of higher molar mass (-cellulose and Vitacel) decreasing their degree ofpolymerization by 50 % after dissolution. Tetrabutylammonium/dimethylsulfoxide (TBAF/DMSO) system allows rapid dissolution of the 4 cellulose samples, without major degradation or modification. TBAF/DMSO system was then studied as solvent for SEC analysis of these cellulose samples. Due to the interactions between the aromatic groups composing the stationary phase with TBAF molecules, the complete system could not be used as eluant. Chosen eluant was then DMSO alone. However, as the TBAF molecules are mandatory for the dissolution of cellulose, TBAF concentration was adapted according to the cellulose nature for the preparation of the samples. For low molar mass cellulose samples, a TBAF concentration of 1 %(w/v) was sufficient and allowed to performed correctly the chromatographic analysis. For the samples of higher molar mass, this concentration was not high enough to complete the dissolution. Using, higher concentrations caused aggregation phenomena resulting in the elution of a large amount of the macromolecules in the dead volume, as observed with the analysis of pullulan standards.
3

Caractérisation de polyacrylamide de hautes masses molaires par fractionnement couplage flux force couplée à la diffusion de la lumière / Caracterization of ultra high molar mass of polyacrylamides by Flow Field Flow Fractionation coupled to Multi Angle Light Scattering

Schmitt, Charlène Eva 16 December 2015 (has links)
: L’une des méthodes qui consiste à optimiser la production d’hydrocarbure est basée sur l’injection d’eau, viscosifiée par addition de polymères de type polyacrylamides, afin d’améliorer l’extraction de pétrole (RAH). Or, les propriétés viscosifiantes des polymères dépendent de leurs masses molaires. L’enjeu de ce travail de thèse a donc été de mettre en place de nouvelles méthodes pour la détermination de larges distributions en masses molaires et de grande dispersité, caractéristiques propres aux échantillons d’intérêt industriel dans le domaine pétrolier. La stratégie d’analyse retenue repose sur la chromatographie d’exclusion stérique (CES) et le fractionnement par couplage flux force (A4F) couplés à la diffusion de lumière et à la réfractométrie. Des polymères modèles ont été synthétisés par un procédé de polymérisation par transfert de chaîne réversible par addition fragmentation (RAFT/MADIX). Cela a permis d’obtenir des polymères dans une gamme de masses molaires comprises entre 103 et 107 g/mol et avec une dispersité inférieure à 1,4. Via l’utilisation de ces polymères, les performances et limites des deux méthodes séparatives investies ont été évaluées. Les conditions opératoires en A4F ont été déterminées et cette méthode s’est avérée être adaptée à l’analyse de polymères industriels distribués sur 3 décades de masses molaires. Au delà de l’analyse dimensionnelle, le couplage avec l’A4F a également permis une analyse conformationnelle. / One method for optimizing the production of hydrocarbon is based on the injection of water, viscosified by the addition of polymers such as polyacrylamides, in order to enhance the oil extraction (EOR). The viscosifying properties of polymers depend on their molecular masses. The aim of this thesis was therefore to develop new methods for determining wide molecular mass distributions and high dispersity, which are specific characteristics of samples of industrial interest in the oil sector. The analytical strategy used is based on size exclusion chromatography (SEC) and flow field flow fractionation (A4F), coupled to light scattering and refractometer. Model polymers were synthesized by a polymerization process by reversible addition fragmentation chain transfer (RAFT/MADIX). This allowed to obtain polymers in a range of molar masses between 103 and 107 g / mol and with a dispersity lower than 1.4. Through the use of these polymers, the capabilities and limitations of the two separation methods invested were evaluated. The A4F operating conditions were determined and this method has proved to be adapted to the analysis of industrial polymers distributed over 3 decades of molecular masses. Beyond the dimensional analysis, A4F-based coupling also allowed conformational analysis.
4

Application des outils de la physique statistique au transport intracellulaire / Application of statistical physics tools to intracellular transport

Klein, Sarah 27 April 2016 (has links)
La plupart des processus dans notre vie quotidienne sont des processus hors équilibre. Un exemple de système hors équilibre est la cellule biologique et le transport qui a lieu dedans. Dans cette thèse ce transport intracellulaire est modélisé par des processus stochastiques. Pour cela deux approches différentes ont été utilisées : d’une part une modélisation explicite de particules actives avec des degrés de liberté internes obtenus expérimentalement, d’autre part une description phénoménologique des effets collectifs, qui est réalisée au moyen de processus d’exclusion.Un des résultats principaux pour le modèle explicite est qu’il est crucial de prendre en compte les fluctuations des forces pour reproduire les caractéristiques principales du mou- vement. Un autre élément important est la prise en considération de l’environnement cellu- laire, qui peut produire des effets non-triviaux, comme par exemple une inversion du sens de déplacement moyen. Pour étudier les effets collectifs il est possible de représenter le mou- vement des particules d’une manière simplifiée, en utilisant un processus d’exclusion avec des particules ayant des états internes. Le désordre sur les taux de saut qui en résulte peut provoquer une condensation dépendant de la densité.Un autre modèle étudié est un processus d’exclusion sur un réseau à deux voies. On suppose que deux types de particules se déplacent dans une géométrie tubulaire, inspirée par les champignons filamenteux. Ces hypothèses définissent un modèle minimal qui présente une transition de phase d’une phase de basse densité vers une phase pulsante caractérisée par des oscillations de densité. / Most processes in our daily life are far from equilibrium. The prime example is a cell and the transport occurring within. In this thesis intracellular transport is modeled by means of stochastic processes. For this, two different approaches are applied: the explicit mod- eling of active particles with internal degrees of freedom with characteristics as they were determined experimentally. And secondly, the collective effects occurring in many particle systems are studied in a phenomenological way by means of exclusion processes.In the explicit model one important result is given by the fact that force fluctuations are essential to capture the relevant motion characteristics. Further, the influence of the cellular environment creates counter-intuitive effects, like a possible inversion of the bias. The motion characteristics can be represented in a coarse-grained manner as an exclusion process for particles with internal states. Due to the resulting disorder in the hopping rates a density-dependent condensation occurs.In a second part, a two-lane exclusion model is studied. Two species in a tubular geometry inspired by filamentous fungi are considered.This can be seen as a minimal model exhibiting a phase transition from a low density phase to an intriguing phase with periodically changing particle densities.
5

Dispositifs orioplastiques pour des jeunes en souffrances d’exclusion : nouvelles perspectives de medium malléable dans la clinique du social ? / Orioplastic settings for young people suffering from exclusion related psychological troubles : new perspectives for pliable medium in clinical social psychology ?

Demetriades, Christakis 23 September 2011 (has links)
Sur la scène de l’insertion se réactiveraient et se déploieraient les souffrances d’exclusion de certains jeunes, « souffrances narcissiques et identitaires » (R. Roussillon) qui révéleraient un « collapsus topique » (C. Janin) entre les « espaces du lien inter et trans-subjectif et l’espace intra-psychique » (R. Kaës).Le clinicien est alors invité à proposer des dispositifs cliniques susceptibles de libérer la scène de l’insertion des effets mortifères de la répétition traumatique.A partir d’un travail clinique de 20 ans au sein des Missions Locales pour l’insertion des jeunes, qui accueillent tous les ans plus de 1.2 millions de jeunes en France, l’auteur propose la mise en place de dispositifs orioplastiques au sein de ces institutions. Il emprunte à la plasticienne A.Stella la notion d’ « orioplastie », qui associe le grec orio (limite) et plastie, du grec ancien plassein (façonner, mouler), aux origines d’une qualité, la plasticité, la malléabilité. Il étudie trois dispositifs étroitement articulés, un dispositif individuel et deux groupaux et tend à dégager à la fois leurs caractéristiques, en matière d’espace et de temps, qui leur conféreraient une qualité de « medium malléable » (R. Roussillon, M. Milner) et les processus qu’ils permettraient de déployer en matière de « double travail psychique de liaison » (C. Vacheret), en référence à la « double limite » d’ A. Green.Il ouvre ainsi la question d’une éventuelle nouvelle étape de la psychiatrie publique, qui consisterait à se déployer dans les institutions du social et de l’insertion, afin de contribuer à une meilleure prise en compte des questions de la précarité et de l’exclusion, et pose les questions des conditions d’exercice et des limites de ce travail. / The social and professional integration process appears to reactivate exclusion related psychological troubles, defined as the « narcissistic disturbances of the sense of identity » (R. Roussillon) revealing a « topical collapse » (C. Janin) between the « the inter- and trans-subjective and the intra-psychic spaces » (R. Kaës). The role of the clinical psychologist is to propose clinical settings capable of ridding this process of the negative effects of traumatic repetition.The author, based on 20 years of clinical experience in Missions Locales, social structures for reintegration which welcome more than 1.2 million young people in France every year, proposes the deployment in these institutions of orioplastic settings. The notion of « orioplasty » is borrowed from the artist A.Stella who derives the terms from the Greek words orio (limit) and plassein (to shape or mold). The study of three tightly linked protocols, one for individuals and two for groups, simultaneously highlights their characteristics involving space and time, conferring them with the quality of a « pliable medium » (R. Roussillon, M. Milner), and the processes, both psychological and social, involving a « dual mental linking process » (C. Vacheret), in reference to the « double limit » of A. Green, that they permit to establish.Thus, the author raises the question of a new stage in public sector psychiatry which would consist of going into the institutions of social integration in order to better take into account the problems of social insecurity and exclusion, and addresses the question of the conditions and the limits involved in this new approach.
6

Development of Analytical methods for the evaluation of the impact of phosphate fertilizer industry on marine environment / Développement de méthodes analytiques pour l’évaluation de l'impact de l'industrie de fertilisants chimiques sur le milieu marin

Maria, Aoun 17 December 2014 (has links)
Développement de méthodes analytiques pour l’évaluation de l'impact de l'industrie de fertilisants chimiques sur le milieu marin / Development of Analytical methods for the evaluation of the impact of phosphate fertilizer industry on marine environment
7

Vérification de la pléiotropie en randomisation mendélienne : évaluation méthodologique et application à l'estimation de l'effet causal de l'adiposité sur la pression artérielle

Mbutiwi, Fiston Ikwa Ndol 07 1900 (has links)
Introduction La randomisation mendélienne (RM) est une approche de plus en plus populaire dans les études observationnelles qui utilise des variants génétiques (habituellement des polymorphismes mononucléotidiques ou single-nucleotide polymorphisms, SNPs) associés à une exposition (hypothèse 1 ou pertinence) comme instruments pour estimer l’effet causal de cette exposition sur une issue, en assumant l’absence de confusion entre l’instrument et l’issue (hypothèse 2 ou indépendance) et l’absence d’un effet de l’instrument sur l’issue en dehors de l’exposition (hypothèse 3 ou restriction d’exclusion). Cependant, la validité des résultats de la RM est menacée par la pléiotropie, phénomène biologique par lequel un SNP affecte distinctement l’exposition et l’issue, qui est l’une des principales causes de violation de la restriction d’exclusion. Cette thèse examine certains défis méthodologiques pratiques de la RM relatifs à la vérification de la restriction d’exclusion et à la validité des résultats à travers trois principaux objectifs : 1) cartographier comment les chercheurs en RM préviennent, détectent et/ou contrôlent, et discutent des violations potentielles de la restriction d'exclusion dues notamment à la pléiotropie ; 2) évaluer la performance de la méthode basée sur la confusion positive, qui compare les estimés ponctuels de l’effet de l’exposition sur l’issue obtenus par la RM et par la régression conventionnelle, dans la détection des instruments invalides dans plusieurs contextes pratiques d’études de RM ; et 3) examiner l’impact des méthodes courantes de gestion de la médication antihypertensive dans les études de RM modélisant la pression artérielle (PA) sur l'estimation de l’effet causal et la détection des violations potentielles de la restriction d'exclusion. Méthodes Pour l’objectif 1, une revue de littérature de 128 études de RM ayant utilisé au moins un SNP sur le gène FTO (fat mass and obesity-associated) comme instrument de l’indice de masse corporelle (IMC) a été réalisée. La façon dont les auteurs préviennent, évaluent ou contrôlent, et discutent des violations potentielles de la restriction d’exclusion dues notamment à la pléiotropie a été examinée. Pour l’objectif 2, une étude de simulation statistique considérant des contextes d’études de RM utilisant comme instrument un SNP ou un score de risque génétique (genetic risk score, GRS), une issue continue ou binaire, dans des scénarios évaluant l’impact de la taille de l’échantillon et du type de pléiotropie (indirect ou direct), a été réalisée. La performance de la méthode basée sur la confusion positive a été définie comme le pourcentage de jeux de données simulés dans lesquels la méthode détectait des instruments invalides. Pour l’objectif 3, une étude de RM de l’association entre l’IMC et la PA systolique (PAS) a été réalisée. Les méthodes de gestion de la médication antihypertensive examinées étaient : (i) pas de correction, (ii) inclure la médication dans les modèles comme une covariable d’ajustement, (iii) exclure de l’analyse les sujets traités aux antihypertenseurs, (iv) ajouter une valeur constante de 15 mm Hg aux valeurs mesurées de la PAS chez les sujets traités aux antihypertenseurs, et (v) utiliser comme issue un indicateur binaire de l'hypertension. Résultats Il existe une pléthore de méthodes utilisées dans les études de RM dont certaines peuvent être sous-optimales à prévenir, détecter ou contrôler le biais dû à l’inclusion des SNPs pléiotropiques. Les simulations statistiques montrent qu’en RM utilisant un SNP comme instrument, la méthode basée sur la confusion positive est performante à détecter l’invalidité de l’instrument lorsque la pléiotropie est directe plutôt qu’indirecte, indépendamment de l’issue, mais la performance de la méthode s’améliore avec l’augmentation de taille de l’échantillon. En revanche, la méthode est moins performante à détecter l’invalidité lorsque l’instrument est un GRS, mais sa performance augmente avec la proportion des SNPs invalides inclus dans le GRS. Enfin, les estimations de la RM varient énormément selon la stratégie de gestion de la médication antihypertensive choisie, contrairement à la détection des violations de la restriction d’exclusion qui n’en est pas affectée. Conclusion Cette thèse met de l’avant certaines difficultés méthodologiques dans les applications de la RM et l’importance de la triangulation de plusieurs méthodes dans la vérification des hypothèses de RM. Le champ de la RM est en plein essor, et des nouvelles méthodes sont souvent proposées. Il devient important non seulement de les évaluer, mais aussi d’en détailler l’utilisation et les hypothèses sous-jacentes pour une utilisation optimale en complément aux méthodes existantes. / Introduction Mendelian randomization (MR) is an increasingly popular technique in observational studies that uses genetic variants (usually single-nucleotide polymorphisms, SNPs) associated with an exposure (Assumption 1 or relevance) as instruments to estimate the causal effect of that exposure on an outcome, assuming no confounding between the instrument and the outcome (Assumption 2 or independence) and no effect of the instrument on the outcome outside of its association with the exposure (Assumption 3 or exclusion restriction). However, the validity of the MR results is challenged by pleiotropy, the biological phenomenon whereby a SNP distinctly affects the exposure and the outcome, which is one of the leading causes of violation of the exclusion restriction assumption. This thesis examines some practical MR methodological challenges related to the assessment of the exclusion restriction and the validity of MR results through three main objectives: 1) to examine how MR researchers prevent, detect, and/or control for, and discuss potential violations of the exclusion restriction due especially to pleiotropy; 2) to evaluate the performance of the leveraging positive confounding (LPC) method that compares the MR and the conventional point estimates in detecting invalid instruments in several practical MR settings; and 3) to examine the impact of commonly used methods of accounting for antihypertensive medication in MR studies modeling blood pressure (BP) on the estimation of the causal effect and the detection of potential violations of the exclusion restriction. Methods For Objective 1, a literature review of 128 MR studies that used at least one SNP in the fat mass and obesity-associated (FTO) gene as an instrument for body mass index (BMI) was conducted to examined how the authors prevent, detect, or control, and discuss potential violations of the exclusion restriction, especially due to pleiotropy. For Objective 2, a simulation study considering MR analyse settings using single SNP or genetic risk score (GRS) as an instrument, continuous or binary outcome, in scenarios evaluating the impact of sample size and type of pleiotropy (indirect vs. direct) was performed. The performance of the LPC method was assessed as the percentage of simulated datasets in which the LPC method detected invalid instruments. For Objective 3, an MR study of the association between BMI and systolic BP (SBP) was performed. The methods for accounting for antihypertensive medication examined were: (i) no adjustment, (ii) include medication in the models as an adjustment covariate, (iii) exclude from the analysis subjects treated with antihypertensive medication, (iv) add a constant value of 15 mm Hg to the measured values of SBP in subjects using antihypertensive medication, and (v) use as outcome a binary indicator of hypertension. Results There exists a plethora of methods used in MR studies, some of which may be suboptimal for preventing, detecting, or controlling for bias due to the inclusion of pleiotropic SNPs. Statistical simulations show that in MR using single SNP as an instrument, the LPC method performs better at detecting invalidity of the instrument when the pleiotropy is direct than indirect, regardless of the outcome, although the performance of the method improves with increasing sample size. In contrast, the method performs less well in detecting invalidity when the instrument is a GRS, but its performance increases with the proportion of invalid SNPs included in the GRS. Finally, MR estimates change greatly depending on the chosen strategy of accounting for antihypertensive medication in contrast to the detection of exclusion restriction violations which is not impacted. Conclusion This present thesis highlights some of the methodological challenges in MR applications and the importance of triangulating multiple methods when assessing the MR assumptions. The MR field is booming, and new methods are often proposed. Therefore, it is important to evaluate these methods as well as to detail their application and underlying assumptions for optimal use as a complement to existing methods.
8

Le Canada et l’article 1F de la Convention relative au statut des réfugiés : une application large en réponse aux menaces à la sécurité nationale

Saadé, Nadine 07 1900 (has links)
En 1951, le droit international des réfugiés voyait le jour avec la Convention relative au statut des réfugiés. Cette convention ainsi que son Protocole stipulent la définition contemporaine de cette notion et les obligations de l'État d'accueil à l’égard des réfugiés mais y prévoit aussi une exception. En effet, les rédacteurs de la Convention de 1951, percevant que certains bourreaux tenteraient d'user de ce mécanisme pour échapper à des poursuites en trouvant refuge à l'étranger, y ont intégré une dérogation à la définition de réfugié qui a pris la forme d’une clause d'exclusion. Celle-ci permet à tout État ayant adhéré à cet instrument de refuser d'accueillir sur son territoire les individus à l'origine des plus grands crimes internationaux et nationaux. Le Canada, en ratifiant la Convention de 1951 et son Protocole en 1969, a incorporé dans sa législation nationale cette clause d'exclusion dans l'article 98 de la Loi sur l'immigration et la protection des réfugiés. Le présent mémoire porte sur l'application de cette clause d'exclusion en droit canadien. Nous proposons une analyse de l'application de cette disposition en droit interne. L’objectif général est de montrer que les cours de justice favorisent une interprétation trop large de la clause d’exclusion, dénaturant ainsi son statut de règle d’exception. En effet, cette interprétation jurisprudentielle a pour conséquence d’attribuer un poids prépondérant à la sécurité nationale aux dépens du caractère humanitaire qui imprègne le droit d’asile depuis ses origines. / International refugee law emerged in 1951 with the adoption of the Convention Relating to the Status of Refugees. This instrument, along with its Protocol, defined the contemporary notion of “refugee” and established the rights of these individuals as well as State obligations towards them. However, this international protection was not absolute. Suspecting that many oppressors would attempt to use this mechanism to escape prosecution by finding refuge abroad, the authors of the 1951 Convention introduced a derogation to the definition of refugee by way of the exclusion clause. As such, this article allows States to refuse to extend refugee protection to individuals responsible for the most serious international and national crimes. Canada, which ratified the 1951 Convention and its 1969 Protocol, incorporated the exclusion clause in its national legislation through article 98 of the Immigration and Refugee Protection Act. The present thesis wishes to examine the application of this exclusion clause in Canadian law. In doing so, we will analyze the understanding of this provision in domestic law. Our objective is to demonstrate that our judicial courts favor a large interpretation of this clause, thus straying from its exceptional nature. This approach results in overweighing the importance of national security against the humanitarian nature of the refugee protection system.
9

Le Canada et l’article 1F de la Convention relative au statut des réfugiés : une application large en réponse aux menaces à la sécurité nationale

Saadé, Nadine 07 1900 (has links)
En 1951, le droit international des réfugiés voyait le jour avec la Convention relative au statut des réfugiés. Cette convention ainsi que son Protocole stipulent la définition contemporaine de cette notion et les obligations de l'État d'accueil à l’égard des réfugiés mais y prévoit aussi une exception. En effet, les rédacteurs de la Convention de 1951, percevant que certains bourreaux tenteraient d'user de ce mécanisme pour échapper à des poursuites en trouvant refuge à l'étranger, y ont intégré une dérogation à la définition de réfugié qui a pris la forme d’une clause d'exclusion. Celle-ci permet à tout État ayant adhéré à cet instrument de refuser d'accueillir sur son territoire les individus à l'origine des plus grands crimes internationaux et nationaux. Le Canada, en ratifiant la Convention de 1951 et son Protocole en 1969, a incorporé dans sa législation nationale cette clause d'exclusion dans l'article 98 de la Loi sur l'immigration et la protection des réfugiés. Le présent mémoire porte sur l'application de cette clause d'exclusion en droit canadien. Nous proposons une analyse de l'application de cette disposition en droit interne. L’objectif général est de montrer que les cours de justice favorisent une interprétation trop large de la clause d’exclusion, dénaturant ainsi son statut de règle d’exception. En effet, cette interprétation jurisprudentielle a pour conséquence d’attribuer un poids prépondérant à la sécurité nationale aux dépens du caractère humanitaire qui imprègne le droit d’asile depuis ses origines. / International refugee law emerged in 1951 with the adoption of the Convention Relating to the Status of Refugees. This instrument, along with its Protocol, defined the contemporary notion of “refugee” and established the rights of these individuals as well as State obligations towards them. However, this international protection was not absolute. Suspecting that many oppressors would attempt to use this mechanism to escape prosecution by finding refuge abroad, the authors of the 1951 Convention introduced a derogation to the definition of refugee by way of the exclusion clause. As such, this article allows States to refuse to extend refugee protection to individuals responsible for the most serious international and national crimes. Canada, which ratified the 1951 Convention and its 1969 Protocol, incorporated the exclusion clause in its national legislation through article 98 of the Immigration and Refugee Protection Act. The present thesis wishes to examine the application of this exclusion clause in Canadian law. In doing so, we will analyze the understanding of this provision in domestic law. Our objective is to demonstrate that our judicial courts favor a large interpretation of this clause, thus straying from its exceptional nature. This approach results in overweighing the importance of national security against the humanitarian nature of the refugee protection system.
10

Synthesis and characterization of molecules for electronic devices / Synthèse et caractérisation de molécules pour dispositifs électroniques

Herranz-Lancho, Coral 06 December 2013 (has links)
La miniaturisation toujours plus poussée des composants électroniques a atteint une limite en arrivant à l’échelle atomique. Afin de fabriquer des circuits à cette échelle, il est nécessaire de intéresser aux plus petits composants pouvant être intégrés : les molécules individuelles et les groupes d’atomes. Dans cette optique, les molécules de 1,4-bis(pyridin-4-ylethynyl) benzène (BPEB), Dibenzo[a,h]thianthrene (DBTH), de Bis{82,92,152,162,222,232- hexa-(2,4,6-trifluorophenoxy)[g,l,q]-5,10,15,20-tetraazaporphyrino)}[b,e]-benzene (H4Pc2) ont été conçues, synthétisées et caractérisées afin d’en étudier le transport de charges et les changements induits proche de la surface. Des techniques de SPM, tels que le STM, le nc-AFM et l’usage conjoint de l’AFM avec le STM ont été mises en pratique pour analyser les molécules reposant intégralement ou partiellement sur un substrat. L’interprétation des résultats expérimentaux a été faite au moyen de calculs de DFT. De plus, l’autoassemblage en solution de nouvelles mono-phthalocyanines métalliques fluorées, MPc (M= Mg2+, 2H+, Co2+) a été étudié.Tout d’abord, les mesures de conductance mirent en évidence, lors d’expériences de manipulation de fils moléculaires (BEPB), les changements de conformation associés aux transport des électrons à travers les molécules. De plus, le mouvement dit de “retournement papillon” (anglais: butterfly flapping) ayant lieu dans la classe des thianthrènes fut bloqué à basse température grâce à l’interaction avec le substrat. Ce blocage a permit de conduire la première étude stéréochimique de dérivés de thianthrènes chiraux (DBTH). Les analyses STM du DBTH ont montrées que le passage entre deux configurations de DBTH est reproductible et non-destructif. Par ailleurs, le nc-AFM utilisé à résolution sub-moléculaire a constitué un outils important pour réaliser une caractérisation complète et distinguer entre les différents isomères de configuration et de constitution déposés sur une surface. D’autre part, la structure moléculaire de la phthalocyanine binucléaire (H4Pc2) a été confirmée en utilisant un STM en mode “courant constant” et un AFM en mode “fréquence constante”. Ces résultats jettent les bases d’une prochaine étude de transport (travail en cours). En outre, l’étude de l’agrégation dans les molécules de MPc mit en évidence le rôle important de la capacité de coordination de l’atome central de la cavité Pc sur la formation d’agrégat. Finalement, des mesures électrochimiques ont démontrées que l’agrégation moléculaire peut bloquer le nature active de l’atome Co2+. Dans ce travail, il a été clairement montré que le SPM est une technique adéquate pour étudier les changements de conformations et de configurations associés aux courant tunnel d’électrons à travers des molécules, qu’elles soient planaire ou pas. Les études d’agrégation des interrupteurs magnétiques ont permis de mieux comprendre l’organisation supramoléculaire. Cette organisation est un point crucial pour le développement de futurs circuits basés sur une fabrication “bottom-up”. / The demand of downscaling of technology will reach its limit at the atomic length scale. This claim creates the necessity of investigating the smallest components suitable to become devices, single molecules or group of atoms. Therefore, 1,4-bis(pyridin-4-ylethynyl) benzene (BPEB), Dibenzo[a,h]thianthrene (DBTH) and Bis{82,92,152,162,222,232-hexa-(2,4,6-trifluorophenoxy)[g,l,q]-5,10,15,20-tetraazaporphyrino)}[b,e]-benzene (H4Pc2) have been designed, synthesized and characterized to investigate transport of charge through molecules and surface confined molecular switching. Scanning Probe Microscopy (SPM), such as STM, nc-AFM and combined STM/AFM were used to study the molecules on near-surface conditions. Density Functional Theory (DFT) calculations were used to interpret the experimental results. Moreover, the self-assembly of new fluorinated metalo mono-phthalocyanines, MPc (M= Mg2+, 2H+, Co2+) was investigated in solution.Firstly, conductance experiments performed while a molecular wire (BPEB) was being lifted up from a surface revealed the conformational changes associated to the transport of electrons through molecules. Secondly, the “butterfly” flapping motion in the class of the thianthrenes was blocked due to the interaction with a surface at low temperature. This block leads to the first stereochemical study of a quiral thianthere derivative (DBTH). The STM experiments on DBTH revealed a reproducible and non-destructive switching between two surface confined configurations of DBTH. In addition, nc-AFM with submolecular resolution has been proved to be a powerful tool for the full characterization and distinction of configurational and constitutional isomers on surfaces. Thirdly, the molecular structure of a binuclear phthalocyanine (H4Pc2) was confirmed through constant current STM and constant high _f AFM experiments. These results set the state of future spintronic transport experiments (ongoing work). On the other hand, the aggregation studies on MPc revealed that the coordination character of the central atom of the Pc cavity has an important effect on the formation of aggregates. Additionally, electrochemical experiments demonstrated that molecular aggregations can lead to the quenching of the electrochemical-active nature of a Co2+ atom.Herein it has been demonstrated that SPM are suitable techniques to study the conformational and configurational changes associated with the tunneling of electrons through planar and non-planar molecules in real space. Aggregation studies of magnetic switches were carried out to better understand the supramolecular organization under near surface conditions, a key point for the design of future devices based on the bottom up approach.

Page generated in 0.0479 seconds