• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 182
  • 46
  • 28
  • 23
  • 11
  • 10
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 370
  • 100
  • 73
  • 39
  • 38
  • 37
  • 35
  • 33
  • 33
  • 30
  • 29
  • 26
  • 25
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Analyse cinématique de l'hydrogène ionisé et étude du gaz ionisé diffus de trois galaxies du Groupe Sculpteur : NGC253, NGC300 et NGC247

Hlavacek-Larrondo, Julie January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
352

Physical Properties of Massive, Star-Forming Galaxies When the Universe Was Only Two Billion Years Old

Fu, Nicole Christina 04 May 2011 (has links)
Due to the finite speed of light and a vast, expanding universe, telescopes are just now receiving the light emitted by galaxies as they were forming in the very early universe. The light from these galaxies has been redshifted (stretched to longer, redder wavelengths) as a result of its journey through expanding space. Using sophisticated techniques and exceptional multi-wavelength optical and infrared data, we isolate a population of 378 galaxies in the process of formation when the Universe was only two billion years old. By matching the distinctive properties of the light spectra of these galaxies to models, the redshift, age, dust content, star formation rate and total stellar mass of each galaxy are determined. Comparing our results to similar surveys of galaxy populations at other redshifts, a picture emerges of the growth and evolution of massive, star-forming galaxies over the course of billions of years.
353

Observational Uncertainties in Water-Resources Modelling in Central America : Methods for Uncertainty Estimation and Model Evaluation / Observationsosäkerheter i vattenresursmodellering i Centralamerika : Metoder för osäkerhetsuppskattning och modellutvärdering

Westerberg, Ida January 2011 (has links)
Knowledge about spatial and temporal variability of hydrological processes is central for sustainable water-resources management, and such knowledge is created from observational data. Hydrologic models are necessary for prediction for time periods and areas lacking data, but are affected by observational uncertainties. Methods for estimating and accounting for such uncertainties in water-resources modelling are of high importance, especially in regions such as Central America. Observational uncertainties were addressed in three ways in this thesis; quality control, quantitative estimation and development of model-evaluation techniques that addressed unquantifiable uncertainties. A first step in any modelling study should be the quality control and concurrent analysis of the representativeness of the observational data. In the characterisation of the precipitation regime in the Choluteca River basin in Honduras, four different quality problems were identified and 22% of the daily data had to be rejected. The monitoring network was found to be insufficient for a comprehensive characterisation of the high spatiotemporal variability of the precipitation regime. Quantitative estimations of data uncertainties can be made when sufficient information is available. Discharge-data uncertainties were estimated with a fuzzy regression for time-variable rating curves and from official rating curves for 35 stations in Honduras. The uncertainties were largest for low flows, as a result of measurement uncertainties and natural variability. A method for calibration with flow-duration curves was developed which enabled calibration to the whole flow range, accounting for discharge uncertainty and calibration with non-overlapping time periods for model input and evaluation data. The method compared favourably to traditional calibration in a test using two models applied in basins with different runoff-generation processes. A post-hoc analysis made it possible to identify potential model-structure errors and periods of disinformative data. Flow-duration curves were regionalised and used for calibration of a Central-American water-balance model. The initial model uncertainty for the ungauged basins was reduced by 70%. Non-representative precipitation data were found to be the main obstacle to comprehensive regional water-resources modelling in Central America. These methods bridged several problems related to observational uncertainties in water-balance modelling. Estimates of prediction uncertainty are an important basis for all types of decisions related to water-resources management. / Kännedom om hur hydrologiska processer varierar i tid och rum är grundläggande för hållbar vattenresursförvaltning och skapas utifrån observerade data. Hydrologiska modeller är nödvändiga för att förutsäga vattenbalansen för tidsperioder och områden utan data, men påverkas av observationsosäkerheter. Metoder för att hantera sådana osäkerheter i vattenresursmodellering är av stor betydelse i regioner såsom Centralamerika. Observationsosäkerheter hanterades på tre olika sätt i denna avhandling; kvalitetskontroll, kvantitativ uppskattning och utveckling av modellutvärderingsmetoder för beaktande av icke kvantifierbara osäkerheter. Ett viktigt första steg är kvalitetskontroll och samtidig analys av datas representativitet. Vid karaktäriseringen av nederbördsregimen i Cholutecaflodens avrinningsområde i Honduras identifierades fyra olika kvalitetsproblem och 22 % av data sorterades bort. Stationsnätet var otillräckligt för en fullödig karaktärisering av nederbördsregimens variationer i tid och rum. Dessa var mycket stora som ett resultat av komplexiteten hos de nederbördsgenererande mekanismerna. Kvantitativ uppskattning av observerade datas osäkerhet kan göras när tillräcklig information är tillgänglig. Osäkerheter i vattenföringsdata uppskattades dels vid beräkning av vattenföring med en oskarp regression för en tidsvariabel avbördningskurva, dels från en analys av officiella avbördningskurvor från 35 stationer i Honduras. Osäkerheten var i båda fallen högst vid låga flöden som ett resultat av högre mätosäkerheter samt större naturlig variabilitet än vid höga flöden. En metod för modellkalibrering med varaktighetskurvor utvecklades och gjorde det möjligt att kalibrera för hela flödesintervallet samtidigt, ta hänsyn till osäkerheter i vattenföringsdata samt kalibrera med icke överlappande driv- och utvärderingsdata. Metoden testades med två olika modeller i två avrinningsområden med olika avrinningsbildningsprocesser, och visade goda resultat jämfört med traditionell modellkalibrering. En post hoc-analys gjorde det möjligt att identifiera troliga modellstrukturfel och perioder med disinformativa data. Varaktighetskurvor regionaliserades och användes för kalibrering av en regional vattenbalansmodell för Centralamerika, varvid den initiala modellosäkerheten minskades med 70 %. Icke representativa nederbördsdata identifierades som det största hindret för regional vattenresursmodellering i Centralamerika. De metoder som utvecklades i detta arbete gör det möjligt att överbrygga ett flertal problem orsakade av bristfällig tillgänglighet och kvalitet av data och leder därmed till en förbättrad uppskattning av osäkerheten i vattenbalanssimuleringar. Sådana osäkerhetsskattningar är ett viktigt underlag vid alla typer av förvaltningsbeslut som rör vattenresurser.
354

Imagerie à haute résolution des amas R136 et NGC3603 dévoilent la nature de leurs populations stellaires / A sharpened close-up of R136 and NGC3603 : unshrouding the nature of their stellar population

Khorrami, Zeinab 22 June 2016 (has links)
Cette thèse a pour objectif de comprendre les différents aspects de l'évolution des amas d’étoiles massives NGC3603 et R136 qui possèdent les étoiles les plus massives connues de l'univers local. L'analyse photométrique des noyaux de R136 et NGC3603 utilisant l’imagerie infrarouge de l’instrument SPHERE sur VLT et son système d’optique adaptative extrême de SPHERE, m’a permis de détecter pour la 1ière fois un grand nombre d’étoiles de faibles masse et luminosité au coeur de ces amas et pour la plupart au voisinage des étoiles les plus lumineuses et massives. La comparaison des données de SPHERE de NGC3603 à celles du HST montre l’absence de ségrégation de masse dans le noyau de cet amas. De plus la pente de la fonction de masse de cette région est la même que celle de la région suivante et similaire aux valeurs de la MF correspondant aux régions extérieures de l’amas connues jusqu’ici. L’amas R136 est partiellement résolu par SPHERE/IRDIS dans l’IR. La majorité de ses étoiles massives ont des compagnons visuels. En prenant compte des mesures spectroscopiques et photométriques et leurs erreurs sur l'extinction et l'âge des membres de l’amas, j’ai estimé une gamme de masse pour chaque étoile identifiée. La MF a été calculée pour différents âges ainsi que les erreurs sur les masses stellaires. J’ai simulé des séries d'images de R136 grâce au code Nbody6, et les ai comparées aux observations du HST/WFPC2. Ces simulations permettent de vérifier l'effet de la binarité initiale des étoiles de l’amas, la ségrégation de masse et l'évolution des étoiles sur l'évolution dynamique propre à R136. / This thesis aims at studying 2 massive clusters NGC3603 and R136, and the mechanisms that govern their physics, These clusters host the most massive stars known in the local universe so far and are important clues to understand the formation and fate of very massive star clusters. The manuscript outlines the photometric analysis of the core of R136 and NGC3603 on the basis of HST data in the visible and the VLT high dynamic imaging that I obtained in the infrared thanks to the SPHERE focal instrument operated since 2015 and its extreme Adaptive Optics, In an extensive photometric study of these data I discovered a significantly larger number of faint low-mass stars in the core of both these clusters compared to previous works. These stars are often detected in the vicinity of known massive bright objects. By comparing HST and SPHERE measures, NGC3603 does not show any signature of mass segregation in its core since the MF slope of the very core and the next radial bin are similarly flat and agree well with the MF found in previous works of the outer regions. On the other hand R136 is partially resolved using the SPHERE/IRDIS mode with most of the massive stars having visual companions. Considering the spectroscopic and photometric errors on the extinction and the age of cluster members, I estimate a mass range for each detected star. The MF is plotted at different ages with given errors on stellar masses. Finally I demonstrate that we need more resolution to go further on studying R136 which is 7-8 times further than NGC3603.
355

Physical Properties of Massive, Star-Forming Galaxies When the Universe Was Only Two Billion Years Old

Fu, Nicole Christina January 2011 (has links)
Due to the finite speed of light and a vast, expanding universe, telescopes are just now receiving the light emitted by galaxies as they were forming in the very early universe. The light from these galaxies has been redshifted (stretched to longer, redder wavelengths) as a result of its journey through expanding space. Using sophisticated techniques and exceptional multi-wavelength optical and infrared data, we isolate a population of 378 galaxies in the process of formation when the Universe was only two billion years old. By matching the distinctive properties of the light spectra of these galaxies to models, the redshift, age, dust content, star formation rate and total stellar mass of each galaxy are determined. Comparing our results to similar surveys of galaxy populations at other redshifts, a picture emerges of the growth and evolution of massive, star-forming galaxies over the course of billions of years.
356

Uso de propriedades visuais-interativas na avaliação da qualidade de dados / Using visual-interactive properties in the data quality assessment

João Marcelo Borovina Josko 29 April 2016 (has links)
Os efeitos dos dados defeituosos sobre os resultados dos processos analíticos são notórios. Aprimorar a qualidade dos dados exige estabelecer alternativas a partir de vários métodos, técnicas e procedimentos disponíveis. O processo de Avaliação da Qualidade dos Dados - pAQD - provê relevantes insumos na definição da alternativa mais adequada por meio do mapeamento dos defeitos nos dados. Relevantes abordagens computacionais apoiam esse processo. Tais abordagens utilizam métodos quantitativos ou baseados em asserções que usualmente restringem o papel humano a interpretação dos seus resultados. Porém, o pAQD depende do conhecimento do contexto dos dados visto que é impossível confirmar ou refutar a presença de defeitos baseado exclusivamente nos dados. Logo, a supervisão humana é essencial para esse processo. Sistemas de visualização pertencem a uma classe de abordagens supervisionadas que podem tornar visíveis as estruturas dos defeitos nos dados. Apesar do considerável conhecimento sobre o projeto desses sistemas, pouco existe para o domínio da avaliação visual da qualidade dos dados. Isto posto, este trabalho apresenta duas contribuições. A primeira reporta uma taxonomia que descreve os defeitos relacionados aos critérios de qualidade da acuracidade, completude e consistência para dados estruturados e atemporais. Essa taxonomia seguiu uma metodologia que proporcionou a cobertura sistemática e a descrição aprimorada dos defeitos em relação ao estado-da-arte das taxonomias. A segunda contribuição reporta relacionamentos entre propriedades-defeitos que estabelecem que certas propriedades visuais-interativas são mais adequadas para a avaliação visual de certos defeitos em dadas resoluções de dados. Revelados por um estudo de caso múltiplo e exploratório, esses relacionamentos oferecem indicações que reduzem a subjetividade durante o projeto de sistemas de visualização de apoio a avaliação visual da qualidade dos dados. / The effects of poor data quality on the reliability of the outcomes of analytical processes are notorious. Improving data quality requires alternatives that combine procedures, methods, techniques and technologies. The Data Quality Assessment process - DQAp - provides relevant and practical inputs for choosing the most suitable alternative through a data defects mapping. Relevant computational approaches support this process. Such approaches apply quantitative or assertions-based methods that usually limit the human interpretation of their outcomes. However, the DQAp process strongly depends on data context knowledge since it is impossible to confirm or refute a defect based only on data. Hence, human supervision is essential throughout this process. Visualization systems belong to a class of supervised approaches that can make visible data defect structures. Despite their considerable design knowledge encodings, there is little support design to data quality visual assessment. Therefore, this work reports two contributions. The first reports a taxonomy that organizes a detailed description of defects on structured and timeless data related to the quality criteria of accuracy, completeness and consistency. This taxonomy followed a methodology which enabled a systematic coverage of data defects and an improved description of data defects in regard to state-of-art literature. The second contribution reports a set of property-defect relationships that establishes that certain visual and interactive properties are more suitable for visual assessment of certain data defects in a given data resolution. Revealed by an exploratory and multiple study case, these relationships provides implications that reduce the subjectivity in the visualization systems design for data quality visual assessment.
357

L’influence de la qualité de la relation parent-enfant et du sexe sur l’apprentissage de la peur par observation chez les enfants

Bilodeau Houle, Alexe 08 1900 (has links)
L’apprentissage de la peur par observation est un phénomène très important lors de l’enfance, une période au cours de laquelle plusieurs peurs se développent et où l’environnement familial est fondamental. La qualité de la relation parent-enfant module les réactions de peur chez les enfants, mais son impact sur l’apprentissage de la peur par observation n’a pas été investigué. Ce mémoire s’est donc intéressé à l’influence de la relation mère-enfant et père-enfant ainsi qu’à son interaction avec le sexe de l’enfant sur l’apprentissage de la peur par observation. Soixante dyades parent-enfant ont été recrutées. La relation avec chaque parent était évaluée par un questionnaire auto-rapporté complété par les enfants (8 à 12 ans). Les enfants regardaient d’abord une vidéo de leur parent être exposé à un conditionnement de la peur, où un stimulus (SC+Parent) était associé à un léger choc et un autre stimulus (SC-) était présenté seul. Ensuite, les enfants regardaient une vidéo d’un étranger être exposé à un protocole similaire à l’exception qu’un stimulus différent était associé au choc (SC+Étranger). Par la suite, les trois stimuli étaient directement présentés aux enfants. Les niveaux de peur étaient mesurés par les réponses électrodermales. L’effet de la qualité de la relation père-enfant sur les niveaux de peur face au SC+Parent était modéré par le sexe des enfants, où les filles ayant une relation sécurisante avec leur père montraient des niveaux de peur plus faibles. La qualité de la relation mère-enfant n’influençait pas les niveaux de peur des enfants. Ces résultats suggèrent que la relation avec le père influence la façon dont les filles répondent aux stimuli liés à la peur au sein de l’environnement familial. Ces données soulignent certains facteurs de protection face à la vulnérabilité de développer des psychopathologies liées à la peur. / Observational fear learning is especially relevant during childhood, a period during which many fears develop and where the familial environment is salient. Parent-child relationship modulates fear reactions in children, but its impact on observational fear learning in the context of the familial environment has not been investigated. This master’s thesis therefore examined whether the mother-child and father-child relationship quality as well as its interaction with children’s sex influence observational fear learning. Sixty parent-child dyads were recruited. The relationship with each parent was assessed by a self-report questionnaire completed by the children (8 to 12 years old). Children first watched a video of their parent undergoing a fear conditioning procedure, where one stimulus (CS+Parent) was paired with a shock and one was presented alone (CS-). Then, children watched a video of a stranger undergoing a similar protocol except that a different stimulus was paired with the shock (CS+Stranger). Subsequently, the three stimuli were directly presented to children. Fear levels were measured by skin conductance responses. The effect of the father-child relationship quality on fear levels for the CS+Parent was moderated by children’s sex, where girls having a more secure relationship with their father exhibited lower fear levels. The mother-child relationship quality had no impact on the children’s fear levels. These results suggest that the relationship with the father influences how girls respond to fear-related stimuli within the family environment. These data highlight the existence of some protective factors that might influence the vulnerability of developing fear-related psychopathologies.
358

Towards understanding the nature and diversity of small planets in the universe : discovery and initial characterization of Wolf 503 b and LP 791-18 d

Peterson, Merrin 05 1900 (has links)
Avec la découverte de milliers de nouvelles planètes au cours des vingt dernières années, une nouvelle population complexe de planètes plus petites que Neptune et plus grandes que la Terre a été découverte. Ces planètes se divisent en deux groupes : les plus grandes sub-Neptunes avec des atmosphères étendues dominées par H, et les plus petites super-Terres qui ont tout au plus des atmosphères minces. Cette division peut être expliquée par une variété de mécanismes, y compris la photoévaporation, la perte de masse alimentée par le noyau, et la formation de gaz pauvres et vides : la population de petites planètes est probablement façonnée par une combinaison de ces mécanismes qui peut dépendre du type stellaire. Dans ce travail, nous décrivons la découverte de deux nouvelles planètes qui sont bien adaptées à l'étude de la nature de la population des petites planètes : Wolf 503 b et LP 791-18 d. Wolf 503 b est une planète de \(2.03^{+0.08}_{-0.07} R_{\oplus}\) orbitant autour de l'étoile brillante (\(J=8.32\) mag), proche (\(D=44.5\) pc) à mouvement propre élevé K3.5V Wolf 503 (EPIC 212779563). Nous confirmons que la signature du transit K2 est planétaire en utilisant à la fois des images d'archives et des images d'optique adaptative à haut contraste de l'observatoire Palomar. Son rayon place Wolf 503b directement entre les populations de super-Terre et de sub-Neptune, un rayon auquel les planètes sont rarement trouvées et la composition de masse attendue est ambiguë, et la luminosité de l'étoile hôte fait de Wolf 503b une cible de choix pour le suivi des vitesses radiales et la spectroscopie de transit. La deuxième planète que nous présentons est une planète de taille terrestre orbitant autour de la naine froide M6 LP 791-18. La nouvelle planète d rejoint un système bien aligné avec au moins deux autres planètes, la plus externe étant une sous-Neptune, offrant une occasion unique à ce jour d'étudier un système avec une planète de taille terrestre tempérée et une sous-Neptune qui a conservé son enveloppe gazeuse ou volatile. La découverte de LP 791-18d permet de mesurer la masse du système grâce aux variations du temps de transit, et nous trouvons une masse de \( {9.3_{-1.4}^{+1.5}\,M_\oplus}\) pour la sub-Neptune LP 791-18c et une masse de \( {0.8_{-0.4}^{+0.5}\,M_\oplus}\) pour l'exo-Terre LP 791-18d (\({<2.3 M_{\oplus}}\) à 3\( {\sigma}\)). La planète est également soumise à un fort réchauffement continu par les marées, ce qui peut entraîner une activité géologique et un dégazage volcanique. Pour l'avenir, LP 791-18d et Wolf 503b offrent des opportunités uniques d'étudier les origines et la conservation des atmosphères des petites planètes. / With the discovery of thousands of new planets in the past twenty years, a new and complex population of planets has been discovered which are smaller than Neptune and larger than the Earth. These planets are split into two groups: the larger sub-Neptunes with extended H-dominated atmospheres, and the smaller super-Earths which have at most thin atmospheres. This division can be explained by a variety of mechanisms, including photoevaporation, core-powered mass-loss, and gas-poor and gas-empty formation: the small-planet population is likely shaped by a combination of these which may depend on stellar type. In this work we describe the discovery of two new planets which are well-suited to investigating the nature of the small planet population: Wolf 503b and LP 791-18d. Wolf 503 b is a \(2.03^{+0.08}_{-0.07} R_{\oplus}\) planet orbiting the bright (\(J=8.32\) mag), nearby (\(D=44.5\) pc) high proper motion K3.5V star Wolf 503 (EPIC 212779563). We confirm that the K2 transit signature is planetary using both archival images and high-contrast adaptive optics images from the Palomar observatory. Its radius places Wolf 503 b directly between the populations of super-Earths and sub-Neptunes, a radius at which planets are rarely found and the expected bulk composition is ambiguous, and the brightness of the host star makes Wolf 503b a prime target for radial velocity follow-up and transit spectroscopy. The second planet we introduce is an Earth-sized planet orbiting the cool M6 dwarf LP 791-18. The new planet d joins a well-aligned system with at least two more planets, the outermost being a sub-Neptune, providing a to-date unique opportunity to investigate a system with a temperate Earth-sized planet and a sub-Neptune that retained its gas or volatile envelope. The discovery of LP 791-18d makes the system amenable to mass measurements via transit timing variations, and we find a mass of \( {9.3_{-1.4}^{+1.5}\,M_\oplus}\) for the sub-Neptune LP 791-18c and a mass of \( {0.8_{-0.4}^{+0.5}\,M_\oplus}\) for the exo-Earth LP 791-18d (\( {<2.3 M_{\oplus}}\) at 3\( {\sigma}\)). The planet is also subject to strong continued tidal heating, which may result in geological activity and volcanic outgassing. Looking forward, LP 791-18d and Wolf 503b offer unique opportunities to study the origins and retention of small-planet atmospheres.
359

Méthodes de collecte de données pharmacoéconomiques en pratique réelle

Lambert-Obry, Véronique 10 1900 (has links)
Dans un système de santé avec budget limité, l’efficience des différentes options thérapeutiques doit être comparée afin d’assurer une allocation optimale des ressources. À cette fin, l’analyse coût-utilité (ACU) est privilégiée par les agences d’évaluation des technologies de la santé et requiert des données pharmacoéconomiques telles que les coûts et les scores d’utilité. Toutefois, les données pharmacoéconomiques ne sont pas systématiquement collectées lors des essais contrôlés randomisés (ECR). Lorsqu’elles le sont, elles sont soumises aux limites des ECR affectant ainsi la validité externe des résultats. Cela a mené à l’émergence des études en pratique réelle (real-world evidence studies) comme évidence complémentaire aux ECR aux fins de remboursement. Les données en pratique réelle peuvent être des données primaires (recueillies spécifiquement pour répondre à un objectif particulier) ou des données secondaires (données déjà collectées pour répondre à d’autres objectifs). D’importantes données pharmacoéconomiques, telles que l’utilité, la perte de productivité et les coûts non médicaux, étant généralement manquantes dans les banques de données traditionnelles, les chercheurs en pharmacoéconomie doivent parfois générer leurs propres données. Néanmoins, il n’existe pas de lignes directrices spécifiques pour guider les chercheurs désirant générer des données pharmacoéconomiques en pratique réelle. Le but de cette thèse était d’étudier et contribuer à l’amélioration des pratiques méthodologiques pour la génération de données pharmacoéconomiques en pratique réelle. Précisément, l’objectif du volet 1 était donc de caractériser les pratiques méthodologiques des études collectant des données de pharmacoéconomie et d’évaluer la qualité des résultats obtenus. Une revue systématique de la littérature a permis de confirmer certaines craintes face aux études de pratique réelle, c’est-à-dire le manque de transparence et de crédibilité. Le volet 1 a mis de l’avant le besoin d’améliorer les méthodologies actuelles qui ne produisent pas toujours des résultats robustes, pouvant ainsi affecter la validité et la pertinence des évaluations économiques. Un cadre de recherche spécifique à la collecte de données pharmacoéconomiques en pratique réelle pourrait augmenter la qualité des résultats générés. L’objectif du volet 2 était donc d’identifier les lignes directrices spécifiques à la génération de données d’utilité. Ensuite, d’incorporer les bonnes pratiques méthodologiques dans une boîte à outils destinée spécifiquement aux investigateurs cherchant à générer des valeurs d’utilité en pratique réelle. Bien que cette thèse englobe plus largement l’ensemble des données pharmacoéconomiques, telles que les coûts et l’utilité, la boîte à outils se concentre sur les scores d’utilité uniquement. Il s’agit d’un premier pas vers des lignes directrices officielles fournissant des bonnes pratiques méthodologiques pour la conception et conduite d’études en pharmacoéconomie. Pour ce qui est du volet 3, l’objectif était de mettre en pratique la boîte à outils en rédigeant un protocole de recherche de qualité, pertinent et applicable à la réalité des chercheurs en pratique réelle. Précisément, d’utiliser les recommandations de la boîte à outils afin de mettre en place un devis d’étude et des procédures d’étude qui limitent le risque de biais. Cette thèse contribue à l’avancement des bonnes pratiques et sensibilise la communauté de chercheurs à viser un niveau hiérarchique d’évidence plus élevé. La standardisation des méthodologies pour générer des données pharmacoéconomiques en pratique réelle est un besoin qui demeure non comblé. / In a resource-constrained healthcare system, the effectiveness of various therapeutic interventions must be compared by the means of economic evaluations to ensure optimal resource allocation. The cost-utility analysis (CUA) is favored by health technology assessment (HTA) agencies, and requires health economics and outcomes research (HEOR) data such as costs and utilities. Although they have gained prominence, HEOR data are not systematically collected in randomized controlled trials (RCTs). Even if they were, RCTs are well-known to have inherent limitations leading to a low external validity. Consequently, real-world evidence (RWE) studies have been used as complementary evidence in reimbursement decision-making. Real-world data can be primary data (specifically collected to achieve a certain objective) or secondary data (data that have already been collected for other purposes). However, important HEOR data, such as utility scores, productivity and non-medical costs, are not routinely collected in traditional databases. Therefore, HEOR investigators may need to generate their own pharmacoeconomic data. Nevertheless, there is no single guideline for investigators seeking guidance on methodological steps to estimate HEOR data in a real-world setting. The goal of this thesis was to study and improve good practices for HEOR data generation in a real-world setting. Specifically, the objective of the first article was to characterize methodological practices for collecting HEOR data as well as critically appraise the quality of the results. The systematic literature review confirmed concerns about RWE studies, namely the lack of transparency and credibility. The first article highlighted the need for good practices as current methodologies may not generate robust estimates, thereby affecting the validity and relevance of economic evaluations. A research framework specifically designed for HEOR data collection in a real-world setting could help improve the quality of results. Thus, the objective of the second article was to review current recommendations for health state utility (HSU) generation, and incorporate methodological standards into a single toolbox intended for investigators seeking to collect HSU in a real-world setting. Although this thesis broadly encompasses HEOR data, such as costs and utilities, the toolbox focuses on utility scores only. This is a first step toward official guidelines providing good practice recommendations for designing and conducting HEOR studies. As for the third article, the objective was to use the toolbox to develop a study protocol that is relevant, realistic and of good methodological quality. The recommendations of the toolbox were followed to design the study and limit bias. This thesis provides good practices to help generate high quality HEOR estimates, and motivate investigators to improve the level of evidence to be generated. Standardization of RWE studies collecting HSU has yet to come.
360

Methodological challenges in the comparative assessment of effectiveness and safety of oral anticoagulants in individuals with atrial fibrillation using administrative healthcare data

Gubaidullina, Liliya 08 1900 (has links)
La fibrillation auriculaire (FA), l’arythmie cardiaque la plus courante est un facteur de risque majeur pour le développement de l’accident vasculaire cérébral ischémique (AVC). Les anticoagulants oraux directs (AOD) ont largement remplacé la warfarine en usage clinique pour la prévention des AVC dans la FA. Cette recherche a examiné deux défis méthodologiques importants qui peuvent survenir dans les études observationnelles sur l’efficacité et l’innocuité comparatives des AOD et de la warfarine. Premièrement : un biais d’information résultant d’une classification erronée de l’exposition au traitement à la warfarine suite aux ajustements de doses fréquentes qui ne sont pas adéquatement consignés dans les données de dispensations pharmacologiques. Deuxièmement : un biais de sélection, en raison de la censure informative, généré par des mécanismes de censure différentiels, chez les patients exposés aux AOD, ou à la warfarine. À l’aide des données administratives du Québec, j’ai mené trois études de cohortes rétrospectives qui ont portées sur toutes les personnes ayant initié un anticoagulant oral de 2010 à 2016. Ces études étaient restreintes aux résidents du Québec couverts par le régime public d'assurance médicaments (environ 40% de la population au Québec), c’est-à-dire : des personnes âgées de 65 ans et plus; des bénéficiaires de l’aide sociale; des personnes qui n’ont pas accès à une assurance-maladie privée; et les personnes à leur charge. Dans la première étude, nous avons émis l'hypothèse que les données sur les réclamations en pharmacie ne reflètent pas correctement la durée de la dispensation de la warfarine. Les écarts entre les renouvellements consécutifs étaient plus grands pour la warfarine que les AOD. Dans cette étude, on a trouvé que l'écart moyen pour les usagers de la warfarine était de 9.3 jours (avec un intervalle de confiance de 95% [IC]: 8.97-9.59), l'apixaban de 3.08 jours (IC de 95%: 2.96--3.20), et de 3.15 jours pour le rivaroxaban (IC de 95%: 3.03-3.27). Les écarts entre les renouvellements consécutifs présentaient une plus grande variabilité chez les personnes qui prenaient de la warfarine comparativement à celles qui prenaient des AOD. Cette variation peut refléter les changements de posologie de la warfarine lorsque la dose quotidienne est ajustée par le professionnel de la santé en fonction des résultats du rapport normalisé international (INR). L’ajustement de la dose peut prolonger (ou raccourcir) la période couverte par le nombre de comprimés délivrés. Dans la deuxième étude, nous avons émis l'hypothèse que la définition de la durée d'exposition basée sur la variable des « jours fournis », disponible dans la base de données, et le délai de grâce fixe, entraîneront une erreur de classification différentielle de l’exposition à la warfarine par rapport aux AOD. Dans cette étude, on a utilisé deux approches pour définir la durée des dispensations : la variable des « jours fournis » disponible dans la base de données ainsi qu’une approche axée sur les données pour la définition de la durée de dispensation qui tient compte des antécédents de distribution précédents. La deuxième étude a révélé qu'en utilisant la variable des « jours fournis », la durée moyenne (et l'écart type) des durées des dispensations pour le dabigatran, le rivaroxaban, et la warfarine étaient de 19 (15), 19 (14), et de 13 (12) jours, respectivement. En utilisant l’approche fondée sur des données, les durées étaient de 20 (16), 19 (15), et de 15 (16) jours, respectivement. Ainsi, l'approche fondée sur les données s’est rapprochée de la variable des « jours fournis » pour les thérapies à dose standard telles que le dabigatran et le rivaroxaban. Une approche axée sur les données pour la définition de la durée de dispensation, qui tient compte des antécédents de distribution précédents, permet de mieux saisir la variabilité de la durée de dispensation de la warfarine par rapport à la méthode basée sur la variable des « jours fournis ». Toutefois, cela n’a pas eu d’impact sur les estimations du rapport de risque sur la sécurité comparative des AOD par rapport à la warfarine. Dans la troisième étude, nous avons émis l'hypothèse que lors de l'évaluation de l’effet d’un traitement continu avec des anticoagulants oraux (l'analyse per-protocole), la censure élimine les patients les plus malades du groupe des AOD et des patients en meilleure santé du groupe de warfarine. Cela peut baisser l'estimation de l'efficacité et de l'innocuité comparative en faveur des AOD. L’étude a démontré que les mécanismes de censure chez les initiateurs d’AOD et de warfarine étaient différents. Ainsi, certaines covariables pronostiquement significatives, telles que l’insuffisance rénale chronique et l’insuffisance cardiaque congestive, étaient associées avec une augmentation de la probabilité de censure chez les initiateurs d’AOD, et une diminution de la probabilité de censure chez les initiateurs de warfarine. Pour corriger le biais de sélection introduit par la censure, nous avons appliqué la méthode de pondération par la probabilité inverse de censure. Deux stratégies de spécification du modèle pour l’estimation des poids de censure ont été explorées : le modèle non stratifié, et le modèle stratifié en fonction de l’exposition. L’étude a démontré que lorsque les poids de censure sont générés sans tenir compte des dynamiques de censure spécifiques, les estimés ponctuels sont biaisés de 15% en faveur des AOD par rapport à l'ajustement des estimés ponctuels avec des poids de censure stratifiée selon l’exposition (rapport de risque: 1.41; IC de 95%: 1.34, 1.48 et rapport de risque: 1.26; IC de 95%: 1.20, 1.33, respectivement). Dans l’ensemble, les résultats de cette thèse ont d’importantes implications méthodologiques pour les futures études pharmacoépidémiologiques. À la lumière de ceux-ci, les résultats des études observationnelles précédentes peuvent être revus et une certaine hétérogénéité peut être expliquée. Les résultats pourraient également être extrapolés à d’autres questions cliniques. / Atrial fibrillation (AF), the most common cardiac arrhythmia is a major risk factor for the development of ischemic stroke. Direct oral anticoagulants (DOACs) replaced warfarin in clinical use for stroke prevention in AF. This research investigated two important methodological challenges that may arise in observational studies on the comparative effectiveness and safety of DOACs and warfarin. First, an information bias resulting from misclassification of exposure to dose-varying warfarin therapy when using days supplied value recorded in pharmacy claims data. Second, a selection bias due to informative censoring with differential censoring mechanisms in the DOACs- and the warfarin exposure groups. Using the Québec administrative databases, I conducted three retrospective cohort studies that included patients initiating an oral anticoagulant between 2010 and 2016. The studies were restricted to Québec residents covered by the public drug insurance plan (about 40% of Québec’s population), including those aged 65 years and older, welfare recipients, those not covered by private medical insurance, and their dependents. In the first study, we hypothesized that pharmacy claims data inadequately captured the duration of the dispensation of warfarin. Gaps between subsequent dispensations (refill gaps) and their variation are larger for warfarin than for DOACs. In this study, we found that the average refill gap for the users of warfarin was 9.3 days (95% confidence interval [CI]:8.97-9.59), apixaban 3.08 days (95%CI: 2.96--3.20), dabigatran 3.70 days (95%CI: 3.56-3.84) and rivaroxaban 3.15 days (95%CI: 3.03-3.27). The variance of refill gaps was greater among warfarin users than among DOAC users. This variation may reflect the changes in warfarin posology when the daily dose is adjusted by a physician or a pharmacist based on previously observed international normalized ratio (INR) results. The dose adjustment may lead to a prolongation of the period covered by the number of dispensed pills. In the second study, we hypothesized that the definition of duration of dispensation based on the days supplied value and a fixed grace period will lead to differential misclassification of exposure to warfarin and DOACs. This may bias the estimate of comparative safety in favor of DOACs. In this study, we used two approaches to define the duration of dispensations: the recorded days supplied value, and the longitudinal coverage approximation (data-driven) that may account for individual variation in drug usage patterns. The second study found that using the days supplied, the mean (and standard deviation) dispensation durations for dabigatran, rivaroxaban, and warfarin were 19 (15), 19 (14), and 13 (12) days, respectively. Using the data-driven approach, the durations were 20 (16), 19 (15), and 15 (16) days, respectively. Thus, the data-driven approach closely approximated the recorded days supplied value for the standard dose therapies such as dabigatran and rivaroxaban. For warfarin, the data-driven approach captured more variability in the duration of dispensations compared to the days supplied value, which may better reflect the true drug-taking behavior of warfarin. However, this did not impact the hazard ratio estimates on the comparative safety of DOACs vs. warfarin. In the third study, we hypothesized that when assessing the effect of continuous treatment with oral anticoagulants (per-protocol effect), censoring removes sicker patients from the DOACs group and healthier patients from the warfarin group. This may bias the estimate of comparative effectiveness and safety in favor of DOACs. The study showed that the mechanisms of censoring in the DOAC and the warfarin exposure groups were different. Thus, prognostically meaningful covariates, such as chronic renal failure and congestive heart failure, had an opposite direction of association with the probability of censoring in the DOACs and warfarin groups. To correct the selection bias introduced by censoring, we applied the inverse probability of censoring weights. Two strategies for the specification of the model for the estimation of censoring weights were explored: exposure-unstratified and exposure-stratified. The study found that exposure-unstratified censoring weights did not account for the differential mechanism of censoring across the treatment group and failed to eliminate the selection bias. The hazard ratio associated with continuous treatment with warfarin versus DOACs adjusted with exposure unstratified censoring weights was 15% biased in favor of DOACs compared to the hazard ratio adjusted with exposure-stratified censoring weights (hazard ratio: 1.41; 95% CI: 1.34, 1.48 and hazard ratio: 1.26; 95%CI: 1.20, 1.33, respectively). Overall, the findings of this thesis have important methodological implications for future pharmacoepidemiologic studies. Moreover, the results of the previous observational studies can be reappraised, and some heterogeneity can be explained. The findings can be extrapolated to other clinical questions.

Page generated in 0.1073 seconds