• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 197
  • 43
  • 1
  • Tagged with
  • 568
  • 308
  • 119
  • 70
  • 63
  • 62
  • 58
  • 57
  • 56
  • 54
  • 50
  • 48
  • 45
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Ab initio prediction of crystalline phases and their electronic properties : from ambient to extreme pressures / Étude ab initio des structures cristallines et de leurs propriétés électroniques : des conditions ambiantes jusqu’aux pressions extrêmes

Shi, Jingming 06 July 2017 (has links)
Dans cette thèse nous utilisons des méthodes globaux de prédiction des structures cristallographiques combinés à des techniques de grande capacité de traitement de données afin de prédire la structure cristalline de différents systèmes et dans des conditions thermodynamiques variées. Nous avons réalisé des prédictions structurales utilisant l'analyse cristalline par optimisation par essaims particuliers (CALYPSO) combinés avec la Théorie Fonctionnel de la Densité (DFT) ce qui a permis de mettre en évidence la stabilité de plusieurs composés jusqu'à la inconnus dans le digramme de phases du système Ba-Si et dans le système N-H-O. Nous avons également réalisé une étude à haute capacité de traitement de données sur un système ternaire de composition ABX2. Nous avons utilisé la Théorie Fonctionnel de la Densité combinant calculs de prototypes structuraux à partir des prédictions structurelles avec la méthode. Dans les paragraphes suivants nous résumons le contenu de différents chapitres de cette thèse. Le premier chapitre qui constitue une brève introduction au travail de cette thèse est suivi du chapitre 2 présentant les aspects théoriques utilisés dans ce travail. D'abord il est fait une brève introduction à la Théorie Fonctionnel de la Densité. A continuation nous décrivons quelques fonctions d'échange-corrélation choisies qui constituent des approximations rendant l'utilisation de la DFT efficace. Ensuite nous présentons différents procédés de prédiction structurale, et en particulier les algorithmes d'optimisation par essaims particuliers et de « Minima Hopping » qeu nous avons utilisés dans cette thèse. Finalement il est discuté comment doit-on se prendre pour évaluer la stabilité thermodynamique des nouvelles phases identifiées. Dans le chapitre 3, nous considérons le système Ba-Si. A travers l'utilisation d'une recherche structurale non-biaisée basée sur l'algorithme d'optimisation par essaims particuliers combinée avec des calculs DFT, nous faisons une étude systématique de la stabilité des phases et de la diversité structurale du système binaire Ba-Si sous haute pression. Le diagramme de phases résultant est assez complexe avec plusieurs compositions se stabilisant et se déstabilisant en fonction de la pression. En particulier, nous avons identifié des nouvelles phases de stœchiométrie BaSi, BaSi2, BaSi3 et BaSi5 qui devraient pouvoir être synthétisées expérimentalement dans un domaine de pressions étendu. Dans le chapitre 4 est présentée notre étude du diagramme de phases du système N-H-O. S'appuyant sur une recherche structural «évolutive » de type ab initio, nous prédisons deux nouvelles phases du système ternaire N-H-O qui sont NOH4 et HNO3 à de pressions allant jusqu'à 150 GPa. La nouvelle phase de NOH4 est stable entre 71 et 150 GPa, tandis que HNO3 est stable entre 39 et 150 GPa (la pression maximum de cette étude). Ces deux nouvelles phases sont lamellaires. Nous confirmons également que la composition NOH5 perd son stabilité pour des pressions supérieures à 122 GPa se décomposant en NH3 et H2O à cette pression. Le chapitre 5 se focalise sur les électrodes transparentes de type-p à base des chalcogénures ternaires. Nous utilisons une approche à grande capacité de traitement de données basée sur la DFT pour obtenir la delafossite et d'autres phases voisines de composition ABX2. Nous trouvons 79 systèmes qui sont absents de la base de données « Materials project database », qui sont stables du point de vue thermodynamique et qui cristallisent soit dans la structure delafossite, soit dans des structures très proches. Cette caractérisation révèle une grande diversité de propriétés allant depuis les métaux ordinaires aux métaux magnétiques et permettant d'identifier quelques candidats pour des électrodes transparents de type-p. Nous présentons enfin à la fin du manuscrit nos conclusions générales et les perspectives de ce travail / In this thesis we use global structural prediction methods (Particle Swarm Optimization and Minima Hopping Method) and high-throughput techniques to predict crystal structures of different systems under different conditions. We performed structural prediction by using the Crystal structure Analysis by Particle Swarm Optimization (CALYPSO) combined with Density Functional Theory (DFT) that made possible to unveil several stable compounds, so far unknown, on the phase diagrams of Ba-Si systerm and N-H-O system. Afterwards, we performed a high-throughput investigation on ternary compounds of composition ABX2, where A and B are elements of the periodic table up to Bi, and X is a chalcogen (O, S, Se, and Te) by using density functional theory and combining calculations of crystal prototypes with structural prediction (Minima Hopping Method). The following paragraphs summarize the content by chapter of this document. Chapter 1 is a short introduction of this thesis. Chapter 2 consists of the basic theory used in this thesis. Firstly, a short introduction of Density Function Theory (DFT) is presented. Then, we describe some approximate exchange- correlation functions that make DFT practical. Next, we introduce different structural prediction algorithms, especially Particle Swarm Optimization and Minima Hopping Method which we used in this thesis. Finally, we discuss the thermodynamic stablility criteria for a new a new structure. In Chapter 3, we first consider Ba–Si system. Using an unbiased structural search based on a particle-swarm optimization algorithm combined with DFT calculations, we investigate systematically the ground-state phase stability and structural diversity of Ba–Si binaries under high pressure. The phase diagram turns out to be quite intricate, with several compositions stabilizing/destabilizing as a function of pressure. In particular, we identify novel phases of BaSi, BaSi2, BaSi3, and BaSi5 that might be synthesizable experimentally over a wide range of pressures. Chapter 4 contains the investigation of the phases diagram of the N–H–O system. By using ab initio evolutionary structural search, we report the prediction of two novel phases of the N–H–O ternary system, namely NOH4 and HNO3 (nitric acid) at pressure up to 150 GPa. Our calculations show that the new C2/m phase of NOH4 is stable under a large range of pressure from 71 GPa to 150 GPa while the P21/m phase of HNO3 (nitric acid) is stable from 39 GPa to 150 GPa (the maximum pressure which we have studied). We also confirmed that the composition NOH5 (NH3H2O) becomes unstable for pressures above 122 GPa. It decomposes into NH3 and H2O at this pressure. Chapter 5 focuses on p-type transparent electrodes of ternary chalcogenides. We use a high-throughput approach based on DFT to find delafossite and related layered phases of composition ABX2, where A and B are elements of the periodic table, and X is a chalcogen (O, S, Se, and Te). From the 15 624 compounds studied in the trigonal delafossite prototype structure, 285 are within 50 meV/atom from the convex hull of stability. These compounds are further investigated using global structural prediction methods to obtain their lowest- energy crystal structure. We find 79 systems not present in the "Materials project database" that are thermodynamically stable and crystallize in the delafossite or in closely related structures. These novel phases are then characterized by calculating their band gaps and hole effective masses. This characterization unveils a large diversity of properties, ranging from normal metals, magnetic metals, and some candidate compounds for p-type transparent electrodes. At the end of the thesis, we give our general conclusion and an outlook
92

Aide à la sélection de cibles pour des environnements de réalité virtuelle / Assistance tools for target selection in virtual reality environments

Wonner, Jonathan 16 December 2013 (has links)
La sélection d'entités est une des tâches courantes et fondamentales de l'interaction. En environnement de réalité virtuelle, cette tâche s'effectue dans les trois dimensions, mais s'accompagne de difficultés inhérentes à ces environnements, comme une mauvaise perception de la profondeur. Des techniques existent pour pallier ces obstacles. Nous présentons trois nouvelles méthodes améliorant les performances de l'utilisateur durant les différentes étapes du processus de sélection. Le principe du Ring Concept permet de localiser des objets non visibles dans la scène. La technique Starfish guide le mouvement de l'utilisateur vers sa cible. Enfin, l'algorithme SPEED prédit le point d'arrivée d'un mouvement de sélection. / Selection is one of the most current and fundamental interaction tasks. In a virtual reality environment, this task is performed in the three dimensions, but is accompanied by difficulties inherent in these environments, such as poor depth perception. Several techniques exist to overcome these obstacles. We present three new methods for improving the performance of the user during the various phases of the selection process. The Ring Concept principle can locate non-visible objects in the scene. The Starfish technique guides the movement of the user to the target. Finally, the SPEED algorithm predicts the endpoint of a selection movement.
93

Second-order prediction and residue vector quantization for video compression / Prédiction de second ordre et résidu par quantification vectorielle pour la compression vidéo

Huang, Bihong 08 July 2015 (has links)
La compression vidéo est une étape cruciale pour une grande partie des applications de télécommunication. Depuis l'avènement de la norme H.261/MPEG-2, un nouveau standard de compression vidéo est produit tous les 10 ans environ, avec un gain en compression de 50% par rapport à la précédente. L'objectif de la thèse est d'obtenir des gains en compression par rapport à la dernière norme de codage vidéo HEVC. Dans cette thèse, nous proposons trois approches pour améliorer la compression vidéo en exploitant les corrélations du résidu de prédiction intra. Une première approche basée sur l'utilisation de résidus précédemment décodés montre que, si des gains sont théoriquement possibles, le surcoût de la signalisation les réduit pratiquement à néant. Une deuxième approche basée sur la quantification vectorielle mode-dépendent (MDVQ) du résidu préalablement à l'étape classique transformée-quantification scalaire, permet d'obtenir des gains substantiels. Nous montrons que cette approche est réaliste, car les dictionnaires sont indépendants du QP et de petite taille. Enfin, une troisième approche propose de rendre adaptatif les dictionnaires utilisés en MDVQ. Un gain substantiel est apporté par l'adaptivité, surtout lorsque le contenu vidéo est atypique, tandis que la complexité de décodage reste bien contenue. Au final on obtient un compromis gain-complexité compatible avec une soumission en normalisation. / Video compression has become a mandatory step in a wide range of digital video applications. Since the development of the block-based hybrid coding approach in the H.261/MPEG-2 standard, new coding standard was ratified every ten years and each new standard achieved approximately 50% bit rate reduction compared to its predecessor without sacrificing the picture quality. However, due to the ever-increasing bit rate required for the transmission of HD and Beyond-HD formats within a limited bandwidth, there is always a requirement to develop new video compression technologies which provide higher coding efficiency than the current HEVC video coding standard. In this thesis, we proposed three approaches to improve the intra coding efficiency of the HEVC standard by exploiting the correlation of intra prediction residue. A first approach based on the use of previously decoded residue shows that even though gains are theoretically possible, the extra cost of signaling could negate the benefit of residual prediction. A second approach based on Mode Dependent Vector Quantization (MDVQ) prior to the conventional transformed scalar quantization step provides significant coding gains. We show that this approach is realistic because the dictionaries are independent of QP and of a reasonable size. Finally, a third approach is developed to modify dictionaries gradually to adapt to the intra prediction residue. A substantial gain is provided by the adaptivity, especially when the video content is atypical, without increasing the decoding complexity. In the end we get a compromise of complexity and gain for a submission in standardization.
94

Prédiction de performance d'algorithmes de traitement d'images sur différentes architectures hardwares / Image processing algorithm performance prediction on different hardware architectures

Soucies, Nicolas 07 May 2015 (has links)
Dans le contexte de la vision par ordinateur, le choix d’une architecture de calcul est devenu de plus en plus complexe pour un spécialiste du traitement d’images. Le nombre d’architectures permettant de résoudre des algorithmes de traitement d’images augmente d’année en année. Ces algorithmes s’intègrent dans des cadres eux-mêmes de plus en plus complexes répondant à de multiples contraintes, que ce soit en terme de capacité de calculs, mais aussi en terme de consommation ou d’encombrement. A ces contraintes s’ajoute le nombre grandissant de types d’architectures de calculs pouvant répondre aux besoins d’une application (CPU, GPU, FPGA). L’enjeu principal de l’étude est la prédiction de la performance d’un système, cette prédiction pouvant être réalisée en phase amont d’un projet de développement dans le domaine de la vision. Dans un cadre de développement, industriel ou de recherche, l’impact en termes de réduction des coûts de développement, est d’autant plus important que le choix de l’architecture de calcul est réalisé tôt. De nombreux outils et méthodes d’évaluation de la performance ont été développés mais ceux-ci, se concentrent rarement sur un domaine précis et ne permettent pas d’évaluer la performance sans une étude complète du code ou sans la réalisation de tests sur l’architecture étudiée. Notre but étant de s’affranchir totalement de benchmark, nous nous sommes concentrés sur le domaine du traitement d’images pour pouvoir décomposer les algorithmes du domaine en éléments simples ici nommées briques élémentaires. Dans cette optique, un nouveau paradigme qui repose sur une décomposition de tout algorithme de traitement d’images en ces briques élémentaires a été conçu. Une méthode est proposée pour modéliser ces briques en fonction de paramètres software et hardwares. L’étude démontre que la décomposition en briques élémentaires est réalisable et que ces briques élémentaires peuvent être modélisées. Les premiers tests sur différentes architectures avec des données réelles et des algorithmes comme la convolution et les ondelettes ont permis de valider l'approche. Ce paradigme est un premier pas vers la réalisation d’un outil qui permettra de proposer des architectures pour le traitement d’images et d’aider à l’optimisation d’un programme dans ce domaine. / In computer vision, the choice of a computing architecture is becoming more difficult for image processing experts. Indeed, the number of architectures allowing the computation of image processing algorithms is increasing. Moreover, the number of computer vision applications constrained by computing capacity, power consumption and size is increasing. Furthermore, selecting an hardware architecture, as CPU, GPU or FPGA is also an important issue when considering computer vision applications.The main goal of this study is to predict the system performance in the beginning of a computer vision project. Indeed, for a manufacturer or even a researcher, selecting the computing architecture should be done as soon as possible to minimize the impact on development.A large variety of methods and tools has been developed to predict the performance of computing systems. However, they do not cover a specific area and they cannot predict the performance without analyzing the code or making some benchmarks on architectures. In this works, we specially focus on the prediction of the performance of computer vision algorithms without the need for benchmarking. This allows splitting the image processing algorithms in primitive blocks.In this context, a new paradigm based on splitting every image processing algorithms in primitive blocks has been developed. Furthermore, we propose a method to model the primitive blocks according to the software and hardware parameters. The decomposition in primitive blocks and their modeling was demonstrated to be possible. Herein, the performed experiences, on different architectures, with real data, using algorithms as convolution and wavelets validated the proposed paradigm. This approach is a first step towards the development of a tool allowing to help choosing hardware architecture and optimizing image processing algorithms.
95

Construction et validation des modèles de prédiction : étude des utilités / Prediction model building and evaluation : study of utilities

Cortet, Marion 29 October 2015 (has links)
La médecine est demandeuse de prédictions. Cette question de la prédiction se pose à différents moments de la prise en charge du patient, au moment du diagnostic, au moment de l'évaluation du pronostic et au moment du suivi, pour prendre les meilleures décisions possibles en termes de choix d'examens complémentaires et de choix de thérapeutique. La prédiction permet d'apporter une information au médecin et au patient pour prendre la décision. Pour construire ces modèles de prédiction, on dispose de bases de données qui nous permettent d'évaluer l'association entre des données cliniques ou biologiques et la probabilité de survenue d'un évènement. Pour quantifier ces associations, on utilise des modèles de régression logistique qui sont estimés d'après la méthode du maximum de vraisemblance. Pour évaluer ces modèles, on dispose de différents critères, qui quantifient leur adéquation, leur capacité de discrimination, leur calibration. Ces modèles vont nous permettre de prendre une décision. Les erreurs de prédiction vont mener à des erreurs de décision. Les conséquences de ces décisions sont quantifiables grâce à la théorie des utilités. C'est donc un critère quantifiant l'utilité du modèle qui nous permet de choisir le modèle le plus utile. La construction de modèles de prédiction est particulièrement importante dans le domaine clinique de l'obstétrique. En effet, il est important dans le cas des hémorragies de la délivrance de prévenir l'aggravation de la situation, et donc de distinguer les patientes qui vont s'aggraver très rapidement. Le taux de fibrinogène a été étudié, comme prédicteur d'une évolution grave de l'hémorragie. Les variables cliniques disponibles au moment du diagnostic ont ensuite été étudiées. Dans la situation de la rupture prématurée des membranes, il existe un choix à faire entre deux décisions qui induisent une morbidité néonatale et maternelle : la naissance prématurée et le risque de chorioamniotite. Des marqueurs du risque de chorioamniotite pourraient donc faciliter la prise de décision en augmentant l'information pour le clinicien. De plus en plus de modèles de prédiction sont développés dans toutes les situations cliniques. Il faut rester critique vis-à-vis de ces modèles. Leur évaluation doit tenir compte de leur utilisation, et doit donc tenir compte de leur utilité en situation de prise de décision / Medicine asks for prediction. Prediction is needed at different point in the management of a patient. To take the best decision as possible for complementary exams, or therapeutics. Prediction gives an information to the practitioner and the patient, to take a decision. To build these prediction models, we have data bases. The association between clinical or biological data and the outcome probability can be estimated thanks to these data bases. To measure these associations, logistic regression models are used. They are estimated with maximum likelihood method. To evaluate these models, different criteria exist. These criteria quantify adequacy, discrimination capacity, calibration. These models help to take a decision. Prediction errors lead to decision errors. Consequences of these decisions are measurable with utility theory. Therefore, it is a criteria that measure utility of a model that enables us to select the most useful model. Prediction model building is an important point in obstetrics. Indeed, in case of postpartum haemorrhage, it is important to prevent worsening of the clinical situation, and therefore, to identify patient who will worsen fastly. Fibrinogen level was studied as a predictor of severe postpartum haemorrhage. Clinical variables availables at diagnosis of postpartum haemorrhage was then studied. In case of preterm premature rupture of membranes, there is a decision to take, between two choices that may lead to maternal of neonatal morbidity: preterm birth and chorioamnionitis risk with pregnancy continuation. Markers of chorioamnionitis risk may help the practitioners for decision making, by increasing the information. More and more prediction models are developed in all clinical situations. We must be critical before using these models in real life. Their evaluation must take into account their use, and therefore, their utility in case of decision making
96

Prédiction de survie sur des données cliniques censurées et application à la MPOC

Bach, Aurélien January 2017 (has links)
La Maladie Pulmonaire Obstructive Chronique est une maladie respiratoire causée principalement par le tabagisme et touchant le plus souvent des personnes âgées de plus de quarante ans. Parce qu’elle est responsable du plus haut taux de réadmission ainsi que de la troisième cause de décès en Amérique du Nord et dans le reste du monde, les chercheurs et cliniciens s’intéressent à prédire le risque auquel les patients font face, de sorte à améliorer les soins et les traitements tout en optimisant les prestations des services de santé. Dans le domaine de l’analyse de survie, on s’intéresse à deux types de prédiction. Dans un premier temps, il s’agit de prédire le temps avant qu’un évènement particulier ne survienne, à savoir une éventuelle réhospitalisation ou un décès. Dans un second temps, il s’agit de prédire le groupe de risque auquel appartiennent les patients en utilisant des méthodes de classification sur deux types d’indicateur que nous définirons. Le point clé de cette étude consiste à analyser l’impact des données censurées sur la qualité des prédictions.
97

Endommagement en corrosion intergranulaire de l'alliage d'aluminium 2024 : mécanismes et cinétiques de propagation / Intergranular corrosion damage of the 2024 aluminium alloy : mechanisms and propagation kinetics

Bonfils-Lahovary, Marie-Laëtitia de 20 October 2017 (has links)
La prédiction des durées de vie des pièces de structures aéronautiques a toujours été une problématique à la fois complexe et capitale dans ce domaine de l’industrie. Néanmoins, la majorité des tests existant à l’heure actuelle cherche à évaluer la capacité des matériaux à résister aux sollicitations mécaniques notamment en fatigue. Les problématiques liées à l’endommagement causé par l’environnement comme la corrosion sont encore mal comprises. En effet, bien que certains tests permettent de détecter et de caractériser cet endommagement, aucun outil fiable de prédiction des vitesses de propagation des défauts de corrosion intergranulaire n’existe. Ainsi, actuellement, un défaut de corrosion détecté induit systématiquement un changement de la pièce. Les travaux de cette thèse s’inscrivent dans cette problématique ; ils ont pour but de comprendre les phénomènes de corrosion intergranulaire sur l’alliage d’aluminium 2024, le plus utilisé dans le secteur aéronautique, et d’étudier les cinétiques de propagation des défauts de corrosion. L’étude s’appuie sur une approche multi-échelle des processus de corrosion, des états microstructuraux et de l’influence de l’hydrogène. Ce projet s’inscrit également dans une dynamique de collaboration avec Airbus Group et l’Université de Bourgogne dans le cadre du projet ANR M-SCOT (Multi-Scale Corrosion Testing ANR-14-CE07-0027-01). / Nowadays, cracks kinetics is a key point in aircraft risk and reliability analysis. In particular, the propagation of corrosion defects is of special interest and could promote an early mechanical crack initiation. However, today most of the tests are calibrated to control mechanical damage and do not take into account the propagation of the corrosion defects. Indeed, when a corrosion defect is observed, the airplane part is automatically changed which leads to high manufacturing costs. The aim of this work is to understand the intergranular corrosion mechanisms and to study the propagation kinetics of the corrosion defects in an aeronautical reference alloy, i.e. the 2024-T351 aluminium alloy. A multiscale approach of the corrosion processes, the microstructural states as well as hydrogen influence was performed. This work is supported by ANR-14-CE07-0027-01 – M-SCOT: Multi Scale COrrosion Testing.
98

Intelligent control and power flow optimization of microgrid : energy management strategies / Contrôle intelligent et optimisation des flux de puissance au sein d'un micro-réseau électrique : stratégies de gestion d'énergie

Wang, Baochao 12 December 2013 (has links)
La production intermittente et aléatoire des énergies renouvelables, sources photovoltaïques et éoliennes, est toujours un problème pour leur intégration massive dans le réseau public. L'une des solutions est de grouper des sources renouvelables, des sources traditionnelles, des dispositifs de stockage et des charges locales, et les traiter comme une seule unité dans le réseau public. Il s'agit du concept "micro-réseau". Un micro-réseau a des potentiels pour mieux répondre aux besoins de l'utilisateur final et du réseau public, et il facilite la mise en œuvre de futur smart grid, soit le réseau intelligent.Basé sur un micro-réseau représentatif en zone urbaine et intégré aux bâtiments, cette thèse propose une supervision multicouche, afin d'effectuer une étude systémique en mettant en exergue un verrou scientifique concernant l'implémentation d'une optimisation dans l'exploitation en temps réel.La supervision traite un ensemble d’opérations telles que : l'équilibré des puissances,l'optimisation des coûts énergétiques, utilisation de métadonnées, et échange d'informations avec le réseau intelligent et avec l'utilisateur final. Cette supervision a été validée par des tests expérimentaux. Malgré les incertitudes concernant les prévisions météorologiques, la faisabilité d'implémentation de l'optimisation dans l'exploitation réelle est vérifiée. La supervision proposée est en mesure de gérer efficacement les flux en assurant l'équilibre des puissances dans tous les cas. Néanmoins, la performance d'optimisation est liée aux précisions de prédiction. Ce problème peut être amélioré dans les travaux futurs par la mise à jour des résultats d'optimisation en temps réel. / The intermittent and random production of renewable sources, such as photovoltaic and wind turbine, is always a problem for their large-scale integration in the utility grid. One of the solutions is to group renewable sources, traditional sources, storage and local consumption and treat it as a single unit in the utility grid. This is the concept of microgrid. A microgrid has the potentials of better responding both grid and end-user requirement, it facilitate the implementation of future smart grid. Based on a representative microgrid in urban area and integrated in buildings, this thesis proposes a multi-layer supervision, in order to realise a systemic study while particularly attempting to cover the research gap of implementing optimisation in realtimeoperation. The supervision handles together power balancing, energetic cost optimisation, metadata using, and information exchanges from both end-users and the smart grid. The supervision has been validated by experimental tests. The feasibility of implementing optimisation in real-time operation is validated even with uncertainties. The supervision is able to manage efficiently the power flow while maintaining power balancing in any case. Nevertheless, optimization effect relies on prediction precision. This problem can be improved in future works by updating optimization in real-time.
99

Infarctus du myocarde et mort subite : approche en population / Myocardial infarction and sudden death : a population-based approach

Karam, Nicole 03 November 2017 (has links)
La mort subite est un problème majeur de santé publique. Plus de 75% des morts subites sont d'origine coronaire et la mort subite est le principal mode de décès des infarctus du myocarde (IDM). Une analyse des similitudes et associations entre les deux est nécessaire. Les IDM survenant en heures non ouvrables ont une mortalité accrue. Par une analyse des données du registre francilien du Centre d'Expertise Mort Subite, nous avons constaté une surmortalité en dehors des heures ouvrables suite à une prise en charge initiale moins optimale, la prise en charge médicalisée n’étant pas influencée par l'horaire. Il devient clair que les efforts devraient se focaliser sur la prise en charge très précoce de la mort subite pour améliorer son pronostic.La deuxième partie a visé à identifier, parmi les IDM, ceux à risque de mort subite préhospitalière, afin d’anticiper sa survenue. A partir du registre e-MUST des IDM en Ile-de-France, nous avons identifié 5 facteurs associés à un risque accru de mort subite pré-hospitalière (âge jeune, absence de diabète et d'obésité, dyspnée, délai court entre le début de douleur et l'appel des secours). Nous avons ainsi créé et validé en interne et externe, un score de risque de mort subite. / It becomes clear that efforts should focus on early SCA management. The second part therefore aimed on identifying, among STEMI patients, those at risk of pre-hospital SCA, to plan early SCA management before it occurs. In the e-MUST registry for STEMI in the Greater Paris Area, we identified 5 simple predictors of pre-hospital SCA (young age, absence of obesity, absence of diabetes mellitus, shortness of breath, and short delay between pain onset and call to emergency medical services) that we used to build an SCA prediction score that we validated internally and externally. The first minutes after SCA are the main determinants of its prognosis and should ideally be planned before its occurrence. Anticipation of SCA in STEMI, the main cause of SCA, is feasible, allowing to tailor STEMI management accordingly. Even though the generalizability of this strategy to other causes of SCA remains to be demonstrated, a promising path for decreasing SCA burden can be foreseen.
100

Processus empiriques pour l'inférence dans le modèle de survie à risques non proportionnels / Empirical processes for inference in the non-proportional hazards model

Chauvel, Cecile 01 December 2014 (has links)
Nous nous intéressons à des processus empiriques particuliers pour l'inférence dans le modèle à risques non proportionnels. Ce modèle permet au coefficient de régression de varier avec le temps et généralise le modèle à risques proportionnels très utilisé pour modéliser des données de survie. Le processus du score standardisé que nous étudions est une somme séquentielle des résidus standardisés du modèle. Le processus est considéré en présence d'une covariable dans le modèle, avant d'être étendu au cas de multiples covariables pouvant être corrélées. Le plan du manuscrit se décompose en trois parties. Dans un premier temps, nous établissons les propriétés limites du processus sous le modèle et sous un modèle mal spécifié. Dans une deuxième partie, nous utilisons les résultats de convergence du processus pour dériver des tests de la valeur du paramètre du modèle. Nous montrons qu'un des tests proposés est asymptotiquement équivalent au test de référence du log-rank pour comparer les fonctions de survie de plusieurs groupes de patients. Nous construisons des tests plus puissants que le test du log-rank sous certaines alternatives. Enfin, dans la dernière partie, nous étudions comment lier prédiction et adéquation dans le modèle à risques non proportionnels. Nous proposons une méthode de construction d'un modèle bien ajusté en maximisant sa capacité prédictive. Aussi, nous introduisons un test d'adéquation du modèle à risques proportionnels. Les performances des méthodes proposées, qu'il s'agisse des tests sur le paramètre ou de l'adéquation du modèle, sont comparées à des méthodes de référence par des simulations. Les méthodes sont illustrées sur des données réelles. / In this thesis, we focus on particular empirical processes on which we can base inference in the non-proportional hazards model. This time-varying coefficient model generalizes the widely used proportional hazards model in the field of survival analysis. Our focus is on the standardized score process that is a sequential sum of standardized model-based residuals. We consider first the process with one covariate in the model, before looking at its extension for multiple and possibly correlated covariates. The outline of the manuscript is composed of three parts. In the first part, we establish the limit properties of the process under the model as well as under a misspecified model. In the second part, we use these convergence results to derive tests for the value of the model parameter. We show that one proposed test is asymptotically equivalent to the log-rank test, which is a benchmark for comparing survival experience of two or more groups. We construct more powerful tests under some alternatives. Finally, in the last part, we propose a methodology linking prediction and goodness of fit in order to construct models. The resulting models will have a good fit and will optimize predictive ability. We also introduce a goodness-of-fit test of the proportional hazards model. The performances of our methods, either tests for the parameter value or goodness-of-fit tests, are compared to standard methods via simulations. The methods are illustrated on real life datasets.

Page generated in 0.0678 seconds