• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Les incertitudes lors de l'évaluation de l'aléa de départ des éboulements rocheux / Uncertainties on rockfall assessment

Delonca, Adeline 05 December 2014 (has links)
De nombreuses incertitudes interviennent lors de l’évaluation de l’aléa de départ des éboulements rocheux. Ce mémoire se propose de les étudier, en suivant la typologie de Baecher & Christian (2005) qui identifie (1) l’incertitude de décision, (2) l’incertitude de connaissance et (3) l’incertitude aléatoire. L’incertitude de décision intervient au travers de l’évaluation de l’aléa par expertise. Nous avons mis au point une expérimentation visant à étudier l’influence du niveau d’expertise de la personne en charge de l’étude et de la méthode utilisée (qualitative et quantitative) sur l’évaluation de l’aléa. Nous avons montré que l’utilisation d’une méthode qualitative permet de guider la pensée et de réduire la dispersion des niveaux d’aléas finaux, ce qui n’est pas le cas d’une méthode quantitative. Nous montrons également que dans des cas spectaculaires, l’expérience de l’ingénieur lui permet de ne pas surévaluer l’aléa, et que pour des cas plus classiques, il n’y a pas d’influence du niveau d’expertise dès lors que la méthode est suffisamment détaillée. L’incertitude aléatoire se manifeste par la variabilité temporelle des éboulements rocheux. Un travail sur des bases de données a été entrepris. Il a permis de mettre en évidence une corrélation statistique entre les éboulements rocheux et certains facteurs météorologiques (pluies et températures). Une méthode évaluant la probabilité d’occurrence des éboulements en fonction de l’intensité des pluies ou la valeur des températures a alors été développée. Elle peut être considérée comme un outil d’aide à la décision dans la gestion du risque. Un travail sur ces bases de données a également permis de montrer l’existence d’une composante de bruit de fond aléatoire, ne montrant aucune corrélation statistique, caractérisée par le fait que le temps qui sépare deux chutes de blocs suit une loi de Poisson. L’incertitude de connaissance résulte d’un manque d’informations concernant, en particulier, les facteurs préparatoires. Afin de mieux appréhender ces incertitudes, des modèles numériques (éléments distincts - UDEC) de glissement d’un bloc sur un plan incliné, dépendants de la présence et de la proportion de ponts rocheux, ont été réalisés. Ils ont permis de montrer l’existence de deux phases dans la rupture, contrôlées par les reports des contraintes le long du joint entre le bloc et le plan, à mesure que de la rupture des ponts rocheux se propage. Cependant, ces deux phases ne se retrouvent pas dans l’étude des déplacements du bloc. Nous montrons également l’influence de la position des ponts rocheux sur la vitesse de propagation de la rupture en fonction de la pente. Ces travaux fournissent un outil opérationnel et des indications sur le processus d’évaluation de l’aléa qui pourraient aider l’ingénieur en charge d’une étude d’aléa à justifier et à affiner son estimation / The present dissertation proposes to study uncertainties in rockfall hazard assessment process, on the basis of the Baecher & Christian typology (2005), which identifies (1) decision uncertainties, (2) knowledge uncertainties, and (3) natural variability. Decision uncertainties are due to the subjectivity of experts’ assessment. An experiment has been realized in order to evaluate the influence of the expertise level, and the chosen method (qualitative or quantitative) on the rockfall hazard. The rockfall hazard levels obtained by the qualitative method are quite uniform while the quantitative method produces more disparate results. We have shown that, classically, the expertise level has no influence on the assessment if the method is precisely detailed. In the case of spectacular sites, experts do not overestimate the hazard. The natural variability is associated to the temporal variability of the rockfalls. We have studied the statistical correlation between meteorological and rockfall databases. We have developed a method that takes into account the probability of occurrence of the studied triggering factor (rainfalls and temperatures). This new approach is easy to use, and also helps to determine the conditional probability of rockfall according to a given meteorological factor. This approach will help to optimize risk management in studied areas based on their meteorological conditions. A work on these databases also has allowed the unpredictability of the rockfalls to be highlighted. Indeed, the delay between two rockfalls follows a Poisson distribution. Knowledge uncertainties may concern the preparatory factors. We have studied them with numerical models of a rock block sliding along a planar joint, depending on the proportion and position of rock bridges (distinct elements - UDEC). Two stages of the failure process have been highlighted; they have been controlled by the stress redistribution induced by the failure, and the propagation of the rock bridges. However, these two phases are not identified when studying block displacements. We also have shown the influence of the position of rock bridges on the propagation of failure. This research provides an operational tool, and guidelines on assessment process that may help engineers in charge of a rockfall risk analysis to justify and refine the obtained risk estimations
92

Sampling, qualification and analysis of data streams / Échantillonnage, qualification et analyse des flux de données

El Sibai, Rayane 04 July 2018 (has links)
Un système de surveillance environnementale collecte et analyse continuellement les flux de données générés par les capteurs environnementaux. L'objectif du processus de surveillance est de filtrer les informations utiles et fiables et d'inférer de nouvelles connaissances qui aident l'exploitant à prendre rapidement les bonnes décisions. L'ensemble de ce processus, de la collecte à l'analyse des données, soulève deux problèmes majeurs : le volume de données et la qualité des données. D'une part, le débit des flux de données générés n'a pas cessé d'augmenter sur les dernières années, engendrant un volume important de données continuellement envoyées au système de surveillance. Le taux d'arrivée des données est très élevé par rapport aux capacités de traitement et de stockage disponibles du système de surveillance. Ainsi, un stockage permanent et exhaustif des données est très coûteux, voire parfois impossible. D'autre part, dans un monde réel tel que les environnements des capteurs, les données sont souvent de mauvaise qualité, elles contiennent des valeurs bruitées, erronées et manquantes, ce qui peut conduire à des résultats défectueux et erronés. Dans cette thèse, nous proposons une solution appelée filtrage natif, pour traiter les problèmes de qualité et de volume de données. Dès la réception des données des flux, la qualité des données sera évaluée et améliorée en temps réel en se basant sur un modèle de gestion de la qualité des données que nous proposons également dans cette thèse. Une fois qualifiées, les données seront résumées en utilisant des algorithmes d'échantillonnage. En particulier, nous nous sommes intéressés à l'analyse de l'algorithme Chain-sample que nous comparons à d'autres algorithmes de référence comme l'échantillonnage probabiliste, l'échantillonnage déterministe et l'échantillonnage pondéré. Nous proposons aussi deux nouvelles versions de l'algorithme Chain-sample améliorant sensiblement son temps d'exécution. L'analyse des données du flux est également abordée dans cette thèse. Nous nous intéressons particulièrement à la détection des anomalies. Deux algorithmes sont étudiés : Moran scatterplot pour la détection des anomalies spatiales et CUSUM pour la détection des anomalies temporelles. Nous avons conçu une méthode améliorant l'estimation de l'instant de début et de fin de l'anomalie détectée dans CUSUM. Nos travaux ont été validés par des simulations et aussi par des expérimentations sur deux jeux de données réels et différents : Les données issues des capteurs dans le réseau de distribution de l'eau potable fournies dans le cadre du projet Waves et les données relatives au système de vélo en libre-service (Velib). / An environmental monitoring system continuously collects and analyzes the data streams generated by environmental sensors. The goal of the monitoring process is to filter out useful and reliable information and to infer new knowledge that helps the network operator to make quickly the right decisions. This whole process, from the data collection to the data analysis, will lead to two keys problems: data volume and data quality. On the one hand, the throughput of the data streams generated has not stopped increasing over the last years, generating a large volume of data continuously sent to the monitoring system. The data arrival rate is very high compared to the available processing and storage capacities of the monitoring system. Thus, permanent and exhaustive storage of data is very expensive, sometimes impossible. On the other hand, in a real world such as sensor environments, the data are often dirty, they contain noisy, erroneous and missing values, which can lead to faulty and defective results. In this thesis, we propose a solution called native filtering, to deal with the problems of quality and data volume. Upon receipt of the data streams, the quality of the data will be evaluated and improved in real-time based on a data quality management model that we also propose in this thesis. Once qualified, the data will be summarized using sampling algorithms. In particular, we focus on the analysis of the Chain-sample algorithm that we compare against other reference algorithms such as probabilistic sampling, deterministic sampling, and weighted sampling. We also propose two new versions of the Chain-sample algorithm that significantly improve its execution time. Data streams analysis is also discussed in this thesis. We are particularly interested in anomaly detection. Two algorithms are studied: Moran scatterplot for the detection of spatial anomalies and CUSUM for the detection of temporal anomalies. We have designed a method that improves the estimation of the start time and end time of the anomaly detected in CUSUM. Our work was validated by simulations and also by experimentation on two real and different data sets: The data issued from sensors in the water distribution network provided as part of the Waves project and the data relative to the bike sharing system (Velib).
93

Forêts aléatoires et sélection de variables : analyse des données des enregistreurs de vol pour la sécurité aérienne / Random forests and variable selection : analysis of the flight data recorders for aviation safety

Gregorutti, Baptiste 11 March 2015 (has links)
De nouvelles réglementations imposent désormais aux compagnies aériennes d'établir une stratégie de gestion des risques pour réduire encore davantage le nombre d'accidents. Les données des enregistreurs de vol, très peu exploitées à ce jour, doivent être analysées de façon systématique pour identifier, mesurer et suivre l'évolution des risques. L'objectif de cette thèse est de proposer un ensemble d'outils méthodologiques pour répondre à la problématique de l'analyse des données de vol. Les travaux présentés dans ce manuscrit s'articulent autour de deux thèmes statistiques : la sélection de variables en apprentissage supervisé d'une part et l'analyse des données fonctionnelles d'autre part. Nous utilisons l'algorithme des forêts aléatoires car il intègre des mesures d'importance pouvant être employées dans des procédures de sélection de variables. Dans un premier temps, la mesure d'importance par permutation est étudiée dans le cas où les variables sont corrélées. Nous étendons ensuite ce critère pour des groupes de variables et proposons une nouvelle procédure de sélection de variables fonctionnelles. Ces méthodes sont appliquées aux risques d'atterrissage long et d'atterrissage dur, deux questions importantes pour les compagnies aériennes. Nous présentons enfin l'intégration des méthodes proposées dans le produit FlightScanner développé par Safety Line. Cette solution innovante dans le transport aérien permet à la fois le monitoring des risques et le suivi des facteurs qui les influencent. / New recommendations require airlines to establish a safety management strategy to keep reducing the number of accidents. The flight data recorders have to be systematically analysed in order to identify, measure and monitor the risk evolution. The aim of this thesis is to propose methodological tools to answer the issue of flight data analysis. Our work revolves around two statistical topics: variable selection in supervised learning and functional data analysis. The random forests are used as they implement importance measures which can be embedded in selection procedures. First, we study the permutation importance measure when the variables are correlated. This criterion is extended for groups of variables and a new selection algorithm for functional variables is introduced. These methods are applied to the risks of long landing and hard landing which are two important questions for airlines. Finally, we present the integration of the proposed methods in the software FlightScanner implemented by Safety Line. This new solution in the air transport helps safety managers to monitor the risks and identify the contributed factors.
94

Caractérisation de grands détecteurs Micromegas pour le projet New Small Wheel et recherche de la production de quatre quarks top avec le détecteur ATLAS au LHC / Characterization of large Micromegas detectors for the New Small Wheel project and search for four top quark production with the ATLAS detector at the LHC

Chevalérias, Thibault 03 July 2019 (has links)
Ce travail de thèse a été effectué au sein de la collaboration ATLAS au LHC. Il s'intéresse dans un premier temps au développement de nouveaux détecteurs Micromegas pour le projet NSW, et dans un second temps à la recherche d'un processus physique très rare : la production de quatre quarks top au LHC, à une énergie dans le centre de masse de 13 TeV. Le programme de physique du LHC prévoit une augmentation significative de la luminosité de l'accélérateur dans les années à venir, en particulier pour la phase haute-luminosité dont le démarrage est prévu en 2026. Certains composants du détecteur ATLAS doivent être mis à jour, notamment les petites roues du spectromètre à muons qui vont devoir supporter une irradiation bien supérieure au niveau actuel. De nouvelles petites roues (NSW) sont en cours de développement et une partie des détecteurs Micromegas pour ces petites roues est construite par l'IRFU. Les performances de ces détecteurs sont validées sur un banc de test utilisant des muons cosmiques. Dans cette thèse, l'objectif a été de développer un code d'analyse des données de ce nouveau banc de test afin de caractériser les détecteurs Micromegas pour le projet NSW. Le code fournit notamment des informations de gain et d'efficacité de détection, et sera utilisé jusqu'à la fin du projet. Les efficacités mesurées sont globalement en accord avec les attentes sauf sur certaines parties des détecteurs qui doivent être investiguées. Le quark top est un élément central de plusieurs théories au-delà du modèle standard, comme par exemple les modèles avec des dimensions supplémentaires, ou encore qui incluent une modification du secteur du boson de Higgs. Certains de ces modèles prédisent une augmentation de la section efficace de production de quatre quarks top qui est un phénomène très rare dans le modèle standard et dont la section efficace ne vaut qu'environ 12 fb à 13 TeV. L'étude du processus à quatre tops dans le canal à deux leptons de même charge électrique est particulièrement intéressante car le niveau de bruit de fond y est très faible. Ce travail de thèse s'intéresse d'abord à l'analyse des événements à quatre tops avec le détecteur ATLAS, portant sur les données prises en 2015 et 2016. L'étude de ce processus est un défi de par le faible nombre d'événements disponibles, mais aussi à cause du bruit de fond dû aux faux leptons qui est difficile à estimer. Plusieurs limites sont posées sur des modèles de nouvelle physique, et sur la production conforme au modèle standard. Cette dernière limite est combinée avec un résultat provenant du canal à un lepton pour fournir la meilleure limite au moment de sa publication. Le processus de production de quatre quarks top conforme au modèle standard est à nouveau étudié avec l'entièreté des données prises entre 2015 et 2018, dans le but d'en effectuer une première observation. L'analyse de données est en cours, et cette thèse se concentre sur le développement d'une nouvelle méthode d'estimation du bruit de fond dû aux faux leptons. / This doctoral work was carried out as a member of the ATLAS collaboration at the LHC, an accelerator with a center-of-mass energy of 13 TeV. The development of new Micromegas detectors for the NSW project has been studied, along with the search for a very rare physics process : the production of four top quarks at the LHC, at a center-of-mass energy of 13 TeV. The physics programme of the LHC plans a significant increase of the luminosity in the coming years, especially for the high-luminosity phase beginning in 2026. Some parts of the ATLAS detectors must be upgraded to cope with the increased radiation levels. The small wheels of the muon spectrometer will be replaced by new small wheels (NSW) using Micromegas detectors. IRFU is responsible for producing some of the detectors, which performances are being validated on a test bench using cosmic muons. During this doctoral work, the aim was to develop an analysis code for the test bench data, in order to characterize the Micromegas detectors of the NSW project. The code provides gain and detection efficiency informations, and will be used until the end of the project. The measured efficiencies are in agreement with the expectations except in some parts of the detectors that are being investigated. The top quark plays a central role in many theories beyond the standard model, for instance in models with extra dimensions, or with a modification of the Higgs boson sector. Many of these models predict an enhanced cross section for the very rare four top quark process, which is predicted to be approximately 12 fb at 13 TeV. The study of the four top quark process is particularly interesting in the channel with leptons having the same electric charge because of the very low background level. This doctoral work is firstly carried out on the data taken in 2015 and 2016 by the ATLAS detector, in order to study the four top quark process and some new physics models. This process is very challenging given the very low number of events, and the difficult estimation of the fake lepton background. Several limits are set on new physics models and on the standard model four top quark production. The results on the standard model process are combined with the results from the single lepton channel to set the tightest limit at the time of its publication. The four top quark production is being studied again, using the data taken from 2015 to 2018 this time, with the aim of making a first observation of this process. The doctoral work is focused on a new method for estimating the fake lepton background.
95

Les isotopes d'azote au-delà de la limite de stabilité neutronique : 23N, 24N et 25N / Nitrogen isotopes beyond the neutron drip line : 23N, 24N et 25N

Deshayes, Quentin 04 December 2017 (has links)
Afin d'étudier les limites d'existence de la chaîne isotopique des azotes, une expérience a été menée au RIBF-RIKEN en utilisant le spectromètre SAMURAI couplé au détecteur de neutrons NEBULA. Les systèmes étudiés - 23N*, 24N et 25N ont été produits via des réactions de knockout de quelques nucléons ou de fragmentation à partir de faisceau secondaires de haute énergie (~250 MeV/nucléon). La méthode utilisée pour caractériser ces systèmes est celle de la masse invariante qui nécessite la cinématique complète des réactions étudiées. Pour interpréter les résultats, une simulation de la totalité du dispositif expérimental a été utilisée. L'étalonnage des détecteurs et les techniques d'analyse ont été testés en sondant l'état fondamental connu du 16B. Dans le cas du 23N, une étude de spectroscopie gamma en vol a permis de confirmer qu'il ne possédait pas d'état excité lié. Nous avons pu le sonder à travers 3 voies de réactions distinctes : Le knockout d'un proton du 24O, la fragmentation à partir du 27Ne et la diffusion inélastique. Dans tous les cas, nous avons observé une résonance l=0 à environ 3,5 MeV d'énergie d'excitation. Cette résonance a été interprétée, en s'appuyant sur des calculs de modèle en couche, comme le premier état excité du 23N de spin parité Jpi=3/2-. Dans l'ensemble des voies une seconde résonance possédant une énergie d'excitation d'environ 5 MeV était nécessaire pour décrire les spectres en énergie-relative fragment-neutron mesurés.Le 24N a été observé pour la première fois lors de notre expérience comme une résonance autour de 1,3 MeV au dessus du seuil d'émission neutron. Nous avons pu sonder ce système via 4 réactions, le knockout de deux ou trois protons respectivement du 26F et du 27Ne et des réactions de fragmentation à partir du 27F et du 28Ne. L'ensemble de ces spectres peut être ajusté à l'aide d'une résonance l=2. Des considérations théoriques simples nous suggèrent que cette dernière correspond au doublet 2-,1- prédit comme l'état fondamental du 24N par le modèle en couche.Le 25N a également été observé pour la première fois lors de notre expérience. Malgré une statistique relativement limitée, les spectres des réactions de knockout de deux et trois protons du 27F et 28Ne, montrent une structure claire environ 1,7 MeV au dessus du seuil d'émission de deux neutrons qui peut être identifiée comme l'état fondamental 1/2- prédit par le modèle en couche. / To study the most neutron-rich nitrogen isotopes an experiment has been undertaken at the RIBF-RIKEN using the SAMURAI spectrometer and NEBULA neutron array. The nuclei of interest - 23N*, 24N and 25N - were produced via nucleon knockout and fragmentation reactions from high-energy (~250 MeV/nucleon) secondary beams. The technique of invariant-mass spectroscopy, which requires the measurement in complete kinematics of the beam-like reaction products, was employed to characterise these unbound systems. In the case of the 23N, in-flight gamma-ray spectroscopy was performed and it has been possible to confirm that it has no bound excited states. Three reaction channels - the knockout of a proton from 24O, the fragmentation of 27Ne and inelastic scattering – were employed to search for unbound excited states. In all these channels, an l=0 resonance was observed at around 3.5 MeV excitation energy. This resonance is interpreted, through comparison with shell model calculations, as the Jpi=3/2- first excited state of 23N. In all channels, another resonance with an excitation energy of close to 5 MeV was necessary to fully describe the fragment-neutron relative energy spectra. The nucleus 24N was observed here for the first time as resonance-like peak some 1.3 MeV above the one-neutron decay threshold. Four reaction channels were investigated: the knockout of two and three protons from 26F and 27Ne, respectively, and fragmentation of 27F and 28Ne. All the relative energy spectra were consistent with the population of an l=2 resonance. Simple considerations suggest that this is the 2-,1- ground-state doublet predicted by the shell model. The nucleus 25N was also observed here for the first time. Despite the relatively limited statistics, both two-proton and three-proton removal from 27F and 28Ne, exhibited a clear structure some 1.7 MeV above the two-neutron decay threshold which, based on simple considerations, may be identified with the expected 1/2- ground state.
96

Analyses bioinformatiques de la régulation des éléments transposables chez les mammifères / Bioinformatics analysis of transposable elements regulation in mammals

Teissandier, Aurélie 05 October 2018 (has links)
Les éléments transposables sont des séquences d'ADN qui ont la capacité de se déplacer dans le génome. Ils peuvent modifier l’architecture et la régulation du génome, et sont ainsi impliqués dans de nombreux désordres pathologiques, congénitaux ou acquis. L’analyse bioinformatique des éléments transposables dans les données de séquençage est la méthode de choix pour comprendre leur biologie. Mon travail de thèse a été dédié à cette question en utilisant des données réelles et simulées. Dans un premier axe, en utilisant un système cellulaire modulant le niveau de méthylation, nous avons révélé que différentes modifications chromatiniennes répressives assurent la mise sous silence des éléments transposables lorsque la méthylation de l’ADN est perdue. Dans un second axe, à l'aide d'une stratégie de mutagenèse aléatoire, nous avons découvert une nouvelle ADN méthyltransférase, spécialisée dans la méthylation des transposons jeunes au cours de la spermatogenèse. De par la nature répétée des éléments transposables, l'analyse des transposons dans les données de séquençage reste cependant un véritable défi. Finalement, dans un troisième temps, j’ai eu recours à une stratégie de simulation pour comparer les différentes méthodes d’alignement et de quantification dans les génomes murin et humain. J'ai ainsi pu élaborer des recommandations pour l'étude des éléments transposables et révéler les limites de détection de certaines familles de transposons. / Transposable elements are DNA sequences that have the ability to move in the genome. They can modify the architecture and the regulation of the genome, and be implicated in different pathological, congenital or acquired disorders. The transposon analysis with sequencing data is the first choice method to understand their biology. My thesis work was dedicated to this question using real and simulated data. In a first research axis, using a cellular system to modulate DNA methylation levels, we revealed that different repressive chromatin modifications ensure the silencing of transposable elements when DNA methylation is lost. In a second axis, using a random mutagenesis strategy, we discovered a new DNA methyltransferase, specialized in the methylation of young transposons during spermatogenesis. However, the analysis of transposons in sequencing datasets is a bioinformatic challenge because of the repeated nature of transposable elements. Eventually, in a third axis, using a simulation strategy applied to the mouse and the human genomes, I systematically compared different alignment and quantification tools. I was able to draw recommendations for the analysis of transposons and to reveal the limits in detecting specific transposons families.
97

Comprehensive Molecular and Clinical Characterization of Retinoblastoma / Caractérisation moléculaire et clinique complète du rétinoblastome

Sefta, Meriem 02 November 2015 (has links)
Le rétinoblastome est un cancer pédiatrique rare de la rétine en cours de développement. Si dans les pays développés, le taux de survie avoisine 100%, une énucléation de l’oeil atteint est cependant nécessaire dans plus de 70% des cas.En 1971, Knudson émit l’hypothèse des deux “hits”, qui permit de comprendre que le rétinoblastome s’initie généralement après une perte bi-allélique du gène RB1. Cependant, les autres mécanismes moléculaires qui régissent ce cancer restent depuis peu connus. Par exemple, peu d’études génomiques ont été conduites. Ainsi, la nature de la cellule d’origine, ainsi que la présence ou non d’une hétérogénéité intertumorale, font encore débat. Dans cette étude, nous avons dressé un portrait génomique et clinique complet du rétinoblastome; plusieurs observations ont montré qu’il s’agit bien d’une maladie hétérogène, avec deux sous-types distincts. Nous avons d’abord identifié les deux sous-types avec à une approche couplant une analyse en composantes indépendantes (ACI) de transcriptomes tumoraux avec des marquages immunohistochimiques. Les rétinoblastomes du premier sous-type, dits “cone-like” expriment uniformément des marqueurs de cônes, tandis que ceux du second sous-type, dits “bivalent-type”, ont une forte hétérogénéité intratumorale, avec un enchevêtrement de zones de différenciation ganglionnaire ou cône. Grâce à une étude plus approfondie des transcriptomes et de données d’altérations génomiques, nous avons ensuite montré que les sous-types dépendent de voies de signalisation et d’oncogènes différents. Les bivalent-type ont notamment une présence quasi-systématique de gains de MDM4 ou d’amplifications de MYCN. Nous nous sommes ensuite tournés vers les méthylomes des rétinoblastomes, et constaté une forte hétérogénéité entre les sous-types. Nous avons décomposé cette hétérogénéité grâce à une ACI, et constaté qu’elle n’était pas liée uniquement à la différenciation cône ou ganglion. Nous avons ensuite étudié les données cliniques de la cohorte, et constaté que les sous-types avaient des âges au diagnostic et des formes de croissance différents, les tumeurs cone-like se developpant généralement chez des patients jeunes avec des tumeurs exophytiques, et les bivalent-type chez des patients plus âgés avec des tumeurs endophytiques. De plus, les patients avec des inactivations constitutionnelles du gène RB1 développent majoritairement des tumeurs cone-like; les cone-like s’initieraient donc plus tôt durant le développement de la rétine. Nous avons finalement séquencé les exomes de 74 paires tumeur-normal. Les rétinoblastomes avaient un taux de mutations extrêmement faible (0.1 mutations par mégabase), comme beaucoup de cancers pédiatriques. Nous avons identifié des mutations somatiques récurrentes dans RB1, BCOR et ARID1A. Ces gènes se trouvaient de plus dans des régions minimales de pertes chromosomiques. Surtout, les inactivations des deux gènes avaient souvent de fortes fréquences alléliques. Ceci indique que ces inactivations ont lieu précocément dans la tumorigénèse. En conclusion, notre étude a permis de dresser un premier portrait génomique complet du rétinoblastome, a révélé l’existence de deux sous-types distincts, ainsi que fourni des indices quant à la cellule d’origine de chaque sous-type, et les mécanismes moléculaires les régissant. / Retinoblastoma is a rare pediatric cancer of the developing retina. In high-income countries, survival rates near 100%; however, enucleation of the affected eye has to be performed in over 70% of patients. Knudson’s 1971 two-hit hypothesis led to the discovery that this cancer usually initiates after a bi-allelic loss of the RB1 gene. Despite this early finding, little is known about the other molecular underpinnings of retinoblastoma. For instance, few genome-wide studies have described the genetic and epigenetic characteristics of these tumors. Furthermore, there is still no clear consensus regarding this cancer’s cell of origin, or whether or not it is homogenous disease. In this study, we built a comprehensive molecular and clinical portrait of retinoblastoma. Several lines of evidence led us to conclude that retinoblastoma is in fact a heterogeneous disease, with two distinct subtypes. We first uncovered the subtypes through a strategy that coupled an independent component analysis (ICA) of tumor transcriptomes to tumor immunohistochemical stainings. Retinoblastomas of the first subtype, called “cone-like”, homogeneously display cone-like differentiation, while those of the second subtype, called “bivalent-type”, exhibit strong intratumoral heterogeneity, with areas of cone-like differentiation intertwined with areas of ganglion-like differentiation. Further analysis of the transcriptomic data, as well as of copy number alteration data revealed that both subtypes may rely on different pathways and oncogenes. We notably observed a quasi-systematic presence of MDM4 gains or MYCN amplifications in bivalent-type tumors. We next turned to retinoblastomas’ methylomes; these considerably varied between the subtypes. ICA allowed us to decompose this inter-subtype methylomic heterogeneity, which was found to go beyond methylation due to cone-like or ganglion-like differentiation. We next studied the tumors’ clinical data, and found that cone-like tumors are most often diagnosed in very young patients with exophytic tumor growth, while bivalent-type tumors are found in older patients with endophytic tumor growth. Furthermore, patients with germline inactivations of RB1 mostly developed cone-like retinoblastomas, indicating that these tumors may initiate earlier during retinal development. In the final part of our study, we performed whole exome sequencing of 74 tumor-normal pairs. Like many pediatric cancers, the tumors had very low background mutation rates (0.1 mutations per megabase). Recurrent somatic mutations were found in RB1, BCOR and ARID1A, and these genes were also found to be in minimal regions of chromosomal losses. Importantly, both inactivations often had very high allelic frequencies, indicating that these events occur very early on in retinoblastoma tumorigenesis.Taken together, our study outlines a first comprehensive genomic portrait of retinoblastomas, points to the existence of two distinct subtypes, and provides insights into the cells-or-origin and the molecular mechanisms underlying these subtypes.
98

Association rules mining in massive datasets : an application to polypharmacy detection

Berteloot, Théophile 09 June 2023 (has links)
Titre de l'écran-titre (visionné le 30 mai 2023) / Ce travail s'inscrit dans un projet de plus grande envergure, concernant la détection de polypharmacie potentiellement inappropriée, c'est-à-dire les combinaisons de 5 médicaments ou plus pris par un individu dans un court laps de temps entrainant des effets de santé indésirables. L'objectif de ce travail est de trouver une méthode efficace et rapide pour extraire un nombre raisonnable de lois d'association de qualité. Ici nos lois d'association mettent en relation des combinaisons de médicaments et des états médicaux. Nous nous sommes intéressés aux mesures permettant de juger la qualité d'une loi d'association ainsi que leur pertinence dans le projet. Ensuite, nous avons mis au point plusieurs méthodes permettant de miner des lois d'association. La première est une métaheuristique basée sur la période géologique appelée l'explosion cambrienne. Les métaheuristiques sont des algorithmes d'optimisation utilisant des processus stochastiques pour faire converger une population (un ensemble de solutions) vers l'optimum d'une fonction. Nous avons ensuite envisagé l'utilisation de réseaux de neurones profonds, plus précisément des auto-encodeurs. Nous avons alors créé l'algorithme ARM-AE qui utilise les auto-encodeurs et obtient de bonnes performances et surpasse les méthodes classiques sur plusieurs mesures de performance. Finalement, nous avons appliqué ARM-AE sur le jeu de données massives en santés de l'INSPQ (Institut national de santé publique du Québec) et nous fournissons une analyse des lois trouvées d'un point de vue statistique et médical. / This work is part of a larger project regarding the detection of potentially inappropriate polypharmacy leading to negative health effects in Quebec seniors. Polypharmacy is most often defined as a combinations of five or more medications taken at the same time by an individual. The objective of this work is to find an efficient and fast method to find a reasonable number of quality association rules. An association rule is an implication of the form A ⇒ C, which can be read as ”If A then C”, with A and C two sets of items, here the items are drugs and medical outcomes. We are interested in measures that allow to judge the quality of an association rule, as well as their relevance in the project. Then we develop several methods to mine association rules. The first one is a metaheuristic based on the geological period called the Cambrian explosion. Metaheuristics are optimisation algorithms using stochastic processes to converge a population (a set of solutions) to the optimum of a function. We then consider using deep neural networks, more precisely auto-encoders. We create the ARM-AE algorithm which uses auto-encoders and presents good performances and has several advantages over classical methods. Finally we apply ARM-AE on the massive healthcare dataset of the INSPQ (Institutnational de santé publique du Québec), and we provide an analysis of the rules found from a statistical and a medical point of view.
99

Délit de langue et paternité textuelle : une approche informatisée

Houle, Annie 19 April 2018 (has links)
Cette étude vise à évaluer l’utilité d’une assistance informatique lors de l’identification de l’auteur d’un texte en français dans un cadre judiciaire. L’objectif est de proposer un environnement informatique au linguiste oeuvrant en contexte judiciaire et plus spécifiquement en analyse de paternité textuelle et de valider la légitimité de cette assistance automatisée à travers une étude de cas impliquant des textes courts et très courts rédigés en français. L’analyse se scinde en deux parties : une partie quantitative presqu’essentiellement automatisée et une partie qualitative semi-automatisée. Les résultats provenant de cette étude suggèrent qu’un environnement automatisé est un gain pour le linguiste, non seulement quant au temps et à la neutralité d’exécution de l’analyse, mais également quant aux résultats encourageants obtenus grâce aux outils créés.
100

Évaluation des courants de surface océanique au moyen d'un radar à ouverture synthétique

Danilo, Céline 23 September 2009 (has links) (PDF)
L'objectif de cette thèse est d'extraire la composante du courant de surface océanique dans l'axe de visée radar (ou direction radiale) à partir des informations enregistrées par un radar à synthèse d'ouverture (SAR) embarqué sur satellite. Nous analysons le décalage Doppler du signal reçu par le SAR à bord d'ENVISAT. Ce travail vise principalement à séparer, sur le décalage Doppler, la contribution des vagues et celle du courant ainsi qu'à étendre cette analyse à de larges scènes observées sous de multiples angles d'incidence. Cette étude se limite à la polarisation verticale et à la bande de fréquence C. La recherche de la signature de courant s'appuie sur l'hypothèse que le décalage Doppler ne résulte que des mouvements des vagues et du courant. De plus, nous supposons, dans une première étape, que le courant sur la surface d'estimation du décalage Doppler est uniforme. Suivant ces hypothèses, la contribution du courant peut être déduite du décalage Doppler au moyen d'une soustraction à partir de la contribution des vagues. Ces dernières ont des longueurs d'onde relativement courtes typiques de la mer du vent. L'utilisation pratique de l'information de vent à 10~m de la surface pour estimer la contribution des vagues est évaluée. La méthode d'extraction de la composante radiale du courant est mise au point et testée, dans un premier temps, pour un angle d'incidence constant de 23° à partir d'imagettes ponctuelles réparties sur l'ensemble des océans. La comparaison des moyennes mensuelles de la composante du courant extraite des données SAR avec les climatologies mensuelles issues des mesures de courant in-situ indique une erreur RMS de 0,35 m/s. Dans un second temps, la même méthodologie est appliquée à des images de grande taille (400 km par 400 km au minimum) pour lesquelles l'angle d'incidence local varie de 16 à 42°. Cette nouvelle configuration nécessite une analyse préalable de l'effet de l'angle d'incidence sur le décalage Doppler. Nous montrons que la contribution relative du courant au décalage Doppler augmente avec l'angle d'incidence et varie également en fonction de la direction du vent par rapport à la direction radiale. Les vitesses extraites des données SAR présentent un accord quantitatif avec les mesures de courant de capteurs in-situ. Ce résultat est encourageant pour le développement d'une application opérationnelle de cette méthode. Enfin, la dernière partie de ce travail est consacrée à un cas plus complexe pour lequel l'existence de courant côtier fortement variable ne permet plus de faire l'hypothèse de courant uniforme sur la surface d'estimation du décalage Doppler. Nous analysons dans ce cas des cartes de décalage Doppler à une résolution de l'ordre du kilomètre. Malgré la complexité de la situation, là encore, la confrontation des vitesses déduites du décalage Doppler avec des cartes de courant de marée indique le large potentiel des images SAR pour restituer une information de courant de surface à haute résolution.

Page generated in 0.0687 seconds