• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Contribution à l'interrogation flexible et personnalisée d'objets complexes modélisés par des graphes / Flexible and Personalized Querying of Complex Objects Modeled by Graphs

Abbaci, Katia 12 December 2013 (has links)
Plusieurs domaines d'application traitent des objets et des données complexes dont la structure et la sémantique de leurs composants sont des informations importantes pour leur manipulation et leur exploitation. La structure de graphe a été bien souvent adoptée, comme modèles de représentation, dans ces domaines. Elle permet de véhiculer un maximum d'informations, liées à la structure, la sémantique et au comportement de ces objets, nécessaires pour assurer une meilleure représentation et une manipulation efficace. Ainsi, lors d'une comparaison entre deux objets complexes, l'opération d'appariement est appliquée entre les graphes les modélisant. Nous nous sommes intéressés dans cette thèse à l'appariement approximatif qui permet de sélectionner les graphes les plus similaires au graphe d'une requête. L'objectif de notre travail est de contribuer à l'interrogation flexible et personnalisée d'objets complexes modélisés sous forme de graphes pour identifier les graphes les plus pertinents aux besoins de l'utilisateur, exprimés d'une manière partielle ou imprécise. Dans un premier temps, nous avons proposé un cadre de sélection de services Web modélisés sous forme de graphes qui permet (i) d'améliorer le processus d'appariement en intégrant les préférences des utilisateurs et l'aspect structurel des graphes comparés, et (ii) de retourner les services les plus pertinents. Une deuxième méthode d'évaluation de requêtes de recherche de graphes par similarité a également été présentée pour calculer le skyline de graphes d'une requête utilisateur en tenant compte de plusieurs mesures de distance de graphes. Enfin, des approches de raffinement ont été définies pour réduire la taille, souvent importante, du skyline. Elles ont pour but d'identifier et d'ordonner les points skyline qui répondent le mieux à la requête de l'utilisateur. / Several application domains deal with complex objects whose structure and semantics of their components are crucial for their handling. For this, graph structure has been adopted, as a model of representation, in these areas to capture a maximum of information, related to the structure, semantics and behavior of such objects, necessary for effective representation and processing. Thus, when comparing two complex objects, a matching technique is applied between their graph structures. In this thesis, we are interested in approximate matching techniques which constitute suitable tools to automatically find and select the most similar graphs to user graph query. The aim of our work is to develop methods to personalized and flexible querying of repositories of complex objects modeled thanks to graphs and then to return the graphs results that fit best the users ’needs, often expressed partially and in an imprecise way. In a first time, we propose a flexible approach for Web service retrieval that relies both on preference satisfiability and structural similarity between process model graphs. This approach allows (i) to improve the matching process by integrating user preferences and the graph structural aspect, and (ii) to return the most relevant services. A second method for evaluating graph similarity queries is also presented. It retrieves graph similarity skyline of a user query by considering a vector of several graph distance measures instead of a single measure. Thus, graphs which are maximally similar to graph query are returned in an ordered way. Finally, refinement methods have been developed to reduce the size of the skyline when it is of a significant size. They aim to identify and order skyline points that match best the user query.
102

Fusion de connaissances imparfaites pour l'appariement de données géographiques : proposition d'une approche s'appuyant sur la théorie des fonctions de croyance

Olteanu, Ana-Maria 24 October 2008 (has links) (PDF)
De nos jours, il existe de nombreuses bases de données géographiques (BDG) couvrant le même territoire. Les données géographiques sont modélisées différemment (par exemple une rivière peut être modélisée par une ligne ou bien par une surface), elles sont destinées à répondre à plusieurs applications (visualisation, analyse) et elles sont créées suivant des modes d'acquisition divers (sources, processus). Tous ces facteurs créent une indépendance entre les BDG, qui pose certains problèmes à la fois aux producteurs et aux utilisateurs. Ainsi, une solution est d'expliciter les relations entre les divers objets des bases de données, c'est-à-dire de mettre en correspondance des objets homologues représentant la même réalité. Ce processus est connu sous le nom d'appariement de données géographiques. La complexité du processus d'appariement fait que les approches existantes varient en fonction des besoins auxquels l'appariement répond, et dépendent des types de données à apparier (points, lignes ou surfaces) et du niveau de détail. Nous avons remarqué que la plupart des approches sont basées sur la géométrie et les relations topologiques des objets géographiques et très peu sont celles qui prennent en compte l'information descriptive des objets géographiques. De plus, pour la plupart des approches, les critères sont enchaînés et les connaissances sont à l'intérieur du processus. Suite à cette analyse, nous proposons une approche d'appariement de données qui est guidée par des connaissances et qui prend en compte tous les critères simultanément en exploitant à la fois la géométrie, l'information descriptive et les relations entre eux. Afin de formaliser les connaissances et de modéliser leurs imperfections (imprécision, incertitude et incomplétude), nous avons utilisé la théorie des fonctions de croyance [Shafer, 1976]. Notre approche d'appariement de données est composée de cinq étapes : après une sélection des candidats, nous initialisons les masses de croyance en analysant chaque candidat indépendamment des autres au moyen des différentes connaissances exprimées par divers critères d'appariement. Ensuite, nous fusionnons les critères d'appariement et les candidats. Enfin, une décision est prise. Nous avons testé notre approche sur des données réelles ayant des niveaux de détail différents représentant le relief (données ponctuelles) et les réseaux routiers (données linéaires)
103

Hormonothérapie et cancer du sein : mesure de l'adhésion au traitement en bases de données médico-administratives / Hormonal therapy for breast cancer : measuring adherence in medical and administrative databases

Huiart, Laetitia 31 October 2013 (has links)
Les formes orales de traitements anticancéreux se sont considérablement développées récemment. La question de l’adhésion au traitement devient donc un nouvel enjeu en oncologie. Cette thèse aborde de façon générale le problème de l’adhésion aux traitements oraux en oncologie, et plus spécifiquement celui de la mesure en bases de données médico-administrativesde l’observance et de la persistance à l’hormonothérapie, traitement oral majeur dans le cancer du sein. Le point de vue retenu est celui de la pharmacoépidémiologie, à savoir l’étude des consommations pharmaceutiques en contexte clinique. La première partie de cette thèse fait le point sur les connaissances actuelles concernant l’adhésion à l’hormonothérapie - tamoxifène et inhibiteurs de l’aromatase (IA) - dans le cancer du sein. La seconde partie, reposant sur l’analyse de cohortes de patientes atteintes de cancer du sein sélectionnées à partir de (1) la UK General Practice Research Database et (2) des données de l’Assurance Maladie, a montré que : - Plus de la moitié des femmes de moins de 40 ans au diagnostic ne reçoivent plus de tamoxifène à 5 ans. Il s’agit du groupe de femmes le plus à risque d’arrêt prématuré de traitement. - Chez les femmes âgées de plus de 50 ans au diagnostic, les arrêts de traitement sont moins fréquents pour les IA que pour le tamoxifène. - Les déterminants associés à la non-persistance sont un faible soutien social et la déclaration précoce de non-prise de traitement par la patiente chez les femmes jeunes. Chez les femmes âgées, l’utilisation de médecines complémentaires et alternatives, la présence de comorbidités sont associées à une augmentation du risque d’arrêt de traitement. A contrario, la présence d’une poly-médication est associée à une diminution du risque d’arrêt.- Dans les études précédentes, une proportion importante de femmes reprend son traitement au moins une fois après l’avoir arrêté de façon prolongée. Les arrêts transitoires de traitements ont été pris en compte à l’aide de modèles multi-états. La probabilité d’arrêt de traitement estimée à partir de ces modèles est plus faible que celle mesurée par la méthode de Kaplan-Meier, après la première année de traitement. La non-adhésion à l’hormonothérapie est fréquente. Certains de ses déterminants sont modifiables ou peuvent servir à identifier précocement les patientes à risque de non-observance. La prise en compte des arrêts transitoires de traitement est importante dans la mesure de la persistance. L’adhésion est l’élément clé faisant le lien entre l’efficacité d’un traitement mesuréedans un essai clinique et son impact dans la vraie vie. Il est urgent de prendre conscience de l’importance de la non-adhésion des formes orales en oncologie / The use of oral anticancer therapies has significantly increased in recent years. Adherence to these therapies has therefore become a major issue in the field of oncology. This thesis focuses on the question of treatment adherence in oncology, and more specifically on the use of medical records and administrative databases to estimate adherence and persistence to hormonal therapy—now a major form of oral breast cancer therapy. Our perspective is based on pharmacoepidemiology, i.e. the study of drugs in a clinical setting. The first part of this thesis synthesizes current knowledge on adherence and persistence to hormonal therapy for BC – i.e. tamoxifen and aromatase inhibitor therapies.The second part, which is based on the study of two cohorts constituted (1) from the UK General Practice Research Database and (2) from the French National Health Insurance System, demonstrates that - More than half of women younger than 40 at diagnosis do not receive any tamoxifen at 5years of follow-up. This group of women presents the highest rates of treatmentinterruption. - Among women over 50 at diagnosis, those receiving some form of AI therapy discontinue less frequently than those on tamoxifen treatment. - Determinants of non-persistence identified in the studies under review include low social support and self-reporting of non-compliance among younger women. Among older women, those using complementary or alternative medicine or suffering from comorbidities are more likely to discontinue their treatment, whereas women usingpolypharmacy are less likely to discontinue. - In previous studies, a large proportion of women who discontinued their treatment resumed after a prolonged gap. To account for these temporary treatment discontinuations, we used multi-state models. The probability of being off treatment estimated from these models is lower than that estimated from Kaplan-Meier estimates, after the 1st year of treatment. Adherence to hormonal therapy is largely suboptimal. Some of its determinants are modifiablefactors, while others can be used to identify sub-groups of patients at high risk of non-adherence. Accounting for temporary treatment discontinuation is important when measuring nonpersistence. Adherence is a key element for the translation of efficacy measured in clinical trials into effectiveness in real life. There is an urgent need to acknowledge the problem of nonadherence to oral therapy in oncology
104

Formalisation, acquisition et mise en œuvre de connaissances pour l’intégration virtuelle de bases de données géographiques : les spécifications au cœur du processus d’intégration / Formalisation, acquisition and implementation of specifications knowledge for geographic databases integration

Abadie, Nathalie 20 November 2012 (has links)
Cette thèse traite de l'intégration de bases de données topographiques qui consiste à expliciter les relations de correspondance entre bases de données hétérogènes, de sorte à permettre leur utilisation conjointe. L'automatisation de ce processus d'intégration suppose celle de la détection des divers types d'hétérogénéité pouvant intervenir entre les bases de données topographiques à intégrer. Ceci suppose de disposer, pour chacune des bases à intégrer, de connaissances sur leurs contenus respectifs. Ainsi, l'objectif de cette thèse réside dans la formalisation, l'acquisition et l'exploitation des connaissances nécessaires pour la mise en œuvre d'un processus d'intégration virtuelle de bases de données géographiques vectorielles. Une première étape du processus d'intégration de bases de données topographiques consiste à apparier leurs schémas conceptuels. Pour ce faire, nous proposons de nous appuyer sur une source de connaissances particulière : les spécifications des bases de données topographiques. Celles-ci sont tout d'abord mises à profit pour la création d'une ontologie du domaine de la topographie. Cette ontologie est utilisée comme ontologie de support, dans le cadre d'une première approche d'appariement de schémas de bases de données topographiques, fondée sur des techniques d'appariement terminologiques et structurelles. Une seconde approche, inspirée des techniques d'appariement fondées sur la sémantique, met en œuvre cette ontologie pour la représentation des connaissances sur les règles de sélection et de représentation géométrique des entités géographiques issues des spécifications dans le langage OWL 2, et leur exploitation par un système de raisonnement / This PhD thesis deals with topographic databases integration. This process aims at facilitating the use of several heterogeneous databases by making the relationships between them explicit. To automatically achieve databases integration, several aspects of data heterogeneity must be detected and solved. Identifying heterogeneities between topographic databases implies comparing some knowledge about their respective contents. Therefore, we propose to formalise and acquire this knowledge and to use it for topographic databases integration. Our work focuses on the specific problem of topographic databases schema matching, as a first step in an integration application. To reach this goal, we propose to use a specific knowledge source, namely the databases specifications, which describe the data implementing rules. Firstly, they are used as the main resource for the knowledge acquisition process in an ontology learning application. As a first approach for schema matching, the domain ontology created from the texts of IGN's databases specifications is used as a background knowledge source in a schema matching application based on terminological and structural matching techniques. In a second approach, this ontology is used to support the representation, in the OWL 2 language, of topographic entities selection and geometry capture rules described in the databases specifications. This knowledge is then used by a reasoner in a semantic-based schema matching application
105

Modeling and verification of probabilistic data-aware business processes / Modélisation et vérification des processus métier orientés données probabilistes

Li, Haizhou 26 March 2015 (has links)
Un large éventail de nouvelles applications met l’accent sur la nécessité de disposer de modèles de processus métier capables de manipuler des données imprécises ou incertaines. Du fait de la présence de données probabilistes, les comportements externes de tels processus métier sont non markoviens. Peu de travaux dans la littérature se sont intéressés à la vérification de tels systèmes. Ce travail de thèse étudie les questions de modélisation et d’analyse de ce type de processus métier. Il utilise comme modèle formel pour décrire les comportements des processus métier un système de transitions étiquetées dans lequel les transitions sont gardées par des conditions définies sur une base de données probabiliste. Il propose ensuite une approche de décomposition de ces processus qui permet de tester la relation de simulation entre processus dans ce contexte. Une analyse de complexité révèle que le problème de test de simulation est dans 2-EXPTIME, et qu’il est EXPTIME-difficile en termes de complexité d’expression, alors que du point de vue de la complexité en termes des données, il n’engendre pas de surcoût supplémentaire par rapport au coût de l’évaluation de requêtes booléennes sur des bases de données probabilistes. L’approche proposée est ensuite étendue pour permettre la vérification de propriétés exprimées dans les logiques P-LTL et P-CTL. Finalement, un prototype, nommé ‘PRODUS’, a été implémenté et utilisé dans le cadre d’une application liée aux systèmes d’information géographiques pour montrer la faisabilité de l’approche proposée. / There is a wide range of new applications that stress the need for business process models that are able to handle imprecise data. This thesis studies the underlying modelling and analysis issues. It uses as formal model to describe process behaviours a labelled transitions system in which transitions are guarded by conditions defined over a probabilistic database. To tackle verification problems, we decompose this model to a set of traditional automata associated with probabilities named as world-partition automata. Next, this thesis presents an approach for testing probabilistic simulation preorder in this context. A complexity analysis reveals that the problem is in 2-exptime, and is exptime-hard, w.r.t. expression complexity while it matches probabilistic query evaluation w.r.t. data-complexity. Then P-LTL and P-CTL model checking methods are studied to verify this model. In this context, the complexity of P-LTL and P-CTL model checking is in exptime. Finally a prototype called ”PRODUS” which is a modeling and verification tool is introduced and we model a realistic scenario in the domain of GIS (graphical information system) by using our approach.
106

How fuzzy set theory can help make database systems more cooperative / Rendre les systèmes de bases de données plus coopératifs à l'aide de la théorie des ensembles flous

Moreau, Aurélien 26 June 2018 (has links)
Dans ces travaux de thèse nous proposons de tirer parti de la théorie des ensembles flous afin d'améliorer les interactions entre les systèmes de bases de données et les utilisateurs. Les mécanismes coopératifs visent à aider les utilisateurs à mieux interagir avec les SGBD. Ces mécanismes doivent faire preuve de robustesse : ils doivent toujours pouvoir proposer des réponses à l'utilisateur. Empty set (0,00 sec) est un exemple typique de réponse qu'il serait désirable d'éradiquer. Le caractère informatif des explications de réponses est parfois plus important que les réponses elles-mêmes : ce peut être le cas avec les réponses vides et pléthoriques par exemple, d'où l'intérêt de mécanismes coopératifs robustes, capables à la fois de contribuer à l'explication ainsi qu'à l'amélioration des résultats. Par ailleurs, l'utilisation de termes de la langue naturelle pour décrire les données permet de garantir l'interprétabilité des explications fournies. Permettre à l'utilisateur d'utiliser des mots de son propre vocabulaire contribue à la personnalisation des explications et améliore l'interprétabilité. Nous proposons de nous intéresser aux explications dans le contexte des réponses coopératives sous trois angles : 1) dans le cas d'un ensemble pléthorique de résultats ; 2) dans le contexte des systèmes de recommandation ; 3) dans le cas d'une recherche à partir d'exemples. Ces axes définissent des approches coopératives où l'intérêt des explications est de permettre à l'utilisateur de comprendre comment sont calculés les résultats proposés dans un effort de transparence. Le caractère informatif des explications apporte une valeur ajoutée aux résultats bruts, et forme une réponse coopérative. / In this thesis, we are interested in how we can leverage fuzzy logic to improve the interactions between relational database systems and humans. Cooperative answering techniques aim to help users harness the potential of DBMSs. These techniques are expected to be robust and always provide answer to users. Empty set (0,00 sec) is a typical example of answer that one may wish to never obtain. The informative nature of explanations is higher than that of actual answers in several cases, e.g. empty answer sets and plethoric answer sets, hence the interest of robust cooperative answering techniques capable of both explaining and improving an answer set. Using terms from natural language to describe data --- with labels from fuzzy vocabularies --- contributes to the interpretability of explanations. Offering to define and refine vocabulary terms increases the personalization experience and improves the interpretability by using the user's own words. We propose to investigate the use of explanations in a cooperative answering setting using three research axes: 1) in the presence of a plethoric set of answers; 2) in the context of recommendations; 3) in the context of a query/answering problem. These axes define cooperative techniques where the interest of explanations is to enable users to understand how results are computed in an effort of transparency. The informativeness of the explanations brings an added value to the direct results, and that in itself represents a cooperative answer.
107

Usage et mésusage dans la prescription des antidépresseurs : l’apport des bases de données / Use and misuse in prescription of antidepressants : what databases can bring

Milea, Dominique 21 December 2010 (has links)
Au vu de la croissance considérable de la consommation des antidépresseurs au cours des dernières décennies et de la part non négligeable de patients qui restent non traités ou mal traités, la question du bon usage ou du mésusage de ces médicaments s’impose. Les trois études présentées dans ce rapport se sont intéressées à décrire l’augmentation de la consommation des antidépresseurs et à en comprendre les mécanismes sous-jacents. L’analyse des données de vente indique que la croissance des antidépresseurs diffère entre les pays étudiés, mais qu’elle suit un schéma classique d’augmentation suivie d’une stabilisation à un certain seuil, et que les politiques de limitation des dépenses de santé ont un impact, différent selon la maturité du marché. Les travaux sur données de remboursement montrent que si l‘on peut parler de mésusage dans l’utilisation des antidépresseurs, il semble lié non pas à une prescription hors indication mais plutôt inappropriée : traitement sans diagnostic précis, prescription unique suggérant un traitement injustifié, traitement trop court en regard des recommandations internationales qui préconisent au moins 6 mois pour éviter rechutes et récidives. Les travaux que nous avons menés montrent que les bases de données peuvent constituer un outil fiable d’évaluation de la consommation (données de vente) ou d’utilisation des antidépresseurs (bases de remboursement) : utilisation simple et rapide de données de vente afin d’avoir un panorama des pratiques et utilisation plus complexe des bases de remboursement afin de mieux comprendre les pratiques. Utilisés en pratique courante, des tableaux de bord de suivi de consommation pourraient alerter les pouvoirs publics sur les dérives des consommations et permettre de mettre en place des analyses plus poussées afin de caractériser les pratiques et mieux comprendre les vecteurs de la consommation. / Considering the large increase in antidepressant use observed in the last decades, the question of good or poor usage of antidepressants is of importance. The three studies presented in this report consisted into a descriptive analysis of the increase in the use of antidepressants in different countries, and thereafter analyse the underlying mechanisms. Our analysis of sales database indicates that the increase in antidepressants volume differ from country to country, but follows a classical scheme with rapid increase until stabilisation to a certain threshold and that national policies to ensure expenditure limitations has a different impact on the volume depending on the maturity of the market. The analyses performed afterwards on US claims databases, and show that if improper use of antidepressants is a reality, it does not seem to correspond to a massive off-label use but rather to an incorrect use of antidepressants: treatment without precise diagnosis, isolated prescription which suggest undue treatment, treatment for too short periods of time with regards to international guidelines which recommend at least 6 month to avoid relapse or recurrence of the disease. The analyses we have conducted on databases can serve as a basis for the development of a reliable tool to evaluate drug consumption (sales databases) or drug use (claims databases) : simple and rapid use of sales databases to get a mapping of consumption in their environment, and more complex and time consuming use of claims database to gain an understanding of practice. Used in routine, the sales monitoring tools could play a role to alert public health services on abnormal evolution of drug consumption and allow the initiation of more refined analyses either on large claims databases or through prospective cohort of patients in order to characterise the practice and gain an understanding on the drivers of drug use.
108

Comparaison de la prise en charge de la dépression chez le sujet âgé et l’adulte non âgé par l’utilisation de systèmes administratifs automatisés. / Comparison of depression care between depressed elderly and depressed adults using healthcare claims database

Sanglier, Thibaut 15 December 2011 (has links)
Les bases de données des plans d’assurance maladie permettent de reconstruire l’évolution des patients dans le système de soins sans influencer le comportement du prescripteur ou du patient. Les troubles dépressifs sont largement étudiés en population générale, ils ont cependant fait l’objet d’une attention tardive chez le sujet âgé. Malgré les singularités de la dépression chez les sujets âgés, les traitements demeurent efficaces dans cette population. L’objectif de ce travail était d’utiliser une base de données de remboursements afin de comparer la prise en charge de la dépression chez les sujets âgés de 65 ans et plus et les adultes plus jeunes. Nous avons comparé 6 316 sujets dépressifs âgés à 25 264 sujets dépressifs adultes plus jeunes, en termes d’initiation et de durée de traitement antidépresseur. Comparé à l’échantillon plus jeune, notre échantillon de sujets âgés est apparu sous-traité alors que les sujets âgés initiant un traitement semblaient mieux y adhérer. La présence de comorbidités favorisait l’initiation d’un traitement sans être associé à une durée de traitement différente. De plus, une amélioration du remboursement des médicaments dans notre population fut concomitante d’un allongement de la durée de traitement chez les sujets âgés. Ces résultats, supportés par d’autres études plus classiques, suggèrent que la déviation ? de données collectées à des fins autres que la recherche épidémiologique est une approche permettant d’étudier des cohortes de patients en conditions réelles de prescription, de décrire des groupes spécifiques de patients et de mesurer des expositions médicamenteuses ainsi que de potentiels impacts de politiques de santé. / Healthcare databases allow exhaustive and strictly observational follow-up of patients in the healthcare system. Mood disorders are well described in the literature, but depressed elderly raised less concern. In this work, we have developed methods and strategies allowing the comparison of the management of depression between elderly people and their younger adult counterpart. Aging was associated with lower treatment rates and higher comorbidities. Conversely, in both age groups, the presence of comorbid condition mitigated the risk of being untreated. Besides, in any age group, having comorbid condition was not found associated with difference in persistence rate to antidepressants. Implementation of Medicare Part D was associated with substantial improvement in treatment of older adults with depression. Supported by other field studies, our results show that valuable data can be derived from healthcare databases. The full potential of this rich computerized database has yet to come.
109

Détermination spectroscopique automatique de paramètres atmosphériques stellaires / Automatic spectroscopic determination of stellar atmospheric parameters

Wu, Yue 28 June 2011 (has links)
Les études Galactiques nécessitent de grands échantillons d'étoiles dont la masse, l'âge, les abondances, la vitesse et la distance sont connues. Les observations spectroscopiques permettent de mesurer certains de ces paramètres et les autres sont soit déterminés par d'autres moyens, ou dérivés par le calcul. Le besoin d'échantillons statistiquement représentatifs a motivé la construction d'instruments, et la réalisation de grands relevés comme le SDSS, LAMOST et GAIA... Ces projets génèrent une énorme quantité de données que les méthodes d'analyse interactives traditionnelles ne peuvent pas gérer. Cela a motivé des efforts pour concevoir des méthodes automatiques. Mon travail a commencé dans ce contexte, et les objectifs étaient de développer et tester une méthode automatique, puis de l'appliquer à des spectres stellaires à moyenne résolution. La thèse comporte quatre sections : 1. Je présente le package informatique ULySS, et en particulier son application à la détermination des paramètres atmosphériques des étoiles. 2. Nous avons utilisé ULySS pour déterminer les paramètres atmosphériques des 1273 étoiles de la bibliothèque CFLIB. 3. Nous avons appliqué la même méthode sur des observations obtenus pendant la mise en service de LAMOST et nous avons préparé une base de données de spectres de références pour les relevés futurs avec cet instrument. 4. Nous avons cherché des étoiles présumées pauvres en métaux (MP) en se servant des données de vérification scientifique de LAMOST. Cette étude contribue à l'étude des étoiles MP dans la Voie Lactée et montre la faisabilité de ces recherches avec LAMOST et ULySS / Galactic studies require large samples of stars with known mass, age, abundance, spatial velocity and distance etc. Spectroscopic observations allow ones to measure some of these parameters and to derive the others. The need for statistically representative samples motivated the construction of instruments and the realization of large surveys like SDSS, LAMOST and GAIA... These projects bring an enormous quantity of data that the traditional interactive spectral analysis methods cannot handle. This triggered efforts to design automatic methods. My work started in this context, and the goals were to develop and test an automatic method and to apply it to medium resolution stellar spectra. The thesis contains four sections: 1. The ULySS package, and in particular its application to the determination of the atmospheric parameters of stars is presented. 2. We used ULySS to determine the atmospheric parameters of the 1273 stars of the CFLIB library. 3. We applied the same method on LAMOST commissioning observations and we prepared stellar spectral templates for the future surveys. 4. We searched new metal-poor (hearafter MP) stellar candidates from LAMOST commissioning observations. The result of these MP star candidates is a prelude to the feasibility of LAMOST's capability on searching and enlarging the sample of MP stars in the Milky Way
110

Une approche holistique combinant flux temps-réel et données archivées pour la gestion et le traitement d'objets mobiles : application au trafic maritime / A hybrid approach combining real-time and archived data for mobility analysis : application to maritime trafic

Salmon, Loïc 17 January 2019 (has links)
La numérisation de nos espaces de vie et de mobilités s’est largement accentuée durant la dernière décennie. La multiplication des capteurs de toute nature permettant de percevoir et de mesurer notre espace physique en est le levier principal. L’ensemble de ces systèmes produit aujourd’hui de grands volumes de données hétérogènes sans cesse croissants, ce qui soulève de nombreux enjeux scientifiques et d'ingénierie en termes de stockage et de traitement pour la gestion et l’analyse de mobilités. Les travaux dans le domaine d’analyse des données spatio-temporelles ont largement été orientés soit vers la fouille de données historiques archivées, soit vers le traitement continu. Afin d’éviter les écueils de plus en plus prégnants dus à l’augmentation de ces volumes de données et de leur vélocité (temps de traitement trop long, modèles conceptuellement plus adaptés, analyse approximative des données), nous proposons la conception d’une approche hybride distribuée permettant le traitement combiné de flux temps-réel et de données archivées. L’objectif de cette thèse est donc de développer un nouveau système de gestion et de traitement distribué pour l’analyse des mobilités en particulier maritimes. La solution proposée répond principalement à des contraintes de temps-réel, les données archivées et les informations qui en sont extraites permettant d'améliorer la qualité de réponse. Une proposition de paradigme d'événements est également développée pour permettre ce traitement hybride mais aussi pour caractériser et identifier plus facilement des comportements types d'objets mobiles. Enfin, une requête appliquée sur des zones de couverture de signal pour des objets mobiles a été étudiée et testée sur des données maritimes mettant en exergue le besoin d'une approche hybride pour le traitement de trajectoires. / Over the past few years, the rapid prolifération of sensors and devices recording positioning information regularly produces very large volumes of heterogeneous data. This leads to many research challenges as the storage, distribution, management,Processing and analysis of the large mobility data generated still needs to be solved. Current works related to the manipulation of mobility data have been directed towards either mining archived historical data or continuous processing of incoming data streams.The aim of this research is to design a holistic System whose objective is to provide a combined processing of real time data streams and archived data positions. The proposed solution is real-time oriented, historical data and informations extracted from them allowing to enhance quality of the answers to queries. A event paradigm is discussed to facilitate the hybrid approach and to identify typical moving objects behaviors. Finally, a query concerning signal coverage of moving objects has been studied and applied to maritime data showing the relevance of a hybrid approach to deal with moving object data processing.

Page generated in 0.0482 seconds