• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Association des activités professionnelles et de l’exposition aux métaux avec deux maladies neurodégénératives à partir du Système National des Données de Santé / Association of Occupational Activities and Exposure to Metals with Two Neurodegenerative Diseases Using the Système National des Données de Santé

Vlaar, Tim 05 December 2019 (has links)
Peu d’études françaises ont abordé le rôle des expositions chimiques autres que les pesticides dans les maladies neurodégénératives. Des interrogations persistent notamment sur le rôle de l’exposition environnementale ou professionnelle aux métaux dans la maladie de Parkinson (MP) et sur l’existence d’un excès de maladies du motoneurone (MMN) parmi les militaires qui peuvent être exposés au plomb ou à d’autres produits. Nous avons abordé ces questions en France à travers des études nationales au sein du Système National des Données de Santé (SNDS). Nous avons observé une augmentation de l’incidence de la MP (2010-2014) dans les cantons caractérisés par des proportions élevées de travailleurs dans les secteurs de l’agriculture, la métallurgie et l’industrie textile ; l’exposition professionnelle aux pesticides, métaux et solvants respectivement pourraient contribuer à ces associations. Par ailleurs, nous avons observé une incidence de la MMN (2010-2016) plus élevée de 16% chez les hommes de 50 ans et plus affiliés à la Caisse nationale militaire de sécurité sociale par rapport aux hommes de la population générale. Le tabagisme et des facteurs professionnels pourraient expliquer cette association. Enfin, nous avons utilisé des données de biosurveillance à partir de mousses prélevées dans les régions rurales pour étudier le rôle des retombées atmosphériques en métaux (cuire, fer, mercure, manganèse, plomb, zinc) dans la MP. Son incidence (2010-2015) était 4% plus élevée dans les régions où la concentration en métaux dans les mousses était la plus élevée. Une association positive et statistiquement significative est retrouvée pour le cuivre et le mercure. En utilisant différents indicateurs pour approcher l’exposition aux métaux, ce travail souligne la complexité de l’étude du rôle étiologique de nuisances dont les déterminants d’exposition sont à la fois environnementaux et professionnels. / Few French studies have examined the role of chemical exposures other than pesticides in neurodegenerative diseases. There are still uncertainties regarding the role of environmental or occupational exposure to metals in Parkinson’s disease (PD) and the excess risk of motor neuron disease (MND) among military personnel who can be exposed to lead and other products. We have examined these questions in France through nationwide incidence studies within national health insurance databases (Système National des Données de Santé, SNDS). We observed an increased PD incidence (2010-2014) in areas characterized by high proportions of workers in agriculture, metallurgy and textile sectors; occupational exposure to pesticides, metals, or solvents respectively may contribute to these associations. Furthermore, we observed a 16% increased incidence of MND (2010-2016) among men aged 50 years and older covered by the national military social security fund (Caisse nationale militaire de sécurité sociale) compared to men from the general population. This excess risk is possibly explained by smoking and occupational factors. Finally, we used biomonitoring data from mosses obtained in rural regions to investigate the role of atmospheric deposition of metals (copper, iron, mercury, manganese, lead, zinc) in PD. Its incidence (2010-2015) was 4% higher in areas where overall metal concentrations in mosses were the highest. There was a statistically significant positive association for copper and mercury. Using different indicators to assess exposure to metals, our work highlights the complexity of studies on the etiologic role of chemicals whose exposure determinants are both environmental and occupational.
202

Supporting multiple data stores based applications in cloud environments / Soutenir les applications utilisant des bases de données multiples dans un environnement Cloud Computing

Sellami, Rami 05 February 2016 (has links)
Avec l’avènement du cloud computing et des big data, de nouveaux systèmes de gestion de bases de données sont apparus, connus en général sous le vocable systèmes NoSQL. Par rapport aux systèmes relationnels, ces systèmes se distinguent par leur absence de schéma, une spécialisation pour des types de données particuliers (documents, graphes, clé/valeur et colonne) et l’absence de langages de requêtes déclaratifs. L’offre est assez pléthorique et il n’y a pas de standard aujourd’hui comme peut l’être SQL pour les systèmes relationnels. De nombreuses applications peuvent avoir besoin de manipuler en même temps des données stockées dans des systèmes relationnels et dans des systèmes NoSQL. Le programmeur doit alors gérer deux (au moins) modèles de données différents et deux (au moins) langages de requêtes différents pour pouvoir écrire son application. De plus, il doit gérer explicitement tout son cycle de vie. En effet, il a à (1) coder son application, (2) découvrir les services de base de données déployés dans chaque environnement Cloud et choisir son environnement de déploiement, (3) déployer son application, (4) exécuter des requêtes multi-sources en les programmant explicitement dans son application, et enfin le cas échéant (5) migrer son application d’un environnement Cloud à un autre. Toutes ces tâches sont lourdes et fastidieuses et le programmeur risque d’être perdu dans ce haut niveau d’hétérogénéité. Afin de pallier ces problèmes et aider le programmeur tout au long du cycle de vie des applications utilisant des bases de données multiples, nous proposons un ensemble cohérent de modèles, d’algorithmes et d’outils. En effet, notre travail dans ce manuscrit de thèse se présente sous forme de quatre contributions. Tout d’abord, nous proposons un modèle de données unifié pour couvrir l’hétérogénéité entre les modèles de données relationnelles et NoSQL. Ce modèle de données est enrichi avec un ensemble de règles de raffinement. En se basant sur ce modèle, nous avons défini notre algèbre de requêtes. Ensuite, nous proposons une interface de programmation appelée ODBAPI basée sur notre modèle de données unifié, qui nous permet de manipuler de manière uniforme n’importe quelle source de données qu’elle soit relationnelle ou NoSQL. ODBAPI permet de programmer des applications indépendamment des bases de données utilisées et d’exprimer des requêtes simples et complexes multi-sources. Puis, nous définissons la notion de bases de données virtuelles qui interviennent comme des médiateurs et interagissent avec les bases de données intégrées via ODBAPI. Ce dernier joue alors le rôle d’adaptateur. Les bases de données virtuelles assurent l’exécution des requêtes d’une façon optimale grâce à un modèle de coût et un algorithme de génération de plan d’exécution optimal que nous définis. Enfin, nous proposons une approche automatique de découverte de bases de données dans des environnements Cloud. En effet, les programmeurs peuvent décrire leurs exigences en termes de bases de données dans des manifestes, et grâce à notre algorithme d’appariement, nous sélectionnons l’environnement le plus adéquat à notre application pour la déployer. Ainsi, nous déployons l’application en utilisant une API générique de déploiement appelée COAPS. Nous avons étendue cette dernière pour pouvoir déployer les applications utilisant plusieurs sources de données. Un prototype de la solution proposée a été développé et mis en œuvre dans des cas d'utilisation du projet OpenPaaS. Nous avons également effectué diverses expériences pour tester l'efficacité et la précision de nos contributions / The production of huge amount of data and the emergence of Cloud computing have introduced new requirements for data management. Many applications need to interact with several heterogeneous data stores depending on the type of data they have to manage: traditional data types, documents, graph data from social networks, simple key-value data, etc. Interacting with heterogeneous data models via different APIs, and multiple data stores based applications imposes challenging tasks to their developers. Indeed, programmers have to be familiar with different APIs. In addition, the execution of complex queries over heterogeneous data models cannot, currently, be achieved in a declarative way as it is used to be with mono-data store application, and therefore requires extra implementation efforts. Moreover, developers need to master and deal with the complex processes of Cloud discovery, and application deployment and execution. In this manuscript, we propose an integrated set of models, algorithms and tools aiming at alleviating developers task for developing, deploying and migrating multiple data stores applications in cloud environments. Our approach focuses mainly on three points. First, we provide a unified data model used by applications developers to interact with heterogeneous relational and NoSQL data stores. This model is enriched by a set of refinement rules. Based on that, we define our query algebra. Developers express queries using OPEN-PaaS-DataBase API (ODBAPI), a unique REST API allowing programmers to write their applications code independently of the target data stores. Second, we propose virtual data stores, which act as a mediator and interact with integrated data stores wrapped by ODBAPI. This run-time component supports the execution of single and complex queries over heterogeneous data stores. It implements a cost model to optimally execute queries and a dynamic programming based algorithm to generate an optimal query execution plan. Finally, we present a declarative approach that enables to lighten the burden of the tedious and non-standard tasks of (1) discovering relevant Cloud environments and (2) deploying applications on them while letting developers to simply focus on specifying their storage and computing requirements. A prototype of the proposed solution has been developed and implemented use cases from the OpenPaaS project. We also performed different experiments to test the efficiency and accuracy of our proposals
203

Optimisation de requêtes spatiales et serveur de données distribué - Application à la gestion de masses de données en astronomie / Spatial Query Optimization and Distributed Data Server - Application in the Management of Big Astronomical Surveys

Brahem, Mariem 31 January 2019 (has links)
Les masses de données scientifiques générées par les moyens d'observation modernes, dont l’observation spatiale, soulèvent des problèmes de performances récurrents, et ce malgré les avancées des systèmes distribués de gestion de données. Ceci est souvent lié à la complexité des systèmes et des paramètres qui impactent les performances et la difficulté d’adapter les méthodes d’accès au flot de données et de traitement.Cette thèse propose de nouvelles techniques d'optimisations logiques et physiques pour optimiser les plans d'exécution des requêtes astronomiques en utilisant des règles d'optimisation. Ces méthodes sont intégrées dans ASTROIDE, un système distribué pour le traitement de données astronomiques à grande échelle.ASTROIDE allie la scalabilité et l’efficacité en combinant les avantages du traitement distribué en utilisant Spark avec la pertinence d’un optimiseur de requêtes astronomiques.Il permet l'accès aux données à l'aide du langage de requêtes ADQL, couramment utilisé.Il implémente des algorithmes de requêtes astronomiques (cone search, kNN search, cross-match, et kNN join) en exploitant l'organisation physique des données proposée.En effet, ASTROIDE propose une méthode de partitionnement des données permettant un traitement efficace de ces requêtes grâce à l'équilibrage de la répartition des données et à l'élimination des partitions non pertinentes. Ce partitionnement utilise une technique d’indexation adaptée aux données astronomiques, afin de réduire le temps de traitement des requêtes. / The big scientific data generated by modern observation telescopes, raises recurring problems of performances, in spite of the advances in distributed data management systems. The main reasons are the complexity of the systems and the difficulty to adapt the access methods to the data. This thesis proposes new physical and logical optimizations to optimize execution plans of astronomical queries using transformation rules. These methods are integrated in ASTROIDE, a distributed system for large-scale astronomical data processing.ASTROIDE achieves scalability and efficiency by combining the benefits of distributed processing using Spark with the relevance of an astronomical query optimizer.It supports the data access using the query language ADQL that is commonly used.It implements astronomical query algorithms (cone search, kNN search, cross-match, and kNN join) tailored to the proposed physical data organization.Indeed, ASTROIDE offers a data partitioning technique that allows efficient processing of these queries by ensuring load balancing and eliminating irrelevant partitions. This partitioning uses an indexing technique adapted to astronomical data, in order to reduce query processing time.
204

Recherche de médicaments in silico sur grilles de calcul contre des maladies négligées et émergentes

Jacq, N. 12 December 2006 (has links) (PDF)
Les grilles de calcul sont une nouvelle Technologie de l'Information permettant la collecte et le partage de l'information, la mise en réseau d'experts et la mobilisation de ressources en routine ou en urgence. Elles ouvrent de nouvelles perspectives de réduction des coûts et d'accélération de la recherche in silico de médicaments contre les maladies négligées et émergentes. Dans ce contexte, la première partie de la thèse a porté sur la conception de services bio-informatiques sur grille. Ils facilitent le déploiement et la mise à jour sur la grille RUGBI de logiciels et de bases de données. La seconde partie a vu le déploiement d'expériences de criblage virtuel à haut débit sur l'infrastructure de grille EGEE. Les expériences ont démontré que les grilles collaboratives ont la capacité à mobiliser d'importantes ressources de calcul dans des buts bien définis pendant une période de temps significative, et qu'elles produisent des résultats biologiques pertinents.
205

Méthodologies pour la création de connaissances relatives au marché chinois dans une démarche d'Intelligence Économique : application dans le domaine des biotechnologies agricoles

Guénec, Nadège 02 July 2009 (has links) (PDF)
Le décloisonnement des économies et l'accélération mondiale des échanges commerciaux ont, en une décennie à peine, transformés l'environnement concurrentiel des entreprises. La zone d'activités s'est élargie en ouvrant des nouveaux marchés à potentiels très attrayants. Ainsi en est-il des BRIC (Brésil, Russie, Inde et Chine). De ces quatre pays, impressionnants par la superficie, la population et le potentiel économique qu'ils représentent, la Chine est le moins accessible et le plus hermétique à notre compréhension de par un système linguistique distinct des langues indo-européennes d'une part et du fait d'une culture et d'un système de pensée aux antipodes de ceux de l'occident d'autre part. Pourtant, pour une entreprise de taille internationale, qui souhaite étendre son influence ou simplement conserver sa position sur son propre marché, il est aujourd'hui absolument indispensable d'être présent sur le marché chinois. Comment une entreprise occidentale aborde-t-elle un marché qui de par son altérité, apparaît tout d'abord comme complexe et foncièrement énigmatique ? Six années d'observation en Chine, nous ont permis de constater les écueils dans l'accès à l'information concernant le marché chinois. Comme sur de nombreux marchés extérieurs, nos entreprises sont soumises à des déstabilisations parfois inimaginables. L'incapacité à " lire " la Chine et à comprendre les enjeux qui s'y déroulent malgré des effets soutenus, les erreurs tactiques qui découlent d'une mauvaise appréciation du marché ou d'une compréhension biaisée des jeux d'acteurs nous ont incités à réfléchir à une méthodologie de décryptage plus fine de l'environnement d'affaire qui puisse offrir aux entreprises françaises une approche de la Chine en tant que marché. Les méthodes de l'Intelligence Economique (IE) se sont alors imposées comme étant les plus propices pour plusieurs raisons : le but de l'IE est de trouver l'action juste à mener, la spécificité du contexte dans lequel évolue l'organisation est prise en compte et l'analyse se fait en temps réel. Si une approche culturelle est faite d'interactions humaines et de subtilités, une approche " marché " est dorénavant possible par le traitement automatique de l'information et de la modélisation qui s'en suit. En effet, dans toute démarche d'Intelligence Economique accompagnant l'implantation d'une activité à l'étranger, une grande part de l'information à portée stratégique vient de l'analyse du jeu des acteurs opérants dans le même secteur d'activité. Une telle automatisation de la création de connaissance constitue, en sus de l'approche humaine " sur le terrain ", une réelle valeur ajoutée pour la compréhension des interactions entre les acteurs car elle apporte un ensemble de connaissances qui, prenant en compte des entités plus larges, revêtent un caractère global, insaisissable par ailleurs. La Chine ayant fortement développé les technologies liées à l'économie de la connaissance, il est dorénavant possible d'explorer les sources d'information scientifiques et techniques chinoises. Nous sommes en outre convaincus que l'information chinoise prendra au fil du temps une importance de plus en plus cruciale. Il devient donc urgent pour les organisations de se doter de dispositifs permettant non seulement d'accéder à cette information mais également d'être en mesure de traiter les masses d'informations issues de ces sources. Notre travail consiste principalement à adapter les outils et méthodes issues de la recherche française à l'analyse de l'information chinoise en vue de la création de connaissances élaborées. L'outil MATHEO, apportera par des traitements bibliométriques une vision mondiale de la stratégie chinoise. TETRALOGIE, outil dédié au data-mining, sera adapté à l'environnement linguistique et structurel des bases de données scientifiques chinoises. En outre, nous participons au développement d'un outil d'information retreival (MEVA) qui intègre les données récentes des sciences cognitives et oeuvrons à son application dans la recherche de l'information chinoise, pertinente et adéquate. Cette thèse étant réalisée dans le cadre d'un contrat CIFRE avec le Groupe Limagrain, une application contextualisée de notre démarche sera mise en œuvre dans le domaine des biotechnologies agricoles et plus particulièrement autour des enjeux actuels de la recherche sur les techniques d'hybridation du blé. L'analyse de ce secteur de pointe, qui est à la fois une domaine de recherche fondamentale, expérimentale et appliquée donne actuellement lieu à des prises de brevets et à la mise sur le marché de produits commerciaux et représente donc une thématique très actuelle. La Chine est-elle réellement, comme nous le supposons, un nouveau territoire mondial de la recherche scientifique du 21e siècle ? Les méthodes de l'IE peuvent-elles s'adapter au marché chinois ? Après avoir fourni les éléments de réponses à ces questions dans es deux premières parties de notre étude, nous poserons en troisième partie, le contexte des biotechnologies agricoles et les enjeux mondiaux en terme de puissance économico-financière mais également géopolitique de la recherche sur l'hybridation du blé. Puis nous verrons en dernière partie comment mettre en œuvre une recherche d'information sur le marché chinois ainsi que l'intérêt majeur en terme de valeur ajoutée que représente l'analyse de l'information chinoise
206

Pour une utilisation optimale des données personnelles à des fins de recherche : vers un réseau de ressources collectives

Fortin, Sabrina 06 1900 (has links)
Thèse par articles. Articles (4) annexés à la thèse en fichiers complémentaires. / Les bases de données populationnelles (gouvernementales, biobanques) occupent l’espace de la santé et des politiques publiques depuis longtemps. Les données personnelles qui y sont contenues sont toutefois soumises à une pression nouvelle, de par la valeur qu’elles représentent pour la recherche populationnelle. L’étude des maladies communes nécessitent de grands échantillons pour produire des résultats statistiquement significatifs. D’ailleurs, les collaborations internationales et initiatives de réseautage se multiplient. Les bases de données populationnelles agissent alors en synergie, générant de nombreux bénéfices pour la société (ex. : identifier des facteurs de risques, mieux connaître l’épidémiologie humaine, stimuler les économies nationales, etc.). Dans ce système complexe, les intérêts des acteurs (sujets de recherche, chercheurs, comités d’éthique – CÉR -, gouvernements, organismes subventionnaires) déterminent l’action et les normes applicables. La recherche avec des sujets humains et l’utilisation massive de données personnelles comportent de nombreuses sensibilités. Des balises juridiques ont été érigées pour protéger les personnes et leur vie privée, mais elles s’avèrent inadéquates dans un contexte de recherche populationnelle. L’obligation d’obtenir un nouveau consentement pour chaque utilisation, l’incapacité des CÉR locaux à représenter une population et la multiplication des disparités normatives entre juridictions sont autant de barrières qui se dressent. Après avoir exploré différents modèles normatifs internationaux (patrimoine commun de l’humanité, biens publics mondiaux, modèles dits libres), le modèle en réseau apparaît comme le plus apte à rallier les différents niveaux de gouvernance impliqués (individuel, populationnel et international). La création d’un réseau de ressources collectives pour la recherche populationnelle est ici proposée. La recherche scientifique est une finalité compatible aux autres utilisations pour lesquelles les données ont été collectées. Les bases de données sont maintenues pour servir l’utilité publique. Le réseau devrait donc faciliter l’accès aux projets de recherche populationnelle socialement utiles, ou dans l’intérêt public. Pour qu’un tel réseau fonctionne, la population devrait être sensibilisée à la valeur des données personnelles pour la recherche, des liens directs entre CÉR devraient être créés afin de favoriser l’empuissancement des acteurs locaux, les initiatives internationales et locales devraient s’influencer de manière réflexive. L’État, en tant que gardien des données personnelles et promoteur de la recherche, agirait comme coordonnateur du système avec pour objectif, d’optimiser l’utilisation des données personnelles à des fins de recherche populationnelle. / Populational databases (governmental databases and biobanks) have been effective tools in the field of public health and policy making. The personal data stored in these databases are central to identifying the risks of diseases in population-based research. Many initiatives of networking, collaborative research and implementation of electronic health records are deployed in the world. Population-based research depends on synergy between populational databases due to the large sample size of data that is needed to obtain statistical significance. In the complex system of public research, the various interests of agents involved (e.g. research subjects, researchers, research ethics boards (REBs), governments, funding agencies) collectively determine the applicable strategies and norms. Research involving human subjects and the extensive use of personal data raises numerous issues. Ethical and legal requirements have been set up to protect dignity and privacy. However, these requirements are not adequate for population-based research. Issues of re-consent for secondary uses; the limited reach of local REBs; and discrepancies between jurisdictions present barriers to population-based research. In a comparative study of international normative models (Common Heritage of Mankind, Global Public Goods, Commons), ‘network governance’ seems the most appropriate model to link the various governance structures that are implicated in population-based research (e.g. individual, populational and international). The creation of a Collective Resources Network for population-based research is proposed for this purpose. Scientific research is compatible with other uses for which consent has been obtained. Databases are maintained for public utility. This network should facilitate population-based research that is socially useful or in the public interest. To be effective, the value of personal data in scientific research must be recognized; REBs should be empowered by the creation of direct links between them; and international and local initiatives should be integrated in a reflexive manner. The State, both as the steward of personal data and the promoter of innovative research, should act as the coordinator of the system, with the objective of optimizing the use of personal data for population-based research.
207

Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales

Jousse, Anne-Laure 04 1900 (has links)
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7) / Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques. / This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases.
208

Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit / The first work related to the concept of communicatiing material : information dissemination process for product-related data

Kubler, Sylvain 07 November 2012 (has links)
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse consiste en la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinséquement et intégralement "communicant". Le cadre de dissémination des informations proposé offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer à l'avenir concernant le concept de "matière communicante" / Over the last decade, communities involved with intelligent-manufacturing systems (IMS - Intelligent Manufacturing Systems, HMS - Holonic Manufacturing System) have demonstrated that systems that integrate intelligent products can be more efficient, flexible and adaptable. Intelligent products may prove to be beneficial economically, to deal with product traceability and information sharing along the product lifecycle. Nevertheless, there are still some open questions such as the specification of what information should be gathered, stored and distributed and how it should be managed during the lifecycle of the product. The contribution of this thesis is to define a process for disseminating information related to the product over its lifecycle. This process is combined with a new paradigm, which changes drastically the way we view the material. This concept aims to give the ability for the material to be intrinsically and wholly "communicating". The data dissemination process allow users to store context-sensitive information on communicating product. In addition to the data dissemination process, this thesis gives insight into the technological and scientific research fields inherent to the concept of "communicating material", which remain to be explored
209

Contrôle d'accès efficace pour des données XML : problèmes d'interrogation et de mise-à-jour / Efficient Access Control to XML Data : Querying and Updating Problems

Mahfoud, Houari 18 February 2014 (has links)
Le langage XML est devenu un standard de représentation et d'échange de données à travers le web. Le but de la réplication de données au sein de différents sites est de minimiser le temps d'accès à ces données partagées. Cependant, différents problèmes sont liés à la sécurisation de ces données. Le but de cette thèse est de proposer des modèles de contrôles d'accès XML qui prennent en compte les droits de lecture et de mise-à-jour et qui permettent de surmonter les limites des modèles qui existent. Nous considérons les langages XPath et XQuery Update Facility pour la formalisation des requêtes d'accès et des requêtes de mise-à-jour respectivement. Nous donnons des descriptions formelles de nos modèles de contrôles d'accès et nous présentons des algorithmes efficaces pour le renforcement des politiques de sécurité spécifiées à la base de ces modèles. L'autre partie de cette thèse est consacrée à l'étude pratique de nos propositions. Nous présentons notre système appelé SVMAX qui met en oeuvre nos solutions, et nous conduisons une étude expérimentale basée sur une DTD réelle pour montrer son efficacité. Plusieurs systèmes de bases de données natives (systèmes de BDNs) ont été proposés récemment qui permettent une manipulation efficace des données XML en utilisant la plupart des standards du W3C. Nous montrons que notre système SVMAX peut être intégré facilement et efficacement au sein d'un large ensemble de systèmes de BDNs. A nos connaissances, SVMAX est le premier système qui permet la sécurisation des données XML conformes à des DTDs arbitraires (récursives ou non) et ceci en moyennant un fragment significatif de XPath et une classe riche d'opérations de mise-à-jour XML / XML has become a standard for representation and exchange of data across the web. Replication of data within different sites is used to increase the availability of data by minimizing the access's time to the shared data. However, the safety of the shared data remains an important issue. The aim of the thesis is to propose some models of XML access control that take into account both read and update rights and that overcome limitations of existing models. We consider the XPath language and the XQuery Update Facility to formalize respectively user access queries and user update operations. We give formal descriptions of our read and update access control models and we present efficient algorithms to enforce policies that can be specified using these models. Detailed proofs are given that show the correctness of our proposals. The last part of this thesis studies the practicality of our proposals. Firstly, we present our system, called SVMAX, that implements our solutions and we conduct an extensive experimental study, based on real-life DTD, to show that it scales well. Many native XML databases systems (NXD systems) have been proposed recently that are aware of the XML data structure and provide efficient manipulation of XML data by the use of most of W3C standards. Finally, we show that our system can be integrated easily and efficiently within a large set of NXD systems, namely BaseX, Sedna and eXist-db. To the best of our knowledge, SVMAX is the first system for securing XML data in the presence of arbitrary DTDs (recursive or not), a significant fragment of XPath and a rich class of XML update operations
210

Utilisation des bases de l'Assurance Maladie pour l'analyse de l'utilisation et de la sécurité des anticoagulants oraux dans la fibrillation auriculaire / Patterns of use and safety of direct oral anticoagulants in patients with nonvalvular atrial fibrillation : findings from the French healhcare databases

Maura, Géric 15 November 2018 (has links)
En France, depuis 2012, les anticoagulants oraux directs (AOD), indiqués dans la prévention des accidents vasculaires cérébraux chez les patients avec fibrillation auriculaire (FA) non valvulaire, sont une alternative aux antivitamines K (AVK) pour lesquels une sous-prescription et un défaut d’observance ont été largement décrits. L’objectif de cette thèse était, dans le cadre du programme de travail du Département études de santé publique de la Caisse nationale de l’Assurance maladie, d’étudier à partir des bases de données médico-administratives (BDMA) françaises l’utilisation et la sécurité du traitement anticoagulant oral (ACO) en situation réelle de soins chez les patients avec FA. Un premier travail a permis de construire un algorithme pour identifier l’indication FA chez les patients débutant un ACO et pour lesquels aucun diagnostic de FA n’était retrouvé dans les BDMA. Un deuxième travail a porté sur l’évaluation de l’adhésion au traitement ACO chez les nouveaux utilisateurs : au cours de l’année suivant l’initiation du traitement, au moins un patient sur trois arrêtait son traitement, dabigatran ou rivaroxaban, et la persistance à ces traitements n’était pas meilleure que celle des AVK. Un troisième travail a décrit une amélioration de la couverture anticoagulante chez les patients avec FA entre 2011 et 2016. Cependant, un patient sur trois était encore sans traitement ACO en 2016 et de potentiels mésusages à l’instauration du traitement AOD ont été identifiés, dont un signal de sous-dosage. Enfin, une analyse en symétrie de séquences a suggéré que l’initiation des AOD serait associée à la survenue rare d’atteintes toxiques aiguës du foie et à la survenue plus fréquente de troubles gastrointestinaux. Avec la description de la population et de l’utilisation rejointes des traitements ACO en France chez les patients avec FA, ces résultats encouragent la poursuite de la surveillance des effets indésirables non hémorragiques des AOD et l’amélioration de leur utilisation. / Direct oral anticoagulants (DOAC) were gradually introduced since 2012 in France for stroke and systemic embolism prevention in patients with nonvalvular atrial fibrillation (AF), as a more convenient alternative to vitamin K antagonists (VKA) for which underprescribing and high rates of discontinuation have been frequently reported. As part of the work programme of the Department of Studies in Public Health, French National Health Insurance, the aim of this dissertation was to assess the patterns of use and safety of oral anticoagulant (OAC) therapy in real-life setting using the French healthcare databases. First, an algorithm was developed to identify AF in outpatients initiating OAC and for whom no diagnosis of AF was found in the French claims data. Second, 1-year dabigatran and rivaroxaban adherence rates were estimated in nonvalvular AF patients and 1-year non-persistence rates were compared versus VKA. At least 1 in 3 dabigatran or rivaroxaban new users was found to be non-adherent to treatment. Treatment persistence among dabigatran or rivaroxaban new users was not found to be better versus VKA therapy. Third, OAC therapy use was found to have increased following in France between 2011 and 2016 but remained suboptimal with 1 in 3 patients with AF not treated by OAC therapy. Several situations of inappropriate use of DOAC were identified including potential undertreatment by inappropriate dosing. Finally, a sequence symmetry analysis suggested that DOAC therapy is associated with rare but severe liver injury and more frequent gastrointestinal disorders. A low risk of kidney injury with DOAC therapy can also not be excluded. These findings advocate further investigation of the potential risk of DOAC underdosing at initiation and the continuous monitoring of the non-bleeding adverse events of DOAC therapy.

Page generated in 0.3243 seconds