Spelling suggestions: "subject:"kontextintegration dde données"" "subject:"kontextintegration dee données""
1 |
L'interactome des domaines PDZ de Caenorhabditis elegans / Network of Caenorhabditis elegan's PDZ domainsLenfant, Nicolas 08 June 2010 (has links)
Le domaine PDZ participe aux réseaux moléculaires à l’origine de fonctions cellulaires touchées lors de pathologies diverses. L’exploration de ce réseau par double hybride a permis d’attribuer de nouvelles fonctions putatives aux ligands protéiques des domaines PDZ du ver Caenorhabditis elegans. Les interactions ont laissé apparaitre une proportion inattendue de ligands atypiques interagissant par une séquence interne. Nous avons ensuite validé fonctionnellement in silico des groupes d’interactions de notre interactome qui forment des micro-réseaux co-exprimés par l’intégration de données de profils d’expression. Finalement, ce travail a permis la construction d’un outil exploratoire, le PIPE (PDZ Interacting Protein Explorer) qui permet de cribler l’ensemble des domaines PDZ du ver à la recherche d’interactions avec une protéine d’intérêt révélant déjà de nombreuses interactions supplémentaires entre domaines PDZ et ligands / PDZ domains allow the organization of molecular networks responsible for cellular functions essential for multicellularity as polarization or transduction of extracellular signals. Exploration of this network by two-hybrid revealed a functional diversity for ligands of Caenorhabditis elegans’s PDZ domains. New putative functions were being observed through GO-terms and an unexpected proportion of internal ligands appeared, confirmed by Co-IP. We then functionally validated in silico groups of interactions that form our interactome microarrays co-expressed by the integration of data from expression profiles. Finally, this work has enabled the construction of an exploratory tool, the PIPE (PDZ Interacting Protein Explorer) that allows screening of all PDZ domains looking for interactions with a protein of interest and had already showed many additional interactions between PDZ domains and ligands
|
2 |
Feeding a data warehouse with data coming from web services. A mediation approach for the DaWeS prototype / Alimenter un entrepôt de données par des données issues de services web. Une approche médiation pour le prototype DaWeSSamuel, John 06 October 2014 (has links)
Cette thèse traite de l’établissement d’une plateforme logicielle nommée DaWeS permettant le déploiement et la gestion en ligne d’entrepôts de données alimentés par des données provenant de services web et personnalisés à destination des petites et moyennes entreprises. Ce travail s’articule autour du développement et de l’expérimentation de DaWeS. L’idée principale implémentée dans DaWeS est l’utilisation d’une approche virtuelle d’intégration de données (la médiation) en tant queprocessus ETL (extraction, transformation et chargement des données) pour les entrepôts de données gérés par DaWeS. A cette fin, un algorithme classique de réécriture de requêtes (l’algorithme inverse-rules) a été adapté et testé. Une étude théorique sur la sémantique des requêtes conjonctives et datalog exprimées avec des relations munies de limitations d’accès (correspondant aux services web) a été menée. Cette dernière permet l’obtention de bornes supérieures sur les nombres d’appels aux services web requis dans l’évaluation de telles requêtes. Des expérimentations ont été menées sur des services web réels dans trois domaines : le marketing en ligne, la gestion de projets et les services d’aide aux utilisateurs. Une première série de tests aléatoires a été effectuée pour tester le passage à l’échelle. / The role of data warehouse for business analytics cannot be undermined for any enterprise, irrespective of its size. But the growing dependence on web services has resulted in a situation where the enterprise data is managed by multiple autonomous and heterogeneous service providers. We present our approach and its associated prototype DaWeS [Samuel, 2014; Samuel and Rey, 2014; Samuel et al., 2014], a DAta warehouse fed with data coming from WEb Services to extract, transform and store enterprise data from web services and to build performance indicators from them (stored enterprise data) hiding from the end users the heterogeneity of the numerous underlying web services. Its ETL process is grounded on a mediation approach usually used in data integration. This enables DaWeS (i) to be fully configurable in a declarative manner only (XML, XSLT, SQL, datalog) and (ii) to make part of the warehouse schema dynamic so it can be easily updated. (i) and (ii) allow DaWeS managers to shift from development to administration when they want to connect to new web services or to update the APIs (Application programming interfaces) of already connected ones. The aim is to make DaWeS scalable and adaptable to smoothly face the ever-changing and growing web services offer. We point out the fact that this also enables DaWeS to be used with the vast majority of actual web service interfaces defined with basic technologies only (HTTP, REST, XML and JSON) and not with more advanced standards (WSDL, WADL, hRESTS or SAWSDL) since these more advanced standards are not widely used yet to describe real web services. In terms of applications, the aim is to allow a DaWeS administrator to provide to small and medium companies a service to store and query their business data coming from their usage of third-party services, without having to manage their own warehouse. In particular, DaWeS enables the easy design (as SQL Queries) of personalized performance indicators. We present in detail this mediation approach for ETL and the architecture of DaWeS. Besides its industrial purpose, working on building DaWeS brought forth further scientific challenges like the need for optimizing the number of web service API operation calls or handling incomplete information. We propose a bound on the number of calls to web services. This bound is a tool to compare future optimization techniques. We also present a heuristics to handle incomplete information.
|
3 |
La pertinence du transport pour promouvoir l'activité physique : une prise en compte des défis liés à la mesure, à l'analyse empirique et à la simulation des changements de modes de transport / The relevance of transport to promote physical activity : addressing challenges related to the measurements and the observational analysis of transport-related physical activity, and the simulation of shifts in transportation modeBrondeel, Ruben 16 December 2016 (has links)
L'activité physique a un impact important sur la santé populationnelle, et les comportements de transport constituent une partie substantielle de l'activité physique totale. Ce travail de thèse a pour objectif d'améliorer les mesures de l'activité physique liées au transport et d'utiliser ces nouvelles mesures dans des études de cas empirique sur l'activité physique liée au transport des adultes âgés de 35 à 83 ans résidant en Ile-de-France. Méthodes: Des données GPS et d'accéléromètre ont été collectée dans le cadre de " RECORD étude GPS " pour 236 participants. L'Enquête Globale Transport a recueilli des données sur une population de 21332 participants sur une période d'un jour. Les méthodes statistiques utilisées incluent Random Forests, des régressions binomiales négatives; et des systèmes d'information géographique. Résultats Les unités de temps plus courtes ont donné lieu à des estimations d'activité physique beaucoup plus importantes. Nous avons observé 18,9 min T-APMV par jour en moyenne dans cet échantillon représentatif de l'Ile-de -France. Les participants ayant un niveau d'éducation plus élevé ont plus de T-APMV que les participants moins instruits. Les personnes ayant un revenu du ménage plus élevé ont moins T-APMV par jour. Conclusion Ce travail renforce les recommandations de la littérature d'une harmonisation plus poussée des indicateurs de l'activité physique basés sur l'accéléromètre. Des interventions concernant les modes de transport peuvent avoir un effet important sur l'activité physique. / Background Physical activity has an important impact on various health outcomes, and transport accounts for a substantial part of total physical activity. This PhD work aimed to improve measures of transport-related physical activity and to report empirical findings on the transport-related physical activity of adults aged 35 to 83 years living in Ile-de-France. Methods The RECORD GPS Study collected GPS and accelerometer data for 236 participants over a 7-day period, resulting in the observation of 7425 trips. The Enquête Globale Transport) collected data over one day, resulting in the observation of 82084 trips for 21332 participants. The methods used include random forest prediction models, geographical information systems, and negative binomial regressions. Results Shorter epochs (time units) resulted in considerably larger estimates of moderate-to-vigorous physical activity MVPA. This finding supports calls from the literature for further harmonization of accelerometer-based indicators of physical activity. We observed an average 18.9 minutes of daily T-MVPA (95% confidence interval: 18.6; 19.2 minutes). Participants with a higher level of education did more T-MVPA than their less educated counterparts. In contrast, people with a higher household income did less T-MVPA per day. Conclusion This PhD work was the first study to combine a very detailed dataset - including GPS, accelerometer, and mobility behaviour data - and a large-scale transport survey. Transport interventions could have an important impact on physical activity for this population.
|
4 |
Designing scientific workflows following a structure and provenance-aware strategyChen, Jiuqiang 11 October 2013 (has links) (PDF)
Les systèmes de workflows disposent de modules de gestion de provenance qui collectent les informations relatives aux exécutions (données consommées et produites) permettant d'assurer la reproductibilité d'une expérience. Pour plusieurs raisons, la complexité de la structure du workflow et de ses d'exécutions est en augmentation, rendant la réutilisation de workflows plus difficile. L'objectif global de cette thèse est d'améliorer la réutilisation des workflows en fournissant des stratégies pour réduire la complexité des structures de workflow tout en préservant la provenance. Deux stratégies sont introduites. Tout d'abord, nous introduisons SPFlow un algorithme de réécriture de workflow scientifique préservant la provenance et transformant tout graphe acyclique orienté (DAG) en une structure plus simple, série-parallèle (SP). Ces structures permettent la conception d'algorithmes polynomiaux pour effectuer des opérations complexes sur les workflows (par exemple, leur comparaison) alors que ces mêmes opérations sont associées à des problèmes NP-difficile pour des structures générales de DAG. Deuxièmement, nous proposons une technique capable de réduire la redondance présente dans les workflow en détectant et supprimant des motifs responsables de cette redondance, nommés "anti-patterns". Nous avons conçu l'algorithme DistillFlow capable de transformer un workflow en un workflow sémantiquement équivalent "distillé", possédant une structure plus concise et dans laquelle on retire autant que possible les anti-patterns. Nos solutions (SPFlow et DistillFlow) ont été testées systématiquement sur de grandes collections de workflows réels, en particulier avec le système Taverna. Nos outils sont disponibles à l'adresse: https://www.lri.fr/~chenj/.
|
Page generated in 0.1321 seconds