• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2920
  • 689
  • 349
  • 55
  • 50
  • 49
  • 10
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 4419
  • 1911
  • 982
  • 646
  • 483
  • 398
  • 372
  • 363
  • 355
  • 355
  • 307
  • 306
  • 295
  • 292
  • 276
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Cadre de pilotage collaboratif entre manufacturier, client et fournisseur /

Abid, Chafik. January 2005 (has links)
Thèse (Ph.D.)--Université Laval, 2004. / Bibliogr.: f. 190-197. Publié aussi en version électronique.
182

Gérer le stress de l'évaluation dans un groupe-classe de niveau secondaire /

Deshaies, Michèle. January 1997 (has links)
Thèse (M.A.)--Université Laval, 1997. / Bibliogr.: f. [104]-107. Publié aussi en version électronique.
183

Coordination models for crisis resolution : discovery, analysis and assessment / Modèle de coordination pour la résolution des crises : découverte, analyse et évaluation

Le, Nguyen Tuan Thanh 15 December 2016 (has links)
Cette thèse concerne la coordination en univers des multi-agents et en particulier dans des contextes de crise. Nous assistons actuellement à un accroissement du nombre de crises, non seulement des catastrophes naturelles (ouragan Katrina, tremblement de terre d'Haïti, ...) mais aussi humanitaires (crise des réfugiés syriens en Europe, printemps Arabe, émeutes de Baltimore, ...). Dans toutes ces crises, les différents acteurs œuvrant pour leurs résolutions doivent agir rapidement et simultanément, afin de contrôler et réduire les impacts de la crise sur le monde réel. Pour atteindre cet objectif commun aussi rapidement et efficacement que possible, ces acteurs (police, forces militaires, organisations médicales) doivent mettre en commun leurs ressources et compétences respectives, collaborer et agir de manière coordonnée, le plus souvent en suivant un plan qui indique la répartition du travail et les échanges entre eux. Par coordination, nous entendons tout le travail nécessaire pour élaborer ou adapter le plan de résolution de crises et mettre en commun les compétences et les ressources de tous les intervenants afin d'atteindre l'objectif commun (la résolution de crise) de manière efficace. Les plans de résolution de crise sont la plupart du temps disponibles dans un format textuel définissant les acteurs impliqués, leurs rôles et des recommandations pour leurs coordinations dans les différentes étapes du cycle de vie de crise (anticipation, préparation, résolution de la crise, retour d'expérience). Bien que les plans dans un format textuel soient faciles à manipuler par les intervenants pris individuellement, il n'existe pas de moyens directs pour les analyser, simuler, adapter, améliorer et ils peuvent avoir diverses interprétations, ce qui les rend difficile à gérer en temps réel et dans une situation où les acteurs sont géographiquement distribués. Au regard de ces observations, il devient indispensable de faire une modélisation de ces plans textuels afin d'en avoir une représentation précise, éviter toute ambiguïté, faciliter la coordination entre les intervenants et enfin faciliter la gestion ainsi que la résolution de crises. L'objectif de cette thèse est de contribuer à l'ingénierie de la coordination dans les domaines de crise en fournissant une approche globale qui prend en compte sans les confondre et en les articulant deux aspects essentiels de la gestion de crises : l'aspect organisationnel et l'aspect tâche. Dans cette perspective, notre approche combine deux paradigmes: BPM (Business Process Management) et les systèmes multi-agents, et fournit un algorithme de traduction entre leurs concepts. BPM fournit une vue globale de la coordination du point de vue de la tâche à réaliser et facilite la validation, la simulation et l'intelligibilité des plans de résolution de la crise au moment de leur conception tout en permettant le suivi de leur exécution. Le paradigme multi-agent fournit, quant à lui, des abstractions sociales (des interactions de haut niveau et des structures organisationnelles : rôles, relations et interactions entre acteurs) pour modéliser, analyser et simuler une vue organisationnelle de la coordination en représentant la structure et le comportement du système développé au niveau macro, indépendamment de la structure interne des agents à un niveau micro. La contribution de cette thèse est un cadre conceptuel pour l'ingénierie de la coordination. / This thesis is about coordination in multi-agent universes and particularly in crisis contexts. Recently, we have witnessed an increasing number of crises, not only natural disasters (hurricane Katrina, Haiti earthquake, ...) but also man-made ones (Syrian refugees crisis in Europe, Arabic spring, rioting in Baltimore, ...). In such crisis, the different actors involved in the resolution have to act rapidly and simultaneously in order to ease an efficient control and reduce its impacts on the real world. To achieve this common goal as quickly and efficiently as possible, these actors (police, military forces, medical organizations) must join their respective resources and skills to collaborate and act in a coordinated way, most often by following a plan that specifies the expected flow of work between them. By coordination, we mean all the work needed for putting resolution plans and all stakeholders' skills and resources together in order to reach the common goal (crisis resolution) in an efficient way. Crisis resolution plans are most of the time available in a textual format defining the actors, their roles and coordination recommendations in the different steps of crisis life-cycle (mitigation, preparedness, response and recovery). While plans in a printed document format are easy to manipulate by stakeholders when taken individually, they do not provide direct means to be analysed, simulated, adapted or improved and may have various different interpretations. Therefore they are difficult to manage in real time and in a distributed setting. Given these observations, it becomes useful to model these textual plans to have an accurate representation of them, to reduce ambiguity and to support coordination between stakeholders and ease an efficient control and crisis resolution. The goal of this PhD thesis is to contribute to coordination engineering in crisis domains by providing a comprehensive approach that considers both organizational and task aspects in a coherent conceptual framework. In this perspective, our approach combines Business Process and Multi-Agent paradigms and provides a mapping algorithm between their concepts. BPM (Business Process Modelling) provides an aggregate view of the coordination through the task aspect and so doing eases the validation, the simulation, the intelligibility of crisis resolution plans at design time and its monitoring at run time. The Multi-Agent paradigm provides social abstractions (high-level interactions and organization structures) to model, analyse and simulate an organizational view of the coordination by representing the structure and the behaviour of the system being developed at a macro level, independently of the internal structure of agents (micro level). The contribution of this thesis is a coordination framework, which consists of three related components: i) A design and development approach (design/discovery, analysis, simulation) that provides means (recommendations, formalisms, life-cycle, algorithms) to produce (agent and process-based) coordination models from a textual plan and/or event based log files, ii) A mapping algorithm deriving BPMN process schemas onto multi-agent structures, iii) Coordination evaluation metrics. We extend the works of Grossi and define formal metrics that allow the evaluation of the quality (efficiency, robustness and flexibility) of multi-agent system organizations. We have applied this framework to the Ho Chi Minh City Tsunami resolution plan.
184

Les consultants en organisation: pilotage et dynamique de l'intervention

Verstraeten, Michel January 2005 (has links)
Doctorat en Sciences politiques et sociales / info:eu-repo/semantics/nonPublished
185

Comment l'éthique influence-t-elle les prises de décision en gestion de projet et le choix d'utilisation des pratiques appropriées?

Lacourse, Jimmy January 2020 (has links) (PDF)
No description available.
186

Performance des ressources humaines en contexte de gestion des projets

Tamboura, Carole January 2019 (has links) (PDF)
No description available.
187

Rôle de la communication dans l'accroissement de la performance d'un projet

Aziz, Rime January 2020 (has links) (PDF)
No description available.
188

Optimizing the forest supply chain : data uncertainty through classification, planning and coordination tools

Simard, Vanessa 08 September 2023 (has links)
Titre de l'écran-titre (visionné le 5 septembre 2023) / Les entreprises forestières déploient beaucoup d'effort pour optimiser le processus de planification de leurs activités afin de devenir plus efficaces. Cependant, pour utiliser les avancées technologiques à leur plein potentiel, il est nécessaire d'avoir une planification de la production adaptée aux besoins du marché et qui tienne compte de toutes les contraintes. Au Québec, environ 92% des forêts sont publiques, c'est-à-dire qu'elles sont gérées par l'État. Le gouvernement répartit les peuplements forestiers entre les différentes entreprises exploitantes et leur fourni des informations sur la ressource attribuée. Les entreprises ont ensuite la responsabilité de planifier leurs activités de récolte. L'exercice consiste principalement à décider du moment de la récolte et à associer les peuplements à la bonne usine de transformation. Or, les données utilisées pour ce type de décision ne sont pas assez précises, ce qui constitue une source constante d'incertitude lorsqu'on tente de définir ce qui est disponible dans la forêt. Le manque de précision n'affecte pas seulement la planification de la récolte, mais aussi les activités de planification de chaque partie de la chaîne d'approvisionnement. Pour réduire l'impact sur l'efficacité globale, les entreprises auront tendance à conserver des niveaux élevés de stocks, malgré le coût que cela peut occasionner. Il existe également une absence de coordination entre l'opération de récolte et la production de produit du bois, en particulier le bois d'œuvre. Même s'il est techniquement possible d'ajuster la récolte du bois brut afin de répondre à la planification de la production de la scierie, cela peut être très coûteux pour l'équipe d'exploitation. De plus, malgré le fait que l'investissement dans une technologie d'acquisition de données ou un mécanisme de coordination puisse être considérable, le bénéfice d'un point de vue global a été prouvé. L'objectif de ce projet de thèse est de développer des outils de planification et de coordination qui puissent aider à prendre de meilleures décisions de transport et de production en situation d'incertitude. Pour atteindre un tel objectif, la première étape est de développer une méthode pour quantifier et classifier la qualité des données. Le résultat sera le point de départ pour modéliser et intégrer l'incertitude dans les activités de planification afin d'évaluer comment son inclusion peut affecter le système par rapport à celui où elle n'est pas prise en compte. Comme le projet de thèse est un système décentralisé, des mécanismes de coordination seront testés pour éviter que l'amélioration au début de la chaîne ne se dégrade entre les unités de la chaîne. Enfin, un cadre décisionnel combinera les résultats et servira d'aide à la prise de décision en présence de différents niveaux d'incertitude. La recherche se concentre sur un sujet relativement peu étudié dans la littérature, qui affecte toutes les entreprises forestières, l'incertitude des données décrivant la ressource. Il existe plusieurs causes de variation dans la chaîne d'approvisionnement forestière, mais l'incertitude générée par un manque de qualité des données peut être quantifiée et incluse dans le processus de planification. Peu de travaux se sont intéressé à telle approche. D'un point de vue pratique, le projet permettra de tester une stratégie de planification et de coordination qui donnera aux entreprises des lignes directrices pour mieux se préparer à l'incertitude et ainsi améliorer la performance de leur système. / Forest companies put a lot of effort to optimize the planning process of their activities to become more efficient. However, to use technological advancement to its full potential, it is necessary to have a production plan to prescribe the best strategy to harvest, transport, store, produce and distribute wood products while adapting to the market's needs. In Quebec, around 92% of the forests are public, which means they are managed by the state. The government allocates the forest stands between the different exploiting companies and gives them information about the assigned resource. The companies then have the responsibility to plan their harvesting activities. The exercise mainly consists in deciding when to harvest and associating the stands with the right sawmill. Still, the data used for this kind of decision are rarely precise, which induces a constant source of uncertainty when trying to define what is available in the forest. This will affect the harvesting and planning of every supply chain activity. To reduce the impact on overall efficiency, companies will tend to keep high levels of inventory despite the costs. There also exists an absence of coordination between the harvesting operation and the production of wood products, such as softwood lumber. Even if it is technically possible to harvest rough wood (in the form of trees) to conform to the sawmill production planning, it can be costly for the exploitation team to make the needed adjustments. The benefits of investing in data acquisition technologies or coordination mechanisms are not necessarily obvious to a company, yet, from a global point of view it has been demonstrated that the extra cost can be recovered with the right approach. The objective of the thesis is to develop planning and coordination tools that can help make better transport and production decisions under uncertainty. To achieve this goal, the first step is to develop a method to quantify and classify data quality. The result is then the starting point to model and integrates uncertainty into planning activities. This allows seeing how including it can affect the system compared to when it is not considered. Since the subject of the thesis is a decentralized system, coordination mechanisms are tested to prevent the improvement at the beginning of the chain from degrading between business units. Finally, a decision-making framework will combine the findings and act as support to make decisions when subject to different levels of uncertainty. The research focuses on a relatively little-studied topic in the literature, which affects all forest companies, the uncertainty of the data describing the resource. There are many causes for variation regarding the forest supply chain, but the uncertainty generated by a lack of data quality can be quantified and included in the planning process. In the practical sense, the project will allow testing planning and coordination strategies which will give companies guidelines to be better prepared for the uncertainty and thus improve their profitability.
189

Gestion adaptative des débits des réseaux de distribution pour contrôler la qualité de l’eau potable

Maleki, Mahnoush 17 May 2024 (has links)
Les réseaux de distribution d'eau potable (RDE) revêtent une grande importance dans la gestion des eaux en milieu urbain. Avoir de bonnes informations sur les paramètres qui impactent la qualité de l'eau dans les RDE peut améliorer significativement la gestion des systèmes de distribution d'eau à la fois à court terme, en optimisant les indicateurs de qualité de l'eau, et à long terme, en facilitant la planification stratégique des décideurs. Obtenir des données à l'échelle réelle sur la dégradation du désinfectant secondaire pour différentes caractéristiques de tuyaux est à la fois difficile et impératif pour une gestion efficace de la qualité de l'eau. Les coefficients de réaction cinétique de dégradation du chlore associés au volume d'eau ($k_b$) et à la paroi du tuyau ($k_w$) jouent un rôle essentiel dans la dégradation de la qualité de l'eau. Cependant, la détermination de ces coefficients peut être un processus coûteux et chronophage. Deux indicateurs clés pour évaluer la qualité de l'eau dans un RDE sont CCRL et le temps de séjour de l'eau (TSE). Pour maintenir la CCRL dans des plages acceptables dans l'ensemble du RDE, le placement stratégique et le fonctionnement de stations de rechloration se révèlent avantageux, offrant une option plus flexible et économique par rapport à l'injection de chlore uniquement à l'usine de traitement de l'eau (UTE) ou dans les réservoirs. En revanche, la réduction du TSE peut être réalisée en utilisant des vannes de régulation de débit (*flow control valve*, FCV) pour modifier les parcours hydrauliques, présentant une approche multifacette pour assurer et optimiser la qualité de l'eau dans l'ensemble d'un RDE. Cette recherche aborde ces problèmes en se concentrant sur la détermination des caractéristiques importantes des tuyaux et du système hydraulique qui influencent sur les coefficients de dégradation du chlore. La nouveauté de la recherche se concentre sur la génération de nouvelles données et le développement de méthodes, dans le but de dériver des stratégies pour gérer la qualité de l'eau dans ses nombreux aspects, tels que les CCRL détectables et les temps de rétention de l'eau, à tout moment et n'importe où dans un réseau de distribution d'eau de manière rentable. À travers des analyses statistiques, les caractéristiques des tuyaux et du système hydraulique les plus importantes sont identifiées en les corrélant avec les coefficients de dégradation $k_b$ et $k_w$ estimés dans des conditions à l'échelle réelle dans le RDE principal de la ville de Québec. La recherche identifie également les caractéristiques et les emplacements de tuyaux les plus pertinents pour la détermination spécifique des coefficients de dégradation du chlore dans le RDE. Divers scénarios de valeurs de $k_b$ et $k_w$ sont évalués et comparés avec des données mesurées dans le RDE. Le scénario le plus précis est comparé au scénario le moins coûteux pour identifier les informations les plus efficaces nécessaires, en tenant compte de facteurs tels que l'emplacement dans le RDE et les caractéristiques des tuyaux (période d'installation, diamètre et matériau). Enfin, cette étude vise à développer une approche adaptative à l'échelle réelle unique et innovante pour la gestion rentable des FCV et des stations de rechloration dans le RDE. Cette approche améliore non seulement la qualité de l'eau, mais maintient des plages de pression et de CCRL acceptables, fournissant des informations précieuses pour une gestion efficace du système. La méthodologie proposée est également appliquée au RDE de la ville de Québec, en considérant trois formulations d'optimisation: 1) optimisation du fonctionnement des FCV, 2) optimisation du fonctionnement des stations de rechloration, et 3) une combinaison des deux, appelée gestion adaptative. Les résultats ont montré que la période d'installation influence significativement le $k_w$, notamment pour les tuyaux installés avant 1960. En ce qui concerne les matériaux, les tuyaux en fonte grise présentent une dégradation plus importante des parois que les tuyaux en fonte ductile et en PVC. Dans le RDE de la ville de Québec, les valeurs les plus élevées du coefficient cinétique obtenues correspondaient étroitement aux données de 2020, soulignant le besoin de coefficients cinétiques précis pour des prédictions plus proches de la réalité. Un modèle adaptatif a optimisé les opérations du RDE, améliorant notablement la qualité de l'eau en réduisant le nombre de nœuds avec un CCRL inférieur à 0,2 mg/l de 88% grâce à l'optimisation des stations de rechloration. Cette recherche complète, composée de trois articles interdépendants, aborde chacun des aspects distincts mais interconnectés. Cette recherche facilite la gestion adaptative des réseaux de distribution municipaux dans le monde entier, améliorant la prise de décision concernant la rechloration dans les RDE. Elle vise à minimiser les risques sanitaires et les coûts associés à la désinfection secondaire tout en tenant compte des chemins hydrauliques et de la qualité de l'eau. / Water distribution systems (WDS) have a great importance in the management of urban waters. Having good information about the parameters that impact water quality in WDS can significantly enhance the management of water distribution systems in both the short-term, through optimizing water quality indicators, and the long-term, by facilitating strategic planning by decision makers. Obtaining full-scale data on the degradation of residual disinfectant for various pipe characteristics is both challenging and imperative for effective water quality management. The chlorine degradation kinetic reaction coefficients associated with the bulk volume of water ($k_b$) and at the pipe walls ($k_w$) during water distribution play an essential role in water quality degradation. However, determining these coefficients can be costly and time-consuming. Two key indicators in evaluating water quality within a WDS are free residual chlorine concentration (FRCC) and water residence time (WRT). To maintain FRCC within acceptable ranges across the entire WDS, the strategic placement and operation of chlorine booster stations proved advantageous, providing a more flexible and economic option compared to the exclusive injection of chlorine at the water treatment plant (WTP) or in tanks. Conversely, the reduction of WRT can be achieved by using flow control valves (FCV) to modify hydraulic paths, presenting a multifaceted approach to ensuring and optimizing water quality throughout a WDS. This research addresses these issues by focusing on determining important pipe and hydraulic system characteristics that influence chlorine degradation coefficients. The research novelty focuses on the generation of new data and the development of methods, aiming to derive strategies to manage water quality in its many aspects, such as detectable FRCC and WRT, at any time and anywhere in a WDS cost-effectively. Through statistical analyses, the pipe and hydraulic system characteristics are identified by correlating them with $k_b$ and $k_w$ degradation coefficients estimated in full-scale conditions within Quebec City's primary WDS. The research also pinpoints the most relevant pipe characteristics and locations for the accurate determination of chlorine decay coefficients in the WDS. Various scenarios of $k_b$ and $k_w$ values are evaluated and compared with measured data in the WDS. The most accurate scenario is compared with the lowest-cost scenario to identify the most effective information needed, considering factors such as location within the WDS and pipe characteristics (period of installation, diameter, and material). Finally, this thesis develops a unique and innovative adaptive full-scale approach for cost-effective management of FCV and chlorine booster stations in WDS. This approach not only enhances water quality, but also maintains acceptable pressure and FRCC ranges, providing valuable insights for effective system management. The proposed methodology is also applied to Quebec City's main WDS, considering three optimization formulations: 1) FCV operation optimization, 2) chlorine booster station operation optimization, and 3) a combination of the two, termed adaptive management. The results showed that the installation period significantly influences $k_w$ specially for the pipes installed before 1960. Regarding the materials, grey cast iron pipes showing higher degradation at walls than ductile cast iron and PVC pipes. In Quebec City's WDS, the highest values of obtained kinetic coefficient closely matched the 2020 data, highlighting the need for accurate kinetic coefficients for precise predictions. An adaptive model optimized the WDS operations, notably improving water quality by reducing nodes with FRCC less than 0.2 mg/l by 88% through optimizing chlorine booster stations. This research thesis, comprising three interrelated papers, each paper addresses distinct but interconnected aspects. This research facilitates adaptive management for municipal distribution networks worldwide, improving decision-making on WDS rechlorination. It aims to minimize health risks and costs associated with secondary disinfection while considering hydraulic paths and water quality.
190

Développement de méthodes d'intégration de données biologiques à l'aide d'Elasticsearch

Ongaro-Carcy, Régis 19 July 2022 (has links)
En biologie, les données apparaissent à toutes les étapes des projets, de la préparation des études à la publication des résultats. Toutefois, de nombreux aspects limitent leur utilisation. Le volume, la vitesse de production ainsi que la variété des données produites ont fait entrer la biologie dans une ère dominée par le phénomène des données massives. Depuis 1980 et afin d'organiser les données générées, la communauté scientifique a produit de nombreux dépôts de données. Ces dépôts peuvent contenir des données de divers éléments biologiques par exemple les gènes, les transcrits, les protéines et les métabolites, mais aussi d'autres concepts comme les toxines, le vocabulaire biologique et les publications scientifiques. Stocker l'ensemble de ces données nécessite des infrastructures matérielles et logicielles robustes et pérennes. À ce jour, de par la diversité biologique et les architectures informatiques présentes, il n'existe encore aucun dépôt centralisé contenant toutes les bases de données publiques en biologie. Les nombreux dépôts existants sont dispersés et généralement autogérés par des équipes de recherche les ayant publiées. Avec l'évolution rapide des technologies de l'information, les interfaces de partage de données ont, elles aussi, évolué, passant de protocoles de transfert de fichiers à des interfaces de requêtes de données. En conséquence, l'accès à l'ensemble des données dispersées sur les nombreux dépôts est disparate. Cette diversité d'accès nécessite l'appui d'outils d'automatisation pour la récupération de données. Lorsque plusieurs sources de données sont requises dans une étude, le cheminement des données suit différentes étapes. La première est l'intégration de données, notamment en combinant de multiples sources de données sous une interface d'accès unifiée. Viennent ensuite des exploitations diverses comme l'exploration au travers de scripts ou de visualisations, les transformations et les analyses. La littérature a montré de nombreuses initiatives de systèmes informatiques de partage et d'uniformisation de données. Toutefois, la complexité induite par ces multiples systèmes continue de contraindre la diffusion des données biologiques. En effet, la production toujours plus forte de données, leur gestion et les multiples aspects techniques font obstacle aux chercheurs qui veulent exploiter ces données et les mettre à disposition. L'hypothèse testée pour cette thèse est que l'exploitation large des données pouvait être actualisée avec des outils et méthodes récents, notamment un outil nommé Elasticsearch. Cet outil devait permettre de combler les besoins déjà identifiés dans la littérature, mais également devait permettre d'ajouter des considérations plus récentes comme le partage facilité des données. La construction d'une architecture basée sur cet outil de gestion de données permet de les partager selon des standards d'interopérabilité. La diffusion des données selon ces standards peut être autant appliquée à des opérations de fouille de données biologiques que pour de la transformation et de l'analyse de données. Les résultats présentés dans le cadre de ma thèse se basent sur des outils pouvant être utilisés par l'ensemble des chercheurs, en biologie mais aussi dans d'autres domaines. Il restera cependant à les appliquer et à les tester dans les divers autres domaines afin d'en identifier précisément les limites. / In biology, data appear at all stages of projects, from study preparation to publication of results. However, many aspects limit their use. The volume, the speed of production and the variety of data produced have brought biology into an era dominated by the phenomenon of "Big Data" (or massive data). Since 1980 and in order to organize the generated data, the scientific community has produced numerous data repositories. These repositories can contain data of various biological elements such as genes, transcripts, proteins and metabolites, but also other concepts such as toxins, biological vocabulary and scientific publications. Storing all of this data requires robust and durable hardware and software infrastructures. To date, due to the diversity of biology and computer architectures present, there is no centralized repository containing all the public databases in biology. Many existing repositories are scattered and generally self-managed by research teams that have published them. With the rapid evolution of information technology, data sharing interfaces have also evolved from file transfer protocols to data query interfaces. As a result, access to data set dispersed across the many repositories is disparate. This diversity of access requires the support of automation tools for data retrieval. When multiple data sources are required in a study, the data flow follows several steps, first of which is data integration, combining multiple data sources under a unified access interface. It is followed by various exploitations such as exploration through scripts or visualizations, transformations and analyses. The literature has shown numerous initiatives of computerized systems for sharing and standardizing data. However, the complexity induced by these multiple systems continues to constrain the dissemination of biological data. Indeed, the ever-increasing production of data, its management and multiple technical aspects hinder researchers who want to exploit these data and make them available. The hypothesis tested for this thesis is that the wide exploitation of data can be updated with recent tools and methods, in particular a tool named Elasticsearch. This tool should fill the needs already identified in the literature, but also should allow adding more recent considerations, such as easy data sharing. The construction of an architecture based on this data management tool allows sharing data according to interoperability standards. Data dissemination according to these standards can be applied to biological data mining operations as well as to data transformation and analysis. The results presented in my thesis are based on tools that can be used by all researchers, in biology but also in other fields. However, applying and testing them in various other fields remains to be studied in order to identify more precisely their limits.

Page generated in 0.0557 seconds