• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Vers une caractérisation spatiotemporelle pour l'analyse du cycle de vie

Beloin-Saint-Pierre, Didier 03 December 2012 (has links) (PDF)
Cette thèse présente différents développements à la méthode analyse de cycle de vie (ACV) afin d'améliorer le niveau de considération des spécificités spatiotemporelles lors de la modélisation de systèmes. Ces développements abordent la question de la caractérisation des flux décrivant les systèmes. La discussion débute par une analyse des développements récents de la méthode ACV en ce qui concerne la considération des spécificités spatiotemporelles dans les différentes phases de cette méthode. Cette analyse identifie des lacunes quant à la pertinence des modes de caractérisation spatiale et temporelle existants. Un nouveau mode de caractérisation spatiotemporelle est alors pro-posé. La représentativité du système modélisé, le potentiel de précision de la caractérisation et le temps de travail nécessaire à la modélisation de différents systèmes sont trois critères importants qui ont été considérés pour la création de ce nouveau mode de caractérisation spatiotemporelle. Le nouveau mode proposé permet en particulier d'améliorer la généricité des processus définissant des systèmes dans différentes bases de données. Celui-ci permet ainsi de diminuer l'augmentation inévitable du travail lié à la caractérisation temporelle des systèmes. Le nouveau mode de caractérisation temporelle requiert toutefois une modification importante de la méthode de calcul des inventaires cycle de vie en raison de l'utilisation de distributions temporelles. La faisabilité de l'utilisation de ce nouveau mode et de la nouvelle méthode de calcul d'inventaire est ensuite démontrée par leurs mises en œuvre pour différents cas d'études de production d'énergie à partir de sources renouvelables. Les deux cas d'études retenus permettent de souligner l'intérêt d'une telle caractérisation spatiotemporelle accédant ainsi à une modélisation plus représentative des systèmes en fonction du niveau de précision retenu. Avec cette nouvelle approche nommée ESPA+, l'accès à ce niveau de représentativité s'accompagne cependant d'une diminution du potentiel de complétude de l'analyse. En effet, la méthode de calcul permet difficilement de dynamiser la totalité des systèmes modélisés.
182

Une procédure de sélection automatique de la discrétisation optimale de la ligne du temps pour des méthodes longitudinales d’inférence causale

Ferreira Guerra, Steve 07 1900 (has links)
No description available.
183

Contribution à la mise en oeuvre d’un outillage unifié pour faciliter la qualification d’environnements normés / Toward a unified tooling to ease the qualification process of standardized environments

Gelibert, Anthony 27 October 2016 (has links)
Les environnements confinés, tels que les blocs chirurgicaux ou les salles blanches, hébergent des processus complexes auxquels sont associés de nombreux risques. Leur conception, leur réalisation et leur exploitation sont complexes, de par les très nombreuses normes les encadrant.La qualification de ces « environnements normés », afin d’en garantir la qualité de conception, requiert une expertise fine du métier et souffre du manque d’outil en permettant l’automatisation. Partant de ce constat, nous proposons une approche unifiée visant à faciliter la qualification des environnements normés. Celle-ci s’appuie sur une représentation du contexte normatif sous la forme d’un graphe unique, ainsi que sur une modélisation de l’environnement et son objet final par étapes successives permettant une vérification incrémentale de même que la production d’informations nécessaires à la traçabilité lors de l’exploitation. Cette démarche, illustrée au travers du domaine des environnements confinés médicaux, est générique et peut s’appliquer à l’ensemble des environnements normés. / Industrial clean rooms or operating rooms are critical places often hosting dangerous or complex processes. Their design, building and use are thus difficult and constrained by a large amount of standards and rules. Qualifying these environments, in order to ensure their quality, consequently requires a high level of expertise and lacks assisting tools.This leads us to propose a unified approach aiming at easing the qualification process of standardized environments. It relies on a graph-based representation of the set of standards and rules that apply to a specific case, as well as on step-by-step modelling of the whole target environment. The verification process is then eased as it becomes incremental. During each stage, relevant information can also be gathered in order to ensure environment traceability during its use.This approach, applied to medical environments for validation purposes, remains generic and can be applied to any kind of standardized environment.
184

Query Processing in Multistore Systems / Traitement de requêtes dans les systèmes multistores

Bondiombouy, Carlyna 12 July 2017 (has links)
Le cloud computing a eu un impact majeur sur la gestion des données, conduisant à une prolifération de nouvelles solutions évolutives de gestion des données telles que le stockage distribué de fichiers et d’objets, les bases de données NoSQL et les frameworks de traitement de données. Cela a conduit également à une grande diversification des interfaces aux SGBD et à la perte d’un paradigme de programmation commun, ce qui rend très difficile pour un utilisateur d’intégrer ses données lorsqu’elles se trouvent dans des sources de données spécialisées, par exemple, relationnelle, document et graphe.Dans cette thèse, nous abordons le problème du traitement de requêtes avec plusieurs sources de données dans le cloud, où ces sources ont des modèles, des langages et des API différents. Cette thèse a été préparée dans le cadre du projet européen CoherentPaaS et, en particulier, du système multistore CloudMdsQL. CloudMdsQL est un langage de requête fonctionnel capable d’exploiter toute la puissance des sources de données locales, en permettant simplement à certaines requêtes natives portant sur les systèmes locauxd’être appelées comme des fonctions et en même temps optimisées, par exemple, en exploitant les prédicats de sélection, en utilisant le bindjoin, en réalisant l’ordonnancement des jointures ou en réduisant les transferts de données intermédiaires.Dans cette thèse, nous proposons une extension de CloudMdsQL pour tirer pleinement parti des fonctionnalités des frameworks de traitement de données sous-jacents tels que Spark en permettant l’utilisation ad hoc des opérateurs de map/filter/reduce (MFR) définis par l’utilisateur en combinaison avec les ordres SQL traditionnels. Cela permet d’effectuer des jointures entre données relationnelles et HDFS. Notre solution permet l’optimisation en permettant la réécriture de sous-requêtes afin de réaliser des optimisations majeures comme le bindjoin ou le filtrage des données le plus tôt possible.Nous avons validé notre solution en implémentant l’extension MFR dans le moteur de requête CloudMdsQL. Sur la base de ce prototype, nous proposons une validation expérimentale du traitement des requêtes multistore dans un cluster pour évaluer l’impact sur les performances de l’optimisation. Plus précisément, nous explorons les avantages de l’utilisation du bindjoin et du filtrage de données dans des conditions différentes. Dans l’ensemble, notre évaluation des performances illustre la capacité du moteur de requête CloudMdsQL à optimiser une requête et à choisir la stratégie d’exécution la plus efficace. / Cloud computing is having a major impact on data management, with a proliferation of new, scalable data management solutions such as distributed file and object storage, NoSQL databases and big data processing frameworks. This also leads to a wide diversification of DBMS interfaces and the loss of a common programming paradigm, making it very hard for a user to integrate its data sitting in specialized data stores, e.g. relational, documents and graph data stores.In this thesis, we address the problem of query processing with multiple cloud data stores, where the data stores have different models, languages and APIs. This thesis has been prepared in the context of the CoherentPaaS European project and, in particular, the CloudMdsQL multistore system. CloudMdsQL is a functional query language able to exploit the full power of local data stores, by simply allowing some local data store native queries to be called as functions, and at the same time be optimized, e.g. by pushing down select predicates, using bind join, performing join ordering, or planning intermediate data shipping.In this thesis, we propose an extension of CloudMdsQL to take full advantage of the functionality of the underlying data processing frameworks such as Spark by allowing the ad-hoc usage of user defined map/filter/reduce (MFR) operators in combination with traditional SQL statements. This allows performing joins between relational and HDFS big data. Our solution allows for optimization by enabling subquery rewriting so that bind join can be used and filter conditions can be pushed down and applied by the data processing framework as early as possible.We validated our solution by implementing the MFR extension as part of the CloudMdsQL query engine. Based on this prototype, we provide an experimental validation of multistore query processing in a cluster to evaluate the impact on performance of optimization. More specifically, we explore the performance benefit of using bind join and select pushdown under different conditions. Overall, our performance evaluation illustrates the CloudMdsQL query engine’s ability to optimize a query and choose the most efficient execution strategy.
185

Gestion d'objects composes dans un SGBD : cas particulier des documents structures

Lima, Jose Valdeni de January 1990 (has links)
Cette thèse traite du problème de la gestion des documents structurés multimédia dans un SGBD. Par gestion, nous entendons la modélisation, la manipulation, le stockage et l'accès aux documents. Nous présentons un modèle de Documents Structurés de Bureau (DSB) et une algèbre associée pour réaliser la spécification précise des aspects fonctionnels : opérateurs de construction et restructuration des objets manipulés et fonctions d'accès. Le stockage et l'accès sont implémentés au niveau fonctionnel sous forme d'opérations sur des documents en prenant en considération leurs structures logiques. Le couplage du modèle standard ODA au modéle DSB et l'intégration au niveau fonctionnel des opérations implémentées ont permis la mise en place d'un gestionnaire autonome de documents utilisable à partir d'un SGBD relationnel. Ce gestionnaire de documents pemiet la spécialisation des documents et l'utilisation de valeurs nulles. Une grande partie de ce travail a été réalisée dans le cadre du projet ESPRIT DOEOIS et un prototype expérimental a été développé sur ORACLE.
186

Gestion d'objects composes dans un SGBD : cas particulier des documents structures

Lima, Jose Valdeni de January 1990 (has links)
Cette thèse traite du problème de la gestion des documents structurés multimédia dans un SGBD. Par gestion, nous entendons la modélisation, la manipulation, le stockage et l'accès aux documents. Nous présentons un modèle de Documents Structurés de Bureau (DSB) et une algèbre associée pour réaliser la spécification précise des aspects fonctionnels : opérateurs de construction et restructuration des objets manipulés et fonctions d'accès. Le stockage et l'accès sont implémentés au niveau fonctionnel sous forme d'opérations sur des documents en prenant en considération leurs structures logiques. Le couplage du modèle standard ODA au modéle DSB et l'intégration au niveau fonctionnel des opérations implémentées ont permis la mise en place d'un gestionnaire autonome de documents utilisable à partir d'un SGBD relationnel. Ce gestionnaire de documents pemiet la spécialisation des documents et l'utilisation de valeurs nulles. Une grande partie de ce travail a été réalisée dans le cadre du projet ESPRIT DOEOIS et un prototype expérimental a été développé sur ORACLE.
187

Graphs enriched by Cubes (GreC) : a new approach for OLAP on information networks / Graphes enrichis par des Cubes (GreC) : une nouvelle approche pour l’OLAP sur des réseaux d’information

Jakawat, Wararat 27 September 2016 (has links)
L'analyse en ligne OLAP (Online Analytical Processing) est une des technologies les plus importantes dans les entrepôts de données, elle permet l'analyse multidimensionnelle de données. Cela correspond à un outil d'analyse puissant, tout en étant flexible en terme d'utilisation pour naviguer dans les données, plus ou moins en profondeur. OLAP a été le sujet de différentes améliorations et extensions, avec sans cesse de nouveaux problèmes en lien avec le domaine et les données, par exemple le multimedia, les données spatiales, les données séquentielles, etc. A l'origine, OLAP a été introduit pour analyser des données structurées que l'on peut qualifier de classiques. Cependant, l'émergence des réseaux d'information induit alors un nouveau domaine intéressant qu'il convient d'explorer. Extraire des connaissances à partir de larges réseaux constitue une tâche complexe et non évidente. Ainsi, l'analyse OLAP peut être une bonne alternative pour observer les données avec certains points de vue. Différents types de réseaux d'information peuvent aider les utilisateurs dans différentes activités, en fonction de différents domaines. Ici, nous focalisons notre attention sur les réseaux d'informations bibliographiques construits à partir des bases de données bibliographiques. Ces données permettent d'analyser non seulement la production scientifique, mais également les collaborations entre auteurs. Il existe différents travaux qui proposent d'avoir recours aux technologies OLAP pour les réseaux d'information, nommé ``graph OLAP". Beaucoup de techniques se basent sur ce qu'on peut appeler cube de graphes. Dans cette thèse, nous proposons une nouvelle approche de “graph OLAP” que nous appelons “Graphes enrichis par des Cubes” (GreC). Notre proposition consiste à enrichir les graphes avec des cubes plutôt que de construire des cubes de graphes. En effet, les noeuds et/ou les arêtes du réseau considéré sont décrits par des cubes de données. Cela permet des analyses intéressantes pour l'utilisateur qui peut naviguer au sein d'un graphe enrichi de cubes selon différents niveaux d'analyse, avec des opérateurs dédiés. En outre, notons quatre principaux aspects dans GreC. Premièrement, GreC considère la structure du réseau afin de permettre des opérations OLAP topologiques, et pas seulement des opérations OLAP classiques et informationnelles. Deuxièmement, GreC propose une vision globale du graphe avec des informations multidimensionnelles. Troisièmement, le problème de dimension à évolution lente est pris en charge dans le cadre de l'exploration du réseau. Quatrièmement, et dernièrement, GreC permet l'analyse de données avec une évolution du réseau parce que notre approche permet d'observer la dynamique à travers la dimension temporelle qui peut être présente dans les cubes pour la description des noeuds et/ou arêtes. Pour évaluer GreC, nous avons implémenté notre approche et mené une étude expérimentale sur des jeux de données réelles pour montrer l'intérêt de notre approche. L'approche GreC comprend différents algorithmes. Nous avons validé de manière expérimentale la pertinence de nos algorithmes et montrons leurs performances. / Online Analytical Processing (OLAP) is one of the most important technologies in data warehouse systems, which enables multidimensional analysis of data. It represents a very powerful and flexible analysis tool to manage within the data deeply by operating computation. OLAP has been the subject of improvements and extensions across the board with every new problem concerning domain and data; for instance, multimedia, spatial data, sequence data and etc. Basically, OLAP was introduced to analyze classical structured data. However, information networks are yet another interesting domain. Extracting knowledge inside large networks is a complex task and too big to be comprehensive. Therefore, OLAP analysis could be a good idea to look at a more compressed view. Many kinds of information networks can help users with various activities according to different domains. In this scenario, we further consider bibliographic networks formed on the bibliographic databases. This data allows analyzing not only the productions but also the collaborations between authors. There are research works and proposals that try to use OLAP technologies for information networks and it is called Graph OLAP. Many Graph OLAP techniques are based on a cube of graphs.In this thesis, we propose a new approach for Graph OLAP that is graphs enriched by cubes (GreC). In a different and complementary way, our proposal consists in enriching graphs with cubes. Indeed, the nodes or/and edges of the considered network are described by a cube. It allows interesting analyzes for the user who can navigate within a graph enriched by cubes according to different granularity levels, with dedicated operators. In addition, there are four main aspects in GreC. First, GreC takes into account the structure of network in order to do topological OLAP operations and not only classical or informational OLAP operations. Second, GreC has a global view of a network considered with multidimensional information. Third, the slowly changing dimension problem is taken into account in order to explore a network. Lastly, GreC allows data analysis for the evolution of a network because our approach allows observing the evolution through the time dimensions in the cubes.To evaluate GreC, we implemented our approach and performed an experimental study on a real bibliographic dataset to show the interest of our proposal. GreC approach includes different algorithms. Therefore, we also validated the relevance and the performances of our algorithms experimentally.
188

Gestion d'objects composes dans un SGBD : cas particulier des documents structures

Lima, Jose Valdeni de January 1990 (has links)
Cette thèse traite du problème de la gestion des documents structurés multimédia dans un SGBD. Par gestion, nous entendons la modélisation, la manipulation, le stockage et l'accès aux documents. Nous présentons un modèle de Documents Structurés de Bureau (DSB) et une algèbre associée pour réaliser la spécification précise des aspects fonctionnels : opérateurs de construction et restructuration des objets manipulés et fonctions d'accès. Le stockage et l'accès sont implémentés au niveau fonctionnel sous forme d'opérations sur des documents en prenant en considération leurs structures logiques. Le couplage du modèle standard ODA au modéle DSB et l'intégration au niveau fonctionnel des opérations implémentées ont permis la mise en place d'un gestionnaire autonome de documents utilisable à partir d'un SGBD relationnel. Ce gestionnaire de documents pemiet la spécialisation des documents et l'utilisation de valeurs nulles. Une grande partie de ce travail a été réalisée dans le cadre du projet ESPRIT DOEOIS et un prototype expérimental a été développé sur ORACLE.
189

Experimental investigation of corner stall in a linear compressor cascade / Etude expérimentale et numérique du décollement de coin dans une grille d'aubes de compresseur

Ma, Wei 15 February 2012 (has links)
Dans le domaine de la recherche appliquée, les turbomachinistes sont confrontés à un manque de compréhension de la physique du décollement de coin. Ce décollement tridimensionnel (3D) à la jonction de l’extrados des aubages et du moyeu limite l’efficacité et la stabilité des compresseurs. Les simulations numériques utilisant les deux types de modélisations, « Reynolds-Averaged-Navier-Stokes » (RANS) et « Large Eddy Simulation » (LES), doivent encore être étalonnées pour des applications turbomachines. Dans la recherche fondamentale concernant la couche limite turbulente (TBL), il existe beaucoup d’études sur les effets de courbure et de gradients de pression qui jouent également un rôle important dans la physique du décollement de coin. Le but de cette thèse est de réaliser une expérience dans une grille d’aubes de compresseur pour acquérir une base de données qui pourrait être utilisée non seulement pour calibrer à la fois les approches RANS et LES, mais aussi pour donner quelques explications fondamentales sur le décollement de coin. Cette expérience permet aussi une étude de la TBL se développant sur l’extrados à mi-envergure des aubages, qui est plus complexe que les TBL rencontrées dans des configurations plus fondamentales, mais plus simples que celles existant d’un turboréacteur. Une expérience précise et détaillée de l’écoulement 3D au passage d’une grille d’aubes de compresseur a été mis en place. Les mesures ont été réalisées pour un nombre de Reynolds basé sur les conditions d’entrée et la corde de l’aubage de 3,82×105. Des mesures ont été réalisées par anémométrie à fil chaud, par des prises de pression sur la paroi latérale et sur l’aubage, par une sonde de pression à cinq trous, par de la visualisation d’huile, par la Vélocimétrie par Images de Particules (PIV) 2D, ainsi que par Anémométrie Laser Doppler (LDA) à deux composants. Une base de données originale et complète a ainsi été obtenue. Concernant l’étude de la TBL sur l’extrados à mi-envergure , le gradient négatif de pression normal à la paroi retarde le décollement, ce qui est paradoxal avec son influence sur le décollement de coin tel que présentée dans la littérature. Le gradient de pression adverse dans la direction de l’écoulement est responsable de l’accroissement des tensions de Reynolds. Un phénomène remarquable proche du bord de fuite de l’aubage est qu’il existe un point d’inflexion dans le profil de la vitesse moyenne de l’écoulement. A ce point d’inflexion, les grandeurs des tensions de Reynolds atteignent leurs valeurs maximales et la direction de diffusion de l’énergie est inversée. Le champ de vitesse dans le décollement de coin a été présenté. L’expérience met en évidence l’existence d’histogrammes bimodaux de vitesse. Les points de mesures faisant apparaitre ce caractère bimodal sont essentiellement localisés dans la région de l’interface du décollement de l’écoulement moyenné en temps. Deux modes ont été proposés pour interpréter la physique du comportement bimodal. Pour un point bimodal, les deux composantes de vitesse sont localement non-indépendantes, en raison de l’interaction apériodique de ces deux modes. / In applied research, a lack of understanding of corner stall, i.e. the three-dimensional (3D) separation in the juncture of the endwall and blade corner region, which has limited the efficiency and the stability of compressors. Both Reynolds-averaged Navier-Stokes (RANS) and large eddy simulation (LES) still need to be calibrated for turbomachinery applications. In the fundamental research of the turbulent boundary layer (TBL), there are a lot of findings of the effects of curvature and pressure gradients, which also play an important role in physics of corner stall. The purpose of this thesis is (i) to carry out an experiment in a cascade, (ii) to gain a database that could be used to calibrate both RANS and LES, and (iii) to give some basic explanations of corner stall through investigating the TBL on the suction side at the mid-span which is more complex than those in the basic investigations but simpler than those in a real engine. A detailed and accurate experiment of 3D flow field through a linear compressor cascade has been set up. Experimental data were acquired for a Reynolds number of 3.82×10 ^5 based on blade chord and inlet flow conditions. Measurements have been achieved by hot-wire anemometry, pressure taps on blade and endwall, five-hole pressure probe, oil visualization, 2D particle image velocimetry (PIV),and two-component laser Doppler anemometry (LDA). An original and complete database was thus obtained. The TBL on the suction side at mid-span was investigated. The wall-normal negative pressure gradient restrains the separation, on the contrary to its influence in the corner stall. The streamwise adverse pressure gradient can be responsible for the development of Reynolds stresses. The remarkable phenomenon at measurement stations near the trailing edge of blade is that an inflection point occurs in each profile of the mean streamwise velocity. At this inflection point, the magnitudes of the Reynolds stresses reach their maximum values, and the direction of energy diffusion also changes. The velocity field in the corner stall was presented. Bimodal histograms of velocity exist in the experiment. The bimodal points mainly appear in the region around the mean interface of separated flow and non-separated flow. At a bimodal point the local two velocity components are non-independent from each other, due to the aperiodic interplay of two basic modes in the flow field. Two modes were proposed to interpret the physics of bimodal behaviour.
190

Flexible querying of RDF databases : a contribution based on fuzzy logic / Interrogation flexible de bases de données RDF : une contribution basée sur la logique floue

Slama, Olfa 22 November 2017 (has links)
Cette thèse porte sur la définition d'une approche flexible pour interroger des graphes RDF à la fois classiques et flous. Cette approche, basée sur la théorie des ensembles flous, permet d'étendre SPARQL qui est le langage de requête standardisé W3C pour RDF, de manière à pouvoir exprimer i) des préférences utilisateur floues sur les données (par exemple, l'année de publication d'un album est récente) et sur la structure du graphe (par exemple, le chemin entre deux amis doit être court) et ii) des préférences utilisateur plus complexes, prenant la forme de propositions quantifiées floues (par exemple, la plupart des albums qui sont recommandés par un artiste, sont très bien notés et ont été créés par un jeune ami de cet artiste). Nous avons effectué des expérimentations afin d'étudier les performances de cette approche. L'objectif principal de ces expérimentations était de montrer que le coût supplémentaire dû à l'introduction du flou reste limité/acceptable. Nous avons également étudié, dans un cadre plus général, celui de bases de données graphe, la question de l'intégration du même type de propositions quantifiées floues dans une extension floue de Cypher qui est un langage déclaratif pour l'interrogation des bases de données graphe classiques. Les résultats expérimentaux obtenus montrent que le coût supplémentaire induit par la présence de conditions quantifiées floues dans les requêtes reste également très limité dans ce cas. / This thesis concerns the definition of a flexible approach for querying both crisp and fuzzy RDF graphs. This approach, based on the theory of fuzzy sets, makes it possible to extend SPARQL which is the W3C-standardised query language for RDF, so as to be able to express i) fuzzy user preferences on data (e.g., the release year of an album is recent) and on the structure of the data graph (e.g., the path between two friends is required to be short) and ii) more complex user preferences, namely, fuzzy quantified statements (e.g., most of the albums that are recommended by an artist, are highly rated and have been created by a young friend of this artist). We performed some experiments in order to study the performances of this approach. The main objective of these experiments was to show that the extra cost due to the introduction of fuzziness remains limited/acceptable. We also investigated, in a more general framework, namely graph databases, the issue of integrating the same type of fuzzy quantified statements in a fuzzy extension of Cypher which is a declarative language for querying (crisp) graph databases. Some experimental results are reported and show that the extra cost induced by the fuzzy quantified nature of the queries also remains very limited.

Page generated in 0.0442 seconds