• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 68
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 259
  • 259
  • 92
  • 92
  • 86
  • 43
  • 41
  • 36
  • 35
  • 33
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Construction et validation de filtres de recherche bibliographique pour soutenir la prise de décisions basée sur les évidences : le cas de la sécurité des patients

Tanon, Affaud A. 10 1900 (has links)
No description available.
252

Intégration des méthodes de sensibilité d'ordre élevé dans un processus de conception optimale des turbomachines : développement de méta-modèles

Zhang, Zebin 15 December 2014 (has links)
La conception optimale de turbomachines repose usuellement sur des méthodes itératives avec des évaluations soit expérimentales, soit numériques qui peuvent conduire à des coûts élevés en raison des nombreuses manipulations ou de l’utilisation intensive de CPU. Afin de limiter ces coûts et de raccourcir les temps de développement, le présent travail propose d’intégrer une méthode de paramétrisation et de métamodélisation dans un cycle de conception d’une turbomachine axiale basse vitesse. La paramétrisation, réalisée par l’étude de sensibilité d’ordre élevé des équations de Navier-Stokes, permet de construire une base de données paramétrée qui contient non seulement les résultats d’évaluations, mais aussi les dérivées simples et les dérivées croisées des objectifs en fonction des paramètres. La plus grande quantité d’informations apportée par les dérivées est avantageusement utilisée lors de la construction de métamodèles, en particulier avec une méthode de Co-Krigeage employée pour coupler plusieurs bases de données. L’intérêt économique de la méthode par rapport à une méthode classique sans dérivée réside dans l’utilisation d’un nombre réduit de points d’évaluation. Lorsque ce nombre de points est véritablement faible, il peut arriver qu’une seule valeur de référence soit disponible pour une ou plusieurs dimensions, et nécessite une hypothèse de répartition d’erreur. Pour ces dimensions, le Co-Krigeage fonctionne comme une extrapolation de Taylor à partir d’un point et de ses dérivées. Cette approche a été expérimentée avec la construction d’un méta-modèle pour une hélice présentant un moyeu conique. La méthodologie fait appel à un couplage de bases de données issues de deux géométries et deux points de fonctionnement. La précision de la surface de réponse a permis de conduire une optimisation avec un algorithme génétique NSGA-2, et les deux optima sélectionnés répondent pour l’un à une maximisation du rendement, et pour l’autre à un élargissement de la plage de fonctionnement. Les résultats d’optimisation sont finalement validés par des simulations numériques supplémentaires. / The turbomachinery optimal design usually relies on some iterative methods with either experimental or numerical evaluations that can lead to high cost due to numerous manipulations and intensive usage of CPU. In order to limit the cost and shorten the development time, the present thesis work proposes to integrate a parameterization method and the meta-modelization method in an optimal design cycle of an axial low speed turbomachine. The parameterization, realized by the high order sensitivity study of Navier-Stokes equations, allows to construct a parameterized database that contains not only the evaluations results, but also the simple and cross derivatives of objectives as a function of parameters. Enriched information brought by the derivatives are utilized during the meta-model construction, particularly by the Co-Kriging method employed to couple several databases. Compared to classical methods that are without derivatives, the economic benefit of the proposed method lies in the use of less reference points. Provided the number of reference points is small, chances are a unique point presenting at one or several dimensions, which requires a hypothesis on the error distribution. For those dimensions, the Co-Kriging works like a Taylor extrapolation from the reference point making the most of its derivatives. This approach has been experimented on the construction of a meta-model for a conic hub fan. The methodology recalls the coupling of databases based on two fan geometries and two operating points. The precision of the meta-model allows to perform an optimization with help of NSGA-2, one of the optima selected reaches the maximum efficiency, and another covers a large operating range. The optimization results are eventually validated by further numerical simulations.
253

Descripteurs d'images pour les systèmes de vision routiers en situations atmosphériques dégradées et caractérisation des hydrométéores / Image descriptors for road computer vision systems in adverse weather conditions and hydrometeors caracterisation

Duthon, Pierre 01 December 2017 (has links)
Les systèmes de vision artificielle sont de plus en plus présents en contexte routier. Ils sont installés sur l'infrastructure, pour la gestion du trafic, ou placés à l'intérieur du véhicule, pour proposer des aides à la conduite. Dans les deux cas, les systèmes de vision artificielle visent à augmenter la sécurité et à optimiser les déplacements. Une revue bibliographique retrace les origines et le développement des algorithmes de vision artificielle en contexte routier. Elle permet de démontrer l'importance des descripteurs d'images dans la chaîne de traitement des algorithmes. Elle se poursuit par une revue des descripteurs d'images avec une nouvelle approche source de nombreuses analyses, en les considérant en parallèle des applications finales. En conclusion, la revue bibliographique permet de déterminer quels sont les descripteurs d'images les plus représentatifs en contexte routier. Plusieurs bases de données contenant des images et les données météorologiques associées (ex : pluie, brouillard) sont ensuite présentées. Ces bases de données sont innovantes car l'acquisition des images et la mesure des conditions météorologiques sont effectuées en même temps et au même endroit. De plus, des capteurs météorologiques calibrés sont utilisés. Chaque base de données contient différentes scènes (ex: cible noir et blanc, piéton) et divers types de conditions météorologiques (ex: pluie, brouillard, jour, nuit). Les bases de données contiennent des conditions météorologiques naturelles, reproduites artificiellement et simulées numériquement. Sept descripteurs d'images parmi les plus représentatifs du contexte routier ont ensuite été sélectionnés et leur robustesse en conditions de pluie évaluée. Les descripteurs d'images basés sur l'intensité des pixels ou les contours verticaux sont sensibles à la pluie. A l'inverse, le descripteur de Harris et les descripteurs qui combinent différentes orientations sont robustes pour des intensités de pluie de 0 à 30 mm/h. La robustesse des descripteurs d'images en conditions de pluie diminue lorsque l'intensité de pluie augmente. Finalement, les descripteurs les plus sensibles à la pluie peuvent potentiellement être utilisés pour des applications de détection de la pluie par caméra.Le comportement d'un descripteur d'images en conditions météorologiques dégradées n'est pas forcément relié à celui de la fonction finale associée. Pour cela, deux détecteurs de piéton ont été évalués en conditions météorologiques dégradées (pluie, brouillard, jour, nuit). La nuit et le brouillard sont les conditions qui ont l'impact le plus important sur la détection des piétons. La méthodologie développée et la base de données associée peuvent être utilisées à nouveau pour évaluer d'autres fonctions finales (ex: détection de véhicule, détection de signalisation verticale).En contexte routier, connaitre les conditions météorologiques locales en temps réel est essentiel pour répondre aux deux enjeux que sont l'amélioration de la sécurité et l'optimisation des déplacements. Actuellement, le seul moyen de mesurer ces conditions le long des réseaux est l'installation de stations météorologiques. Ces stations sont coûteuses et nécessitent une maintenance particulière. Cependant, de nombreuses caméras sont déjà présentes sur le bord des routes. Une nouvelle méthode de détection des conditions météorologiques utilisant les caméras de surveillance du trafic est donc proposée. Cette méthode utilise des descripteurs d'images et un réseau de neurones. Elle répond à un ensemble de contraintes clairement établies afin de pouvoir détecter l'ensemble des conditions météorologiques en temps réel, mais aussi de pourvoir proposer plusieurs niveaux d'intensité. La méthode proposée permet de détecter les conditions normales de jour, de nuit, la pluie et le brouillard. Après plusieurs phases d'optimisation, la méthode proposée obtient de meilleurs résultats que ceux obtenus dans la littérature, pour des algorithmes comparables. / Computer vision systems are increasingly being used on roads. They can be installed along infrastructure for traffic monitoring purposes. When mounted in vehicles, they perform driver assistance functions. In both cases, computer vision systems enhance road safety and streamline travel.A literature review starts by retracing the introduction and rollout of computer vision algorithms in road environments, and goes on to demonstrate the importance of image descriptors in the processing chains implemented in such algorithms. It continues with a review of image descriptors from a novel approach, considering them in parallel with final applications, which opens up numerous analytical angles. Finally the literature review makes it possible to assess which descriptors are the most representative in road environments.Several databases containing images and associated meteorological data (e.g. rain, fog) are then presented. These databases are completely original because image acquisition and weather condition measurement are at the same location and the same time. Moreover, calibrated meteorological sensors are used. Each database contains different scenes (e.g. black and white target, pedestrian) and different kind of weather (i.e. rain, fog, daytime, night-time). Databases contain digitally simulated, artificial and natural weather conditions.Seven of the most representative image descriptors in road context are then selected and their robustness in rainy conditions is evaluated. Image descriptors based on pixel intensity and those that use vertical edges are sensitive to rainy conditions. Conversely, the Harris feature and features that combine different edge orientations remain robust for rainfall rates ranging in 0 – 30 mm/h. The robustness of image features in rainy conditions decreases as the rainfall rate increases. Finally, the image descriptors most sensitive to rain have potential for use in a camera-based rain classification application.The image descriptor behaviour in adverse weather conditions is not necessarily related to the associated final function one. Thus, two pedestrian detectors were assessed in degraded weather conditions (rain, fog, daytime, night-time). Night-time and fog are the conditions that have the greatest impact on pedestrian detection. The methodology developed and associated database could be reused to assess others final functions (e.g. vehicle detection, traffic sign detection).In road environments, real-time knowledge of local weather conditions is an essential prerequisite for addressing the twin challenges of enhancing road safety and streamlining travel. Currently, the only mean of quantifying weather conditions along a road network requires the installation of meteorological stations. Such stations are costly and must be maintained; however, large numbers of cameras are already installed on the roadside. A new method that uses road traffic cameras to detect weather conditions has therefore been proposed. This method uses a combination of a neural network and image descriptors applied to image patches. It addresses a clearly defined set of constraints relating to the ability to operate in real-time and to classify the full spectrum of meteorological conditions and grades them according to their intensity. The method differentiates between normal daytime, rain, fog and normal night-time weather conditions. After several optimisation steps, the proposed method obtains better results than the ones reported in the literature for comparable algorithms.
254

Designing conventional, spatial, and temporal data warehouses: concepts and methodological framework

Malinowski Gajda, Elzbieta 02 October 2006 (has links)
Decision support systems are interactive, computer-based information systems that provide data and analysis tools in order to better assist managers on different levels of organization in the process of decision making. Data warehouses (DWs) have been developed and deployed as an integral part of decision support systems. <p><p>A data warehouse is a database that allows to store high volume of historical data required for analytical purposes. This data is extracted from operational databases, transformed into a coherent whole, and loaded into a DW during the extraction-transformation-loading (ETL) process. <p><p>DW data can be dynamically manipulated using on-line analytical processing (OLAP) systems. DW and OLAP systems rely on a multidimensional model that includes measures, dimensions, and hierarchies. Measures are usually numeric additive values that are used for quantitative evaluation of different aspects about organization. Dimensions provide different analysis perspectives while hierarchies allow to analyze measures on different levels of detail. <p><p>Nevertheless, currently, designers as well as users find difficult to specify multidimensional elements required for analysis. One reason for that is the lack of conceptual models for DW and OLAP system design, which would allow to express data requirements on an abstract level without considering implementation details. Another problem is that many kinds of complex hierarchies arising in real-world situations are not addressed by current DW and OLAP systems.<p><p>In order to help designers to build conceptual models for decision-support systems and to help users in better understanding the data to be analyzed, in this thesis we propose the MultiDimER model - a conceptual model used for representing multidimensional data for DW and OLAP applications. Our model is mainly based on the existing ER constructs, for example, entity types, attributes, relationship types with their usual semantics, allowing to represent the common concepts of dimensions, hierarchies, and measures. It also includes a conceptual classification of different kinds of hierarchies existing in real-world situations and proposes graphical notations for them.<p><p>On the other hand, currently users of DW and OLAP systems demand also the inclusion of spatial data, visualization of which allows to reveal patterns that are difficult to discover otherwise. The advantage of using spatial data in the analysis process is widely recognized since it allows to reveal patterns that are difficult to discover otherwise. <p><p>However, although DWs typically include a spatial or a location dimension, this dimension is usually represented in an alphanumeric format. Furthermore, there is still a lack of a systematic study that analyze the inclusion as well as the management of hierarchies and measures that are represented using spatial data. <p><p>With the aim of satisfying the growing requirements of decision-making users, we extend the MultiDimER model by allowing to include spatial data in the different elements composing the multidimensional model. The novelty of our contribution lays in the fact that a multidimensional model is seldom used for representing spatial data. To succeed with our proposal, we applied the research achievements in the field of spatial databases to the specific features of a multidimensional model. The spatial extension of a multidimensional model raises several issues, to which we refer in this thesis, such as the influence of different topological relationships between spatial objects forming a hierarchy on the procedures required for measure aggregations, aggregations of spatial measures, the inclusion of spatial measures without the presence of spatial dimensions, among others. <p><p>Moreover, one of the important characteristics of multidimensional models is the presence of a time dimension for keeping track of changes in measures. However, this dimension cannot be used to model changes in other dimensions. <p>Therefore, usual multidimensional models are not symmetric in the way of representing changes for measures and dimensions. Further, there is still a lack of analysis indicating which concepts already developed for providing temporal support in conventional databases can be applied and be useful for different elements composing a multidimensional model. <p><p>In order to handle in a similar manner temporal changes to all elements of a multidimensional model, we introduce a temporal extension for the MultiDimER model. This extension is based on the research in the area of temporal databases, which have been successfully used for modeling time-varying information for several decades. We propose the inclusion of different temporal types, such as valid and transaction time, which are obtained from source systems, in addition to the DW loading time generated in DWs. We use this temporal support for a conceptual representation of time-varying dimensions, hierarchies, and measures. We also refer to specific constraints that should be imposed on time-varying hierarchies and to the problem of handling multiple time granularities between source systems and DWs. <p><p>Furthermore, the design of DWs is not an easy task. It requires to consider all phases from the requirements specification to the final implementation including the ETL process. It should also take into account that the inclusion of different data items in a DW depends on both, users' needs and data availability in source systems. However, currently, designers must rely on their experience due to the lack of a methodological framework that considers above-mentioned aspects. <p><p>In order to assist developers during the DW design process, we propose a methodology for the design of conventional, spatial, and temporal DWs. We refer to different phases, such as requirements specification, conceptual, logical, and physical modeling. We include three different methods for requirements specification depending on whether users, operational data sources, or both are the driving force in the process of requirement gathering. We show how each method leads to the creation of a conceptual multidimensional model. We also present logical and physical design phases that refer to DW structures and the ETL process.<p><p>To ensure the correctness of the proposed conceptual models, i.e. with conventional data, with the spatial data, and with time-varying data, we formally define them providing their syntax and semantics. With the aim of assessing the usability of our conceptual model including representation of different kinds of hierarchies as well as spatial and temporal support, we present real-world examples. Pursuing the goal that the proposed conceptual solutions can be implemented, we include their logical representations using relational and object-relational databases.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
255

Caractérisation et modélisation du comportement thermodynamique du combustible RNR-Na sous irradiation / Characterization and modelling of the thermodynamic behavior of SFR fuel under irradiation

Pham thi, Tam ngoc 15 October 2014 (has links)
Au-dessus d'un taux de combustion seuil ≥ 7 at %, les produits de fission volatils Cs, I, et Te ou métalliques (Mo) sont partiellement relâchés hors du combustible et finissent par constituer une couche de composés de PF qui remplit progressivement le jeu existant entre la périphérie de la pastille et la surface interne de la gaine en acier inoxydable. Nous appelons cette couche JOG pour Joint Oxyde-Gaine. Mon sujet de thèse est axé sur l'étude thermodynamique du système (Cs, I, Te, Mo, O) + (U, Pu) ainsi que sur l'étude de la diffusion de ces produits de fission à travers le combustible vers le jeu combustible-gaine pour former le JOG.L'étude thermodynamique constitue la première étape de mon travail. Sur la base d'une analyse critique des données expérimentales issues de la littérature, les systèmes Cs-Te, Cs-I, Cs-Mo-O ont été modélisés par la méthode CALPHAD. En parallèle, une étude expérimentale a été entreprise pour valider la modélisation CALPHAD du système binaire Cs-Te. Dans une deuxième étape, les données thermodynamiques résultant de la modélisation CALPHAD ont été introduites dans la base de données du code de calcul thermodynamique ANGE (code interne au CEA dérivé du logiciel SOLGASMIX) dont la finalité est le calcul de la composition chimique du combustible irradié. Dans une troisième étape, le code de calcul thermodynamique ANGE (Advanced Numeric Gibbs Energy minimiser) a été couplé avec le code de simulation du comportement thermomécanique du combustible des RNR-Na GERMINAL V2. / For a burn-up higher than 7 at%, the volatile FP like Cs, I and Te or metallic (Mo) are partially released from the fuel pellet in order to form a layer of compounds between the outer surface of the fuel and the inner surface of the stainless cladding. This layer is called the JOG, french acronym for Joint-Oxyde-Gaine.My subject is focused on two topics: the thermodynamic study of the (Cs-I-Te-Mo-O) system and the migration of those FP towards the gap to form the JOG.The thermodynamic study was the first step of my work. On the basis of critical literature survey, the following systems have been optimized by the CALPHAD method: Cs-Te, Cs-I and Cs-Mo-O. In parallel, an experimental study is undertaken in order to validate our CALPHAD modelling of the Cs-Te system. In a second step, the thermodynamic data coming from the CALPHAD modelling have been introduced into the database that we use with the thermochemical computation code ANGE (CEA code derived from the SOLGASMIX software) in order to calculate the chemical composition of the irradiated fuel versus burn-up and temperature. In a third and last step, the thermochemical computation code ANGE (Advanced Numeric Gibbs Energy minimizer) has been coupled with the fuel performance code GERMINAL V2, which simulates the thermo-mechanical behavior of SFR fuel.
256

Méthodologies pour la création de connaissances relatives au marché chinois dans une démarche d'Intelligence Économique : application dans le domaine des biotechnologies agricoles / Methodologies for building knowledge about the Chinese market in a business intelligence approach : application in the field of agricultural biotechnologies

Guénec, Nadège 02 July 2009 (has links)
Le décloisonnement des économies et l’accélération mondiale des échanges commerciaux ont, en une décennie à peine, transformés l’environnement concurrentiel des entreprises. La zone d’activités s’est élargie en ouvrant des nouveaux marchés à potentiels très attrayants. Ainsi en est-il des BRIC (Brésil, Russie, Inde et Chine). De ces quatre pays, impressionnants par la superficie, la population et le potentiel économique qu’ils représentent, la Chine est le moins accessible et le plus hermétique à notre compréhension de par un système linguistique distinct des langues indo-européennes d’une part et du fait d’une culture et d’un système de pensée aux antipodes de ceux de l’occident d’autre part. Pourtant, pour une entreprise de taille internationale, qui souhaite étendre son influence ou simplement conserver sa position sur son propre marché, il est aujourd’hui absolument indispensable d’être présent sur le marché chinois. Comment une entreprise occidentale aborde-t-elle un marché qui de par son altérité, apparaît tout d’abord comme complexe et foncièrement énigmatique ? Six années d’observation en Chine, nous ont permis de constater les écueils dans l’accès à l’information concernant le marché chinois. Comme sur de nombreux marchés extérieurs, nos entreprises sont soumises à des déstabilisations parfois inimaginables. L’incapacité à « lire » la Chine et à comprendre les enjeux qui s’y déroulent malgré des effets soutenus, les erreurs tactiques qui découlent d’une mauvaise appréciation du marché ou d’une compréhension biaisée des jeux d’acteurs nous ont incités à réfléchir à une méthodologie de décryptage plus fine de l’environnement d’affaire qui puisse offrir aux entreprises françaises une approche de la Chine en tant que marché. Les méthodes de l’Intelligence Economique (IE) se sont alors imposées comme étant les plus propices pour plusieurs raisons : le but de l’IE est de trouver l’action juste à mener, la spécificité du contexte dans lequel évolue l’organisation est prise en compte et l’analyse se fait en temps réel. Si une approche culturelle est faite d’interactions humaines et de subtilités, une approche « marché » est dorénavant possible par le traitement automatique de l’information et de la modélisation qui s’en suit. En effet, dans toute démarche d’Intelligence Economique accompagnant l’implantation d’une activité à l’étranger, une grande part de l’information à portée stratégique vient de l’analyse du jeu des acteurs opérants dans le même secteur d’activité. Une telle automatisation de la création de connaissance constitue, en sus de l’approche humaine « sur le terrain », une réelle valeur ajoutée pour la compréhension des interactions entre les acteurs car elle apporte un ensemble de connaissances qui, prenant en compte des entités plus larges, revêtent un caractère global, insaisissable par ailleurs. La Chine ayant fortement développé les technologies liées à l’économie de la connaissance, il est dorénavant possible d’explorer les sources d’information scientifiques et techniques chinoises. Nous sommes en outre convaincus que l’information chinoise prendra au fil du temps une importance de plus en plus cruciale. Il devient donc urgent pour les organisations de se doter de dispositifs permettant non seulement d’accéder à cette information mais également d’être en mesure de traiter les masses d’informations issues de ces sources. Notre travail consiste principalement à adapter les outils et méthodes issues de la recherche française à l’analyse de l’information chinoise en vue de la création de connaissances élaborées. L’outil MATHEO, apportera par des traitements bibliométriques une vision mondiale de la stratégie chinoise. TETRALOGIE, outil dédié au data-mining, sera adapté à l’environnement linguistique et structurel des bases de données scientifiques chinoises. En outre, nous participons au développement d’un outil d’information retreival (MEVA) qui intègre les données récentes des sciences cognitives et oeuvrons à son application dans la recherche de l’information chinoise, pertinente et adéquate. Cette thèse étant réalisée dans le cadre d’un contrat CIFRE avec le Groupe Limagrain, une application contextualisée de notre démarche sera mise en œuvre dans le domaine des biotechnologies agricoles et plus particulièrement autour des enjeux actuels de la recherche sur les techniques d’hybridation du blé. L’analyse de ce secteur de pointe, qui est à la fois une domaine de recherche fondamentale, expérimentale et appliquée donne actuellement lieu à des prises de brevets et à la mise sur le marché de produits commerciaux et représente donc une thématique très actuelle. La Chine est-elle réellement, comme nous le supposons, un nouveau territoire mondial de la recherche scientifique du 21e siècle ? Les méthodes de l’IE peuvent-elles s’adapter au marché chinois ? Après avoir fourni les éléments de réponses à ces questions dans es deux premières parties de notre étude, nous poserons en troisième partie, le contexte des biotechnologies agricoles et les enjeux mondiaux en terme de puissance économico-financière mais également géopolitique de la recherche sur l’hybridation du blé. Puis nous verrons en dernière partie comment mettre en œuvre une recherche d’information sur le marché chinois ainsi que l’intérêt majeur en terme de valeur ajoutée que représente l’analyse de l’information chinoise / The rise of globalization, including technological innovations and the dismantling of trade barriers, has spurred the steady acceleration of global trade and, in barely a decade, has transformed the competitive environment of enterprises. The area of activity has been expanded by the emergence of new markets with very attractive potential. So are the BRIC (Brazil, Russia, India and China). Among the four of them, all impressive by their size, population and economic potential they represent, China is the least accessible and the more closed to our understanding because of a linguistic system radically different from the Indo-European languages on the one hand and of the fact of a culture and a thought system at odds with those of Western countries. Yet for a company of international size, which wants to extend its influence or simply to maintain its market position, including its own market, it is now essential to be present on the Chinese market. How does a western company operate on a market that appears at first as inherently complex and enigmatic because of its otherness? During six years of observation in China, we have found out the pitfalls in access to information about the Chinese market. As on many markets, our companies are subject to some unimaginable destabilization. The inability to “read” China and understand the issues that take place in spite of sustained efforts, the tactical errors that arise from a misjudgement of the market or a biased understanding of the game players led us to consider a methodology that could provide French companies an approach to China as a market. The methodologies of Business Intelligence (BI) came out to be the most suitable for several reasons: the goal of BI is to find out the right action to realise, the specificity of the context in which the organization is evolving is taken into consideration and the analysis is done just in time. If a cultural approach is made of human interactions and subtleties, a market approach is now possible by the automatic processing of information and its modelling. In any process of economic intelligence accompanying the establishment of a foreign operation, a large part of the strategic information comes from analysis of the game players operating in the same sector of activity. Such an automation of knowledge creation is, in addition to the human approach on the field, a real high value added to help the understanding of the interactions between the players. It provides a set of knowledge, which taking into account more large entities, are more comprehensive. They are more elusive anywhere else. Because has highly developed technologies linked to the knowledge economy, it is now possible to explore the scientific and technological sources of information science in China. We are also convinced that Chinese sources of information will take a more and more crucial importance in any global watch. It is therefore an urgent need for organizations to get solutions that not only allow the access to this information but also are able to handle the masses of information from these sources. The aim of this thesis is mainly to adapt the tools and the methods invented by French university research to the analysis of Chinese information in order to create useful knowledge. Matheo software will provide some bibliometrical treatments that will give a global vision of the Chinese strategy. Tetralogy software, a tool dedicated to data-mining, will be tailored to the linguistic environment and to the structure of the Chinese scientific databases. In addition, we participate in the development of a method for the information retrieval (MEVA) which integrates the data of recent discoveries in cognitive science. We develop this method to the research of the relevant and appropriate information among the Chinese datas. As this thesis is conduced under a contract university /enterprise with Limagrain, an application of our approach will be implemented in the field of agricultural biotechnology and in particular around issues of research on techniques for hybridization of wheat. The analysis of this sector, which is an area of fundamental research, experimental and applied is a very current topic as it gives rise to the acquisition of patents and to the marketing of commercial products. Is China really, as we suppose to, a new territory Global Scientific Research of the 21st century? Can the methods of BI be adapted to the Chinese market? After providing some answers to these questions in the first two parts of our study, the third part will describe the global context of agricultural biotechnologies and its issues in terms of economic and financial power but also geopolitical. Then we will focus on the problematic of research on hybridization wheat. Then we will see in the fourth and last part how to implement a search for information on the Chinese market and the major interest in terms of added value of information analysis in China
257

Contraintes temporelles dans les bases de données de capteurs sans fil / Temporal constraints in wireless sensor databases

Belfkih, Abderrahmen 17 October 2016 (has links)
Dans ce travail, nous nous focalisons sur l’ajout de contraintes temporelles dans les Bases de Données de Capteurs Sans Fil (BDCSF). La cohérence temporelle d’une BDCSF doit être assurée en respectant les contraintes temporelles des transactions et la validité temporelle des données, pour que les données prélevées par les capteurs reflètent fidèlement l’état réel de l’environnement. Cependant, les retards de transmission et/ou de réception pendant la collecte des données peuvent conduire au non-respect de la validité temporelle des données. Une solution de type bases de données s'avère la plus adéquate. Il faudrait pour cela faire coïncider les aspects BD traditionnelles avec les capteurs et leur environnement. À cette fin, les capteurs déployés au sein d'un réseau sans fils sont considérés comme une table d'une base de données distribuée, à laquelle sont appliquées des transactions (interrogations, mises à jour, etc.). Les transactions sur une BD de capteurs nécessitent des modifications pour prendre en compte l'aspect continu des données et l'aspect temps réel. Les travaux réalisés dans cette thèse portent principalement sur trois contributions : (i) une étude comparative des propriétés temporelles entre une collecte périodique des données avec une base de données classique et une approche de traitement des requêtes avec une BDCSF, (ii) la proposition d’un modèle de traitement des requêtes temps réel, (iii) la mise en œuvre d’une BDCSF temps réel, basée sur les techniques décrites dans la deuxième contribution. / In this thesis, we are interested in adding real-time constraints in the Wireless Sensor Networks Database (WSNDB). Temporal consistency in WSNDB must be ensured by respecting the transaction deadlines and data temporal validity, so that sensor data reflect the current state of the environment. However, delays of transmission and/or reception in a data collection process can lead to not respect the data temporal validity. A database solution is most appropriate, which should coincide with the traditional database aspects with sensors and their environment. For this purpose, the sensor in WSN is considered as a table in a distributed database, which applied transactions (queries, updates, etc.). Transactions in a WSNDB require modifications to take into account of the continuous datastream and real-time aspects. Our contribution in this thesis focus on three parts: (i) a comparative study of temporal properties between a periodic data collection based on a remote database and query processing approach with WSNDB, (ii) the proposition of a real-time query processing model, (iii) the implementation of a real time WSNDB, based on the techniques described in the second contribution.
258

Computational aspects of infinite automata simulation and closure system related issues / Aspects de complexité du problème de composition des services web

Ennaoui, Karima 28 September 2017 (has links)
La thèse est consacrée à des problématiques d’algorithmique et de complexité sur deux sujets. Le premier sujet s’intéresse à la composition comportementale des services web. Ce problème a été réduit à la simulation d’un automate par le produit fermé d’un ensemble d’automates. La thèse étudie dans sa première partie la complexité de ce problème en considérant deux paramètres : le nombre des instances considéré de chaque service et la présence des états hybrides : état à la fois intermédiaire et final dans un automate. Le second sujet porte sur les systèmes de fermeture et s’intéresse au calcul de l’extension maximale d’un système de fermeture ainsi qu’à l’énumération des clefs candidates d’une base implicative. On donne un algorithme incrémental polynomial qui génère l’extension maximale d’un treillis codé par une relation binaire. Puis, la notion de key-ideal est définie, en prouvant que leur énumération est équivalente à l’énumération des clefs candidates. Ensuite, on donne un algorithme qui permet de générer les key-ideal minimaux en temps incrémental polynomial et les key-ideal non minimaux en délai polynomial. / This thesis investigates complexity and computational issues in two parts. The first concerns an issue related to web services composition problem: Deciding whether the behaviour of a web service can be composed out of an existing repository of web services. This question has been reduced to simulating a finite automata to the product closure of an automata set. We study the complexity of this problem considering two parameters; the number of considered instances in the composition and the presence of the so-called hybrid states (states that are both intermediate and final). The second part concerns closure systems and two related issues; Maximal extension of a closure system : we give an incremental polynomial algorithm that computes a lattice's maximal extension when the input is a binary relation. Candidate keys enumeration : we introduce the notion of key-ideal sets and prove that their enumeration is equivalent to candidate keys enumeration. We then give an efficient algorithm that generates all non-minimal key-ideal sets in a polynomial delay and all minimal ones in incremental polynomial time.
259

Dynamic and multi-perspective risk management of construction projects using tailor-made Risk Breakdown Structures / Gestion dynamique et multi perspectives des risques pour les projets de construction : l'apport d'une arborescence hiérarchique des risques "à la carte"

Mehdizadeh, Rasool 04 June 2012 (has links)
Depuis quelques années, de nombreux travaux de recherche se sont portés sur le domaine de la gestion des risques pour les projets de construction. Les projets de construction font intervenir de nombreux acteurs dont les intérêts et les besoins doivent être pris en compte dans le système décisionnel afin d’assurer le succès du projet.Une RBS (Risk Breakdown Structure) est une représentation hiérarchisée des risques d’un projet. Elle est composée de catégories de risque qui explicitent les différents domaines pouvant être source de risque. Ce type de représentation présente de nombreux avantages, la rendant ainsi adaptée à la gestion des risques dans les projets de construction : elle offre une vision synthétique des risques, elle est compatible avec la nature dynamique et évolutive des risques et elle permet à chaque acteur du projet d’avoir sa propre vision des risques. Cependant les RBS présentent aussi des inconvénients : il n’existe pas de consensus sur la façon de les construire, la définition des catégories de risque est souvent floue et non partagée, enfin il n’y a pas de règles permettant de propager les évaluations (qualitatives ou quantitatives) dans les branches de la structure.Dans cette thèse, nous proposons une méthodologie pour le développement de RBS sur mesure, c’est à dire adaptées à l'étape et au niveau de développement du projet et permettant d'offrir un point de vue adapté aux différents acteurs. Cela permet de poser les bases d’une approche dynamique, multi-échelle, multi-perspective dans laquelle chaque acteur, peut, dans chacune des phases, se concentrer sur certains risques par une décomposition adaptée de sa RBS. Cela permet d'identifier et de gérer les risques liés au projet de construction d'une façon plus formelle, plus efficace et plus systématique.En parallèle, des efforts ont porté sur le développement d'une méthode avancée pour l'analyse et la propagation des valeurs de risque par les RBS. Le but était de développer une approche cohérente afin d’obtenir des résultats réalistes sans souffrir des faiblesses habituelles des méthodes disponibles dans la littérature. La méthode combine les approches quantitatives et qualitatives, permettant ainsi à l'utilisateur de choisir, selon l'information disponible et la précision souhaitée le choix du type d'évaluation le plus adapté.Une attention particulière a été portée quant au développement de la base de connaissances, afin d'assurer la cohérence des données. La base de connaissance est composée de trois types d’objets principaux : les événements risqués, les catégories de risque et les arbres élémentaires. Elle a été alimentée par une analyse approfondie de la littérature. Cette base de connaissances est suffisamment générale pour couvrir tous les projets de construction et suffisamment précise pour être adaptée à un projet particulier. Elle fournit un langage commun avec lequel les risques liés au projet peuvent être décrits et discutés. Le processus de construction des RBS est basé sur une logique multicritère (degré de développement, satisfaction des utilisateurs, contraste des valeurs de risque) permettant de comparer les différentes RBS entre elles. La structure de la base de connaissance est conçue de façon à faciliter sa mise à jour et ses développements ultérieurs.MOTS-CLÉS: , , construction, méthodologie, bases de données. / In recent years, intensive research and development have been done in the area of construction projects risk management. The construction projects involve numerous participants whose interests and demands need to be considered in the managerial decision-making to ensure the success of the project. Risk Breakdown Structure is a hierarchically organized depiction of the identified project risks arranged by risk categories and subcategories that identifies the various areas and causes of potential risks. This type of representation has many advantages and is a suitable tool especially for risk management of construction projects since: it offers a synthetic view on risks, each stakeholder can have his own view on the project and it is compatible with evolutionary and dynamic nature of project risks. However, RBS suffers several drawbacks such as lack of consensus on how to develop an RBS for a new project, lack of clarity and inconsistencies in definition of risk categories and lack of rules enabling transfer of qualitative/quantitative information of risks across the tree. In this PhD thesis, we propose a methodology for the development of tailor-made RBS's which are adapted to several constraints: being fitted to the stage and degree of development of the project, being able to offer different views for the different partners. This makes it possible to establish a dynamic, multi-scale and multi-perspective approach in which each partner, at each desired stage, can focus on selected specific risks and divide the RBS's up into a greater number of subcategories in specific fields. It allows to identify and manage the construction project risks in a more formal, efficient and systematic way. In parallel, efforts have been devoted to the development of an advanced method for analysis and propagation of risk values through RBS. The aim was to develop a more coherent approach in order to get more realistic results without suffering from the usual weaknesses of available methods in literature to calculate the risk value of categories in RBS. The method combines consistently the quantitative and qualitative approaches, allowing the user to choose the best one for risk assessment at any level based on the available information and required accuracy.Special care was taken in the development of the risk knowledge database in order to ensure the data's consistency. A database which has three interactive components of risk events, risk categories and micro trees, and have been developed based on a thorough analysis of literature. This knowledge base is general enough to cover all construction projects but at the same time, specific enough to be adapted to a given particular project. This database provides a common language within which the project risks can be described and discussed. The RBS rebuilding process is driven in such a way as to make it possible to compare different possible RBS's according to several criteria (degree of development, user satisfaction and highlighting the contrast of risk values). The database is constructed in such a way as to facilitate further developments and updating. / در طي سال‌هاي اخير، تحقيقات گسترده‌اي در زمينه مديريت ريسک پروژه‌هاي ساخت و ساز و زيربنايي انجام گرفته است. غالبا اين نوع از پروژه‌ها در برگيرنده تعداد زيادي ذينفع (مالک، پيمانکاران، طراحان فني و معماري، سرمايه¬گذار، بيمه‌گر و ...) مي‌باشند که مدنظر قرار دادن منافع، اهداف و مطالبات آن¬ها در اتخاذ تصميم‌ها يکي از موارد لازم براي اطمينان از موفقيت پروژه مي‌باشد.ساختار درختي ريسک (Risk Breakdown Structure) که بازنمودي طبقه¬بندي شده از ريسک‌هاي پروژه ارائه مي‌نمايد، متشکل از گروه‌ها و زير¬گروه‌هاي سازمان يافته ريسک بوده و ابزاري بسيار موثر در شناسايي منابع و آثار محتمل ريسک‌ها مي‌باشد. اين نوع باز¬نمود ريسک‌ها داراي مزاياي فراواني مي‌باشد به خصوص در مديريت ريسک پروژه‌هاي عمراني و زيربنايي. بخشي از دلايل اين مدعا عبارتند از: توانايي RBS در تجزيه وتحليل ريسک‌هاي پروژه و اينکه با استفاده از RBS هريک از اعضاي ذينفع پروژه مي‌تواند ديدگاه خاص خود را نسبت به ريسک‌هاي پروژه داشته باشد که اين قضيه با ماهيت ديناميک و تکاملي پروژه‌ها به خوبي سازگار مي‌باشد. با اين¬حال، عليرغم قابليت‌هاي فوق العاده اين ابزار، RBS داراي چندين ضعف اساسي مي‌باشد از قبيل: عدم وجود راهنما، روش و اجماع در چگونگي طراحي RBS جديد براي يک پروژه جديد با ويژه¬گي‌هاي خاص خود، وجود تعاريف مبهم و بعضا متناقض ريسک‌ها و گروه‌هاي ريسک در RBS‌هاي موجود، عدم وجود روشي مشترک و موثر براي انتقال اطلاعات کمي و کيفي وقايع ريسک بر روي ساختار درختي RBS به منظور محاسبه مقادير ريسک هر گروه ريسک.در اين رساله دکتري، روشي نوين براي طراحي RBS‌هاي سازگار براي هر پروژه يا شرايط خاص ارائه مي‌گردد. اين RBS‌ها با مقطع زماني و ميزان پيشرفت پروژه و همچنين ديدگاه‌هاي متفاوت ذينفعان پروژه نسبت به ريسک‌ها سازگار مي‌باشند. اين روش متضمن اعمال مديريت ريسک پويا و ديناميک، چند مقياسي و چند بعدي در پروژه‌ها بوده و هر يک از اعضاي پروژه در هر مقطع زمانی خاص قادر خواهد بود بر ريسک‌هاي مورد نظر خود تمرکز نموده و براي کسب اطلاعات جامعتر، هر گروه ريسک در RBS را به تعداد بيشتري زير گروه تجزيه نمايد. چنين رويه‌اي ابزار و روش لازم براي شناسايي و مديريت سيستماتيک، موثرتر و رسمي‌تر ريسک‌هاي پروژه را فراهم مي‌نمايد.همزمان با توسعه روش مذکور براي طراحي RBS‌هاي سفارشي براي هر مورد خاص، تلاش ويژه¬اي براي ابداع روشي نوين به منظور کسب نتايج واقع¬بينانه¬تر در آناليز و توزيع مقادير ريسک بر روي شاخه¬هاي RBS اعمال گرديد. روش پيشنهادي، ترکيبي سازگار از رويکرد¬هاي کمي و کيفي ارائه نموده و کاربر قادر خواهد بود بر اساس ميزان اطلاعات موجود و دقت مورد نياز بهترين گزينه را انتخاب نمايد.براي اطمينان از سازگاري اطلاعات مورد استفاده در روش¬هاي فوق الذکر و ايجاد ادبياتي مشترک واستاندارد براي توصيف و بحث پيرامون ريسک¬هاي پروژه، دقت خاصي در توسعه ديتا¬بيس (بانک اطلاعات) ريسک اتخاذ گرديد. اين پايگاه¬داده که بر اساس مطالعه و تجزيه و تحليل دقيق متون موجود، استاندارها و گزارشات فني پيرامون مديريت ريسک پروژه¬هاي عمراني تهيه گرديده است متشکل از سه بخش اساسي پويا و توسعه پذير مي¬باشد: وقايع ريسک، گروه¬هاي ريسک و ميکرو درخت¬ها. در عين جامعيت اين ديتا¬بيس براي تحت پوشش قرار دادن انواع پروژه¬هاي عمراني، ساختار اطلاعات به گونه¬اي طراحي گرديده که توسعه آن براي تمرکز بر نوع خاصي از پروژه (تونل، سازه¬هاي موقت، ...) امکان¬پذير مي¬باشد.فرايند طراحي RBS‌هاي سفارشي با بازسازي تمامي RBS‌هاي ممکن از طريق ترکيب ميکرو درخت¬هاي موجود در ديتا¬بيس آغاز گرديده و سپس براي انتخاب بهترين درخت ريسک، تمامي گزينه¬هاي ممکن به واسطه معيار¬هاي کيفيت تعريف شده RBS (ميزان توسعه ساختار درخت ريسک، تناسب ساختار RBS با مطالبات و اهداف کاربر و کنتراست مقادير ريسک بر روي شاخه¬هاي RBS) مقايسه مي¬گردند.براي تسهيل کاربرد عملي روش¬هاي ارئه شده در پروژه¬هاي واقعي، نرم افزار خاصي بر اساس تمامي مفاهيم و الگوريتم¬هاي موجود در روش-هاي توسعه داده شده تهيه گرديده است. اين نرم افزار با واسط کاربر پسند، ابتدا تمامي RBS‌هاي ممکن را توليد نموده، مقادير ريسک گروه¬هاي ريسک را محاسبه کرده و به طور اتوماتيک براي هر RBS‌ پنج فاکتور کيفيت محاسبه مي¬نمايد. در گام دوم، تمامي RBS‌هاي ايجاد شده با استفاده از يکي از روش¬هاي تصميم¬گيري چند¬معياري رتبه¬بندي شده، کاربر قادر خواهد بود بهترين RBS‌ را انتخاب نمايد. نرم افزار قادر است به طور گرافيکي ساختار درختي تمامي RBS‌هاي طراحي شده را به همراه مقادير ريسک محاسبه شده و توزيع وقايع ريسک بر روي شاخه¬هاي RBS‌ نمايش دهد.

Page generated in 0.6232 seconds