• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 224
  • 195
  • 78
  • 45
  • 39
  • 18
  • 16
  • 10
  • 6
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 715
  • 101
  • 73
  • 73
  • 56
  • 54
  • 52
  • 49
  • 47
  • 41
  • 38
  • 38
  • 37
  • 35
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Continuation-Passing C : Transformations de programmes pour compiler la concurrence dans un langage impératif

Kerneis, Gabriel 09 November 2012 (has links) (PDF)
La plupart des programmes informatiques sont concurrents : ils doivent effectuer plusieurs tâches en même temps. Les threads et les événements sont deux techniques usuelles d'implémentation de la concurrence. Les événements sont généralement plus légers et efficaces que les threads, mais aussi plus difficiles à utiliser. De plus, ils sont souvent trop limités ; il est alors nécessaire d'écrire du code hybride, encore plus complexe, utilisant à la fois des threads ordonnancés préemptivement et des événements ordonnancés coopérativement. Nous montrons dans cette thèse que des programmes concurrents écrits dans un style à threads sont traduisibles automatiquement en programmes à événements équivalents et efficaces par une suite de transformations source-source prouvées. Nous proposons d'abord Continuation-Passing C, une extension du langage C pour l'écriture de systèmes concurrents qui offre des threads très légers et unifiés (coopératifs et préemptifs). Les programmes CPC sont transformés par le traducteur CPC pour produire du code à événements séquentialisé efficace, utilisant des threads natifs pour les parties préemptives. Nous définissons et prouvons ensuite la correction de ces transformations, en particulier le lambda lifting et la conversion CPS, pour un langage impératif. Enfin, nous validons la conception et l'implémentation de CPC en le comparant à d'autres bibliothèques de threads et en exhibant notre seeder BitTorrent Hekate. Nous justifions aussi notre choix du lambda lifting en implémentant eCPC, une variante de CPC utilisant les environnements, et en comparant ses performances à celles de CPC.
342

Dynamics of the Bacterial Genome : Rates and Mechanisms of Mutation

Koskiniemi, Sanna January 2010 (has links)
Bacterial chromosomes are highly dynamic, continuously changing with respect to gene content and size via a number of processes, including deletions that result in gene loss. How deletions form and at what rates has been the focus of this thesis. In paper II we investigated how chromosomal location affects chromosomal deletion rates in S. typhimurium. Deletion rates varied more than 100-fold between different chromosomal locations and some large deletions significantly increased the exponential growth rate of the cells. Our results suggest that the chromosome is heterogeneous with respect to deletion rates and that deletions may be genetically fixed as a consequence of natural selection rather than by drift or mutational biases. In paper I we examined in a laboratory setting how rapidly reductive evolution, i.e. gene loss, could occur. Using a serial passage approach, we showed that extensive genome reduction potentially could occur on a very short evolutionary time scale. For most deletions we observed little or no homology at the deletion endpoints, indicating that spontaneous deletions often form through a RecA independent process. In paper III we examined further how large spontaneous deletions form and, unexpectedly, showed that 90% of all spontaneous chromosomal deletions required error-prone translesion DNA polymerases for their formation. We propose that the translesion polymerases stimulate deletion formation by allowing extension of misaligned single-strand DNA ends. In paper IV we investigated how the translesion DNA polymerase Pol IV, RpoS and different types of stresses affect mutation rates in bacteria. Derepression of the LexA regulon caused a small to moderate increase in mutation rates that was fully dependent on functional endonucleases but only partly dependent on translesion DNA polymerases. RpoS levels and growth stresses had only minor effects on mutation rates. Thus, mutation rates appear very robust and are only weakly affected by growth conditions and induction of translesion polymerases and RpoS.
343

On the distribution of the time to ruin and related topics

Shi, Tianxiang 19 June 2013 (has links)
Following the introduction of the discounted penalty function by Gerber and Shiu (1998), significant progress has been made on the analysis of various ruin-related quantities in risk theory. As we know, the discounted penalty function not only provides a systematic platform to jointly analyze various quantities of interest, but also offers the convenience to extract key pieces of information from a risk management perspective. For example, by eliminating the penalty function, the Gerber-Shiu function becomes the Laplace-Stieltjes transform of the time to ruin, inversion of which results in a series expansion for the associated density of the time to ruin (see, e.g., Dickson and Willmot (2005)). In this thesis, we propose to analyze the long-standing finite-time ruin problem by incorporating the number of claims until ruin into the Gerber-Shiu analysis. As will be seen in Chapter 2, many nice analytic properties of the original Gerber-Shiu function are preserved by this generalized analytic tool. For instance, the Gerber-Shiu function still satisfies a defective renewal equation and can be generally expressed in terms of some roots of Lundberg's generalized equation in the Sparre Andersen risk model. In this thesis, we propose not only to unify previous methodologies on the study of the density of the time to ruin through the use of Lagrange's expansion theorem, but also to provide insight into the nature of the series expansion by identifying the probabilistic contribution of each term in the expansion through analysis involving the distribution of the number of claims until ruin. In Chapter 3, we study the joint generalized density of the time to ruin and the number of claims until ruin in the classical compound Poisson risk model. We also utilize an alternative approach to obtain the density of the time to ruin based on the Lagrange inversion technique introduced by Dickson and Willmot (2005). In Chapter 4, relying on the Lagrange expansion theorem for analytic inversion, the joint density of the time to ruin, the surplus immediately before ruin and the number of claims until ruin is examined in the Sparre Andersen risk model with exponential claim sizes and arbitrary interclaim times. To our knowledge, existing results on the finite-time ruin problem in the Sparre Andersen risk model typically involve an exponential assumption on either the interclaim times or the claim sizes (see, e.g., Borovkov and Dickson (2008)). Among the few exceptions, we mention Dickson and Li (2010, 2012) who analyzed the density of the time to ruin for Erlang-n interclaim times. In Chapter 5, we propose a significant breakthrough by utilizing the multivariate version of Lagrange's expansion theorem to obtain a series expansion for the density of the time to ruin under a more general distribution assumption, namely when interclaim times are distributed as a combination of n exponentials. It is worth emphasizing that this technique can also be applied to other areas of applied probability. For instance, the proposed methodology can be used to obtain the distribution of some first passage times for particular stochastic processes. As an illustration, the duration of a busy period in a queueing risk model will be examined. Interestingly, the proposed technique can also be used to analyze some first passage times for the compound Poisson processes with diffusion. In Chapter 6, we propose an extension to Kendall's identity (see, e.g., Kendall (1957)) by further examining the distribution of the number of jumps before the first passage time. We show that the main result is particularly relevant to enhance our understanding of some problems of interest, such as the finite-time ruin probability of a dual compound Poisson risk model with diffusion and pricing barrier options issued on an insurer's stock price. Another closely related quantity of interest is the so-called occupation times of the surplus process below zero (also referred to as the duration of negative surplus, see, e.g., Egidio dos Reis (1993)) or in a certain interval (see, e.g., Kolkovska et al. (2005)). Occupation times have been widely used as a contingent characteristic to develop advanced derivatives in financial mathematics. In risk theory, it can be used as an important risk management tool to examine the overall health of an insurer's business. The main subject matter of Chapter 7 is to extend the analysis of occupation times to a class of renewal risk processes. We provide explicit expressions for the duration of negative surplus and the double-barrier occupation time in terms of their Laplace-Stieltjes transform. In the process, we revisit occupation times in the content of the classical compound Poisson risk model and examine some results proposed by Kolkovska et al. (2005). Finally, some concluding remarks and discussion of future research are made in Chapter 8.
344

Modeling the reserve osmosis processes performance using artificial neural networks / Modeling the Reverse Osmosis Processes Performance using Artificial Neural Networks

Libotean, Dan Mihai 14 November 2007 (has links)
Una de las aplicaciones más importante de los procesos de filtración por membrana es en el área de tratamiento de agua por ultrafiltración, nanofiltración u ósmosis inversa. Entre los problemas más serios encontrados en estos procesos destaca la aparición de los fenómenos de ensuciamiento y envejecimiento de las membranas que limitan la eficacia de la operación tanto en la separación de los solutos, como en el flujo de permeado, afectando también el ciclo de vida de las membranas.Para reducir el coste de la producción y mejorar la robustez y eficacia de estos procesos es imprescindible disponer de modelos capaces de representar y predecir la eficiencia y el comportamiento de las membranas durante la operación. Una alternativa viable a los modelos teóricos, que presentan varias particularidades que dificultan su postulado, la constituyen los modelos basados en el análisis de los datos experimentales, entre cuales destaca el uso de las redes neuronales. Dos metodologías han sido evaluadas e investigadas, una constando en la caracterización de las interacciones entre las membranas y los compuestos orgánicos presentes en el agua de alimentación, y la segunda basada en el modelado de la dinámica de operación de las plantas de desalinización por ósmosis inversa.Relaciones cuantitativas estructura‐propiedad se han derivado usando redes neuronales de tipo back‐propagation, para establecer correlaciones entre los descriptores moleculares de 50 compuestos orgánicos de preocupación para la salud pública y su comportamiento frente a 5 membranas comerciales de ósmosis inversa, en términos de permeación, absorción y rechazo. Para reducir la dimensión del espacio de entrada, y para evitar el uso de la información redundante en el entrenamiento de los modelos, se han usado tres métodos para seleccionar el menor número de los descriptores moleculares relevantes entre un total de 45 que caracterizan cada molécula. Los modelos obtenidos se han validado utilizando un método basado en el balance de materia, aplicado no solo a los 50 compuestos utilizados para el desarrollo de los modelos, sino que también a un conjunto de 143 compuestos orgánicos nuevos. La calidad de los modelos obtenidos es prometedora para la extensión de la presente metodología para disponer de una herramienta comprensiva para entender, determinar y evaluar el comportamiento de los solutos orgánicos en el proceso de ósmosis inversa. Esto serviría también para el diseño de nuevas y más eficaces membranas que se usan en este tipo de procesos.En la segunda parte, se ha desarrollado una metodología para modelar la dinámica de los procesos de ósmosis inversa, usando redes neuronales de tipo backpropagation y Fuzzy ARTMAP y datos experimentales que proceden de una planta de desalinización de agua salobre Los modelos desarrollados son capaces de evaluar los efectos de los parámetros de proceso, la calidad del agua de alimentación y la aparición de los fenómenos de ensuciamiento sobre la dinámica de operación de las plantas de desalinización por osmosis inversa. Se ha demostrado que estos modelos se pueden usar para predecir el funcionamiento del proceso a corto tiempo, permitiendo de esta manera la identificación de posibles problemas de operación debidas a los fenómenos de ensuciamiento y envejecimiento de las membranas. Los resultados obtenidos son prometedores para el desarrollo de estrategias de optimización, monitorización y control de plantas de desalinización de agua salobre. Asimismo, pueden constituir la base del diseño de sistemas de supervisón capaces de predecir y advertir etapas de operación incorrecta del proceso por fallos en el mismo, y actuar en consecuencia para evitar estos inconvenientes. / One of the more serious problems encountered in reverse osmosis (RO) water treatment processes is the occurrence of membrane fouling, which limits both operation efficiency (separation performances, water permeate flux, salt rejection) and membrane life‐time. The development of general deterministic models for studying and predicting the development of fouling in full‐scale reverse osmosis plants is burden due to the complexity and temporal variability of feed composition, diurnal variations, inability to realistically quantify the real‐time variability of feed fouling propensity, lack of understanding of both membrane‐foulants interactions and of the interplay of various fouling mechanisms. A viable alternative to the theoretical approaches is constituted by models developed based on direct analysis of experimental data for predicting process operation performance. In this regard, the use of artificial neural networks (ANN) seems to be a reliable option. Two approaches were considered; one based on characterizing the organic compounds passage through RO membranes, and a second one based on modeling the dynamics of permeate flow and separation performances for a full‐scale RO desalination plant.Organic solute sorption, permeation and rejection by RO membranes from aqueous solutions were studied via artificial neural network based quantitative structure‐property relationships (QSPR) for a set of 50 organic compounds for polyamide and cellulose acetate membranes. The separation performance for the organic molecules was modeled based on available experimental data achieved by radioactivity measurements to determine the solute quantity in feed, permeate and sorbed by the membrane. Solute rejection was determined from a mass balance on the permeated solution volume. ANN based QSPR models were developed for the measured organic sorbed (M) and permeated (P) fractions with the most appropriate set of molecular descriptors and membrane properties selected using three different feature selection methods. Principal component analysis and self‐organizing maps pre‐screening of all 50 organic compounds defined by 45 considered chemical descriptors were used to identify the models applicability domain and chemical similarities between the organic molecules. The ANN‐based QSPRs were validated by means of a mass balance test applied not only to the 50 organic compounds used to develop the models, but also to a set of 143 new compounds. The quality of the QSPR/NN models developed suggests that there is merit in extending the present compound database and extending the present approach to develop a comprehensive tool for assessing organic solute behavior in RO water treatment processes. This would allow also the design and manufacture of new and more performing membranes used in such processes.The dynamics of permeate flow rate and salt passage for a RO brackish water desalination pilot plant were captured by ANN based models. The effects of operating parameters, feed water quality and fouling occurrence over the time evolution of the process performance were successfully modeled by a back‐propagation neural network. In an alternative approach, the prediction of process performance parameters based on previous values was achieved using a Fuzzy ARTMAP analysis. The neural network models built are able to capture changes in RO process performance and can successfully be used for interpolation, as well as for extrapolation prediction, fact that can allow reasonable short time forecasting of the process time evolution. It was shown that using real‐time measurements for various process and feed water quality variables, it is possible to build neural network models that allow better understanding of the onset of fouling. This is very encouraging for further development of optimization and control strategies. The present methodology can be the basis of development of soft sensors able to anticipate process upsets.
345

Le passage du Nord-Ouest : un détroit stratégique dans l'Arctique et une remise en question de la souveraineté canadienne

Gagnon, Benoit January 2009 (has links) (PDF)
L'ouverture prochaine du passage du Nord-Ouest amène des conceptions différentes quant à son statut juridique. Le Canada veut avoir la possibilité d'y empêcher la navigation étrangère tandis que les États-Unis le considèrent comme un passage international. Afin d'établir le bien-fondé ou non de ces deux positions, nous avons dû d'abord mesurer les efforts de souveraineté déployés par les autorités canadiennes sur la portion terrestre de l'archipel Arctique. La Guerre froide a marqué la période où l'intégralité territoriale du Canada a été le plus en danger. À ce moment, la présence américaine dans l'Arctique avait pour objectif de créer un mur de protection le plus loin possible des États-Unis, afin de se protéger d'une attaque soviétique. Néanmoins, le Canada n'a jamais vu les autorités américaines instituer un contrôle effectif, promulguer des lois et faire valoir leurs intentions sur ce territoire, qui auraient pu laisser croire qu'ils en revendiquaient aussi la souveraineté. Par ailleurs, en ce qui concerne le contrôle sur les eaux, les membres des expéditions américaines ont semblé reconnaître l'intériorité des eaux canadiennes vers le milieu des années 1920, en demandant des permis pour se rendre dans la région. Et au cours de la Guerre froide, les navires militaires américains ont été régularisés par des ententes de navigation avec les autorités canadiennes. Cependant, le contentieux sur la région n'était pas réglé pour autant. En effet, la traversée non autorisée du brise-glace américain Polar Sea dans le passage du Nord-Ouest en 1985 est venue bafouer les revendications historiques canadiennes. Le Canada a dû intérioriser ses eaux par des dispositions légales, c'est-à-dire par des lignes de base droites. Il a les critères géographiques pour ce faire; l'angle de la côte et le rapport eau/terre sont acceptables. Les Canadiens peuvent aussi faire valoir des arguments historiques: le long usage (par les Premières nations), les intérêts vitaux, l'exercice de la souveraineté, le contrôle effectif et l'absence de protestations formelles de la part d'autres États. L'Accord de coopération de 1988 entre le Canada et les États-Unis, fixant les modalités de certains passages de navires américains, a amenuisé l'impact du passage du Polar Sea. Même s'il n'y a jamais eu d'acquiescement de la part des Américains concernant l'intériorité des eaux canadiennes, leur tolérance a aidé à renforcer la position des Canadiens. La passivité des États-Unis semble être un critère aussi déterminant que les actions entreprises par le Canada afin de soutenir sa souveraineté dans l'archipel Arctique. Les jugements internationaux et les conventions ont été des référents essentiels pour établir la justesse des revendications canadiennes, autant sur le territoire terrestre que sur le territoire maritime de l'archipel. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Archipel Arctique, Arctique, Canada, Détroit international, Eaux intérieures, États-Unis, Frontière, Géopolitique, Passage du Nord-Ouest, Revendication territoriale, Sécurité nationale, Souveraineté.
346

Développement et parallélisation d'algorithmes bioinformatiques pour la reconstruction d'arbres phylogénétiques et de réseaux réticulés

Diallo, Alpha Boubacar 09 1900 (has links) (PDF)
Dans ce mémoire nous abordons de prime abord la reconstruction d'arbres et de réseaux phylogénétiques, à travers deux méthodes d'inférence. Les arbres et les réseaux sont deux supports pour la représentation de l'évolution d'un groupe d'espèces étudiées. Les modèles d'évolution d'espèces qui seront traités sont les suivants : 1) Le modèle arborescent classique qui a longtemps été le seul support formel pour la représentation des relations génétiques entre les espèces. 2) Le modèle en réseau qui permet de représenter des mécanismes phylogénétiques importants pouvant jouer un rôle clé dans l'évolution et pouvant s'expliquer par le phénomène de l'évolution réticulée. Nous nous sommes particulièrement intéressés aux algorithmes d'inférence de réseaux de transferts horizontaux de gènes. Un transfert horizontal de gènes permet à deux espèces de s'échanger, partiellement ou totalement, différents gènes au cours de l'évolution. Le travail effectué sur la reconstruction d'arbres et de réseaux phylogénétiques a mené à la publication de trois articles. Ensuite, nous abordons le problème de réduction du temps d'exécution de différents programmes bioinformatiques. Ce problème a pris de l'ampleur à cause de la croissance du volume de données biologiques et du blocage de la puissance des ordinateurs autour de 3,4GHZ depuis environ deux ans. Nous décrivons un procédé d'accélération des calculs effectués par différents algorithmes d'inférence et de représentation de l'évolution des espèces, en utilisant le parallélisme. Le parallélisme mis en place a été réalisé à travers une librairie standard de passage de messages (Message Passing Interface). Nous montrons les différentes formes de parallélisme, les architectures de systèmes parallèles, quelques environnements qui permettent de supporter l'exécution des applications de façon à exprimer le parallélisme, ainsi que les approches utilisées pour paralléliser différents modèles d'évolution. Les versions parallèles des algorithmes d'évolution ont été développées et installées sur une « grappe » (i.e. cluster) Linux ayant 16 lames possédant chacune deux processeurs et sa propre mémoire. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : algorithmes d'évolution, arbre phylogénétique, réseau phylogénétique, transferts horizontaux de gènes, programmation parallèle, Message Passing Interface (MPI).
347

Att begravas vid gårdagens sida : Återbruket under bronsåldern på Öland samt i Falbygden i relation till det i Mysinge gånggrift

Wollentz, Gustav January 2012 (has links)
This essay is focused on the re-use during the Bronze Age of the Stone Age passage grave RAÄ 85 in Mysinge, Öland. To increase the knowledge of the phenomena of re-use in general and that which occurred in Mysinge passage grave in particular I’ve looked at other forms of re-use on Öland and the re-use of passage graves in Falbygden. The research has been limited to the Bronze Age. My goal has been to see what this might tell us about the relationship people during the Bronze Age had towards the abstract subject of “non-existence”, in other words death. The research clearly shows that Mysinge passage grave is the oldest grave that were in use during the Bronze Age as a grave, of those known to us, with 1/3 of its dated burials dated to the first half of the Bronze Age and the earliest to early Neolithic. This makes the other three megalithic tombs in the area very interesting since none of them has been excavated. The other forms of re-use of graves that were observed in Öland during the Bronze Age were all later covered by a cairn or a stone packing of some sorts. This most often occurred during the late Bronze Age. However, subsequent burials continued after the construction of the cairn/stone packing throughout the Bronze Age and in most cases into the Iron Age. The cairns/stone packings have a lot in common with the entrance cairn at Mysinge passage grave which also seems to have been constructed during the late Bronze Age. However, while cairns/stone packings mark endings of something they at the same time are monuments of today and are continually being used as a grave (but now according to local burial customs). Entrance cairns on the other hand first and foremost mark endings of something, even though these endings are most likely meant to be remembered. None of the passage graves analysed in this essay in Falbygden indicate the same use of the chamber as Mysinge passage grave. With a few exceptions (Rössberga Rör and Norra Lundby 41) the chamber seems to generally stop being used during Late Neolithic and during the Bronze Age and Iron Age secondary burials in the surrounding mound is instead common. However, it mainly seems to occur during the late Bronze Age and into the Iron Age. Not a single grave in the mound indicate a early Bronze Age date. It is clear that the past often had an important role in the relationship to death and burials during the Bronze Age.
348

Recursive Methods in Urn Models and First-Passage Percolation

Renlund, Henrik January 2011 (has links)
This PhD thesis consists of a summary and four papers which deal with stochastic approximation algorithms and first-passage percolation. Paper I deals with the a.s. limiting properties of bounded stochastic approximation algorithms in relation to the equilibrium points of the drift function. Applications are given to some generalized Pólya urn processes. Paper II continues the work of Paper I and investigates under what circumstances one gets asymptotic normality from a properly scaled algorithm. The algorithms are shown to converge in some other circumstances, although the limiting distribution is not identified. Paper III deals with the asymptotic speed of first-passage percolation on a graph called the ladder when the times associated to the edges are independent, exponentially distributed with the same intensity. Paper IV generalizes the work of Paper III in allowing more edges in the graph as well as not having all intensities equal.
349

Reconstruction et analyse de trajectoires 2D d'objets mobiles par modélisation Markovienne et la théorie de l'évidence à partir de séquences d'images monoculaires - Application à l'évaluation de situations potentiellement dangereuses aux passages à niveau

Salmane, Houssam 09 July 2013 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans le cadre duprojet PANsafer (Vers un Passage A Niveau plus sûr), lauréat de l'appel ANR-VTT2008. Ce projet est labellisé par les deux pôles de compétitivité i-Trans et Véhiculedu Futur. Le travail de la thèse est mené conjointement par le laboratoire IRTESSETde l'UTBM et le laboratoire LEOST de l'IFSTTAR.L'objectif de cette thèse est de développer un système de perception permettantl'interprétation de scénarios dans l'environnement d'un passage à niveau. Il s'agitd'évaluer des situations potentiellement dangereuses par l'analyse spatio-temporelledes objets présents autour du passage à niveau.Pour atteindre cet objectif, le travail est décomposé en trois étapes principales. Lapremière étape est consacrée à la mise en place d'une architecture spatiale des capteursvidéo permettant de couvrir de manière optimale l'environnement du passageà niveau. Cette étape est mise en oeuvre dans le cadre du développement d'unsimulateur d'aide à la sécurité aux passages à niveau en utilisant un système deperception multi-vues. Dans ce cadre, nous avons proposé une méthode d'optimisationpermettant de déterminer automatiquement la position et l'orientation descaméras par rapport à l'environnement à percevoir.La deuxième étape consisteà développer une méthode robuste de suivi d'objets enmouvement à partir d'une séquence d'images. Dans un premier temps, nous avonsproposé une technique permettant la détection et la séparation des objets. Le processusde suivi est ensuite mis en oeuvre par le calcul et la rectification du flotoptique grâce respectivement à un modèle gaussien et un modèle de filtre de Kalman.La dernière étape est destinée à l'analyse des trajectoires 2D reconstruites parl'étape précédente pour l'interprétation de scénarios. Cette analyse commence parune modélisation markovienne des trajectoires 2D. Un système de décision à basede théorie de l'évidence est ensuite proposé pour l'évaluation de scénarios, aprèsavoir modélisé les sources de danger.L'approche proposée a été testée et évaluée avec des données issues de campagnesexpérimentales effectuées sur site réel d'un passage à niveau mis à disposition parRFF.
350

Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle

SAKKA, Mohamed Amin 28 September 2012 (has links) (PDF)
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d'échange, de partage et de stockage de l'information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d'accès ainsi qu'une efficacité d'organisation et de recherche de l'information. Malgré ses avantages, l'information numérique a l'inconvénient d'être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l'information et pour vérifier si elle répond à un ensemble d'exigences métier, techniques et légales. Aujourd'hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L'objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l'information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l'exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l'hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d'interprétation minimal et commun pour n'importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l'interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d'abord une architecture logique de PMS indépendante des choix technologiques d'implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d'un PMS. Par la suite, et afin de préserver l'autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l'ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l'archivage de documents à valeur probante. Ensuite, l'aspect passage à l' échelle de notre architecture a été testé par l'implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l'interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs

Page generated in 0.0357 seconds