• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 28
  • 4
  • Tagged with
  • 94
  • 48
  • 27
  • 26
  • 18
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Supporting Reuse by Reverse Engineering Software Architecture and Component from Object-Oriented Product Variants and APIs / Support à la réutilisation par la rétro-ingénierie des architectures et des composants logiciels à partir du code source orienté objet des variantes de produits logiciels et d'APIs

Shatnawi, Anas 29 June 2015 (has links)
La réutilisation est reconnue comme une démarche intéressante pour améliorer la qualité des produits et la productivité des projets logiciels. L'ingénierie des logiciels à base de composants (CBSE en anglais) et l'ingénierie des lignes de produits logiciels (SPLE en anglais) sont considérées parmi les plus importants paradigmes de réutilisation systématique. L'ingénierie à base de composants permet de développer de nouveaux systèmes logiciels par composition de briques préconstruites appelées composants. L'ingénierie des lignes de produits logiciels permet de dériver (construire) de nouveaux produits par simple sélection de leurs caractéristiques (feature en anglais). Cette dérivation est rendue possible grâce à la représentation et à la gestion de la variabilité et de la similarité des produits d'une même famille. Cependant, une des difficultés vers une large adoption de l'ingénierie des logiciels à base de composants et des lignes de produits est le coût à investir pour construire, à partir de rien, les composants et les artefacts de lignes de produits. Dans ce contexte, les travaux de cette thèse proposent de réduire ce coût par une démarche basée sur la rétro-ingénierie.La première contribution de cette thèse consiste à proposer une approche permettant d'identifier, par l'analyse d'un ensemble de variantes d'un produit logiciel orienté objet, les éléments du code source pouvant servir à l'implémentation de composants. Au contraire des approches existantes d'identification de composants basées sur l'analyse d'un seul produit, l'originalité de notre approche consiste en l'analyse de plusieurs variantes de produits en même temps. Notre objectif est l'amélioration de la réutilisabilité des composants extraits. L'évaluation expérimentale menée dans le cadre de cette thèse a montré la pertinence de cette démarche.La deuxième contribution consiste en la proposition d'une approche pour l'extraction d'une architecture à base de composants d'un ensemble de variantes d'un produit logiciel orienté objet. Il s'agit d'identifier la variabilité des composants architecturaux et la configuration architecturale. L'identification de la configuration architecturale est principalement basée sur l'utilisation de l'analyse formelle de concepts pour trouver les dépendances entre les éléments architecturaux. L'expérimentation conduite pour l'évaluation de l'approche proposée confirme la pertinence des éléments identifiés.La troisième contribution de cette thèse permet de restructurer les APIs orientées objet en composants. Nous exploitons la spécificité des classes des APIs d'être conçues pour être utilisées par des applications clientes pour identifier ces composants. Le code source de ces APIs et celui de leurs applications clientes sont analysés afin d'identifier des groupes de classes qui peuvent servir à l'implémentation de composants à extraire. L'identification de ces groupes de classes est basée sur l'analyse des liens structurels entre ces classes et sur la probabilité que ces classes soient utilisées ensemble par les applications clientes. Nous montrons à travers les résultats expérimentaux que la restructuration des API orientées objet en composants facilite la réutilisation et la compréhension des éléments de ces APIs. / It is widely recognized that software quality and productivity can be significantly improved by applying a systematic reuse approach. In this context, Component-Based Software Engineering (CBSE) and Software Product Line Engineering (SPLE) are considered as two important systematic reuse paradigms. CBSE aims at composing software systems based on pre-built software components and SPLE aims at building new products by managing commonalty and variability of a family of similar software. However, building components and SPL artifacts from scratch is a costly task. In this context, our dissertation proposes three contributions to reduce this cost.Firstly, we propose an approach that aims at mining reusable components from a set of similar object-oriented software product variants. The idea is to analyze the commonality and the variability of product variants, in order to identify pieces of code that may form reusable components. Our motivation behind the analysis of several existing product variants is that components mined from these variants are more reusable for the development of new software products than those mined from single ones. The experimental evaluation shows that the reusability of the components mined using our approach is better than those mined from single software.Secondly, we propose an approach that automatically recovers the component-based architecture of a set of object-oriented software product variants. Our contribution is twofold: the identification of the architectural component variability and the identification of the configuration variability. The configuration variability is based on the identification of dependencies between the architectural elements using formal concept analysis. The experimental evaluation shows that our approach is able to identify the architectural variability.Finally, we propose an approach that aims at restructuring object-oriented APIs as component-based ones. This approach exploits specificity of API entities by statically analyzing the source code of both APIs and their software clients to identify groups of API classes that are able to form components. Our assumption is based on the probability of classes to be reused together by API clients on the one hand, and on the structural dependencies between classes on the other hand. The experimental evaluation shows that structuring object-oriented APIs as component-based ones improves the reusability and the understandability of these APIs.
62

Réutilisation des eaux usées épurées par association de procédés biologiques et membranaires / Urban wastewater reuse by combination of biological and membrane processes

Jacob, Matthieu 19 April 2011 (has links)
Les procédés de réutilisation des eaux usées doivent être robustes, fiables et rentables pour que leur utilisation se démocratise et devienne complémentaire des traitements des eaux de surface. Le couplage d’un procédé biologique et de procédés membranaires représente une solution prometteuse pour répondre à ces challenges. Cette étude se focalise sur l’impact des conditions de fonctionnement du procédé secondaire (en particulier par bioréacteur à membrane BAM) sur le colmatage du procédé tertiaire de nanofiltration (NF) ou d’osmose inverse (OI) ainsi que sur le devenir des micropolluants et microorganismes tout au long de la chaine de traitement. Dans un premier temps, des expériences à court terme de filtration avec différentes membrane NF et d’OI ont été réalisées afin de caractériser les interactions entre effluents secondaires et membranes. Il a ainsi été observé de très fortes rétentions de tous les micropolluants ciblés par la Directive Cadre Européenne. En termes de colmatage, la chute de flux de l’OI, essentiellement liée pour ces essais de courte durée à une augmentation de pression osmotique puis à un dépôt de cristaux minéraux, peut être maîtrisée en contrôlant le pH et la concentration en carbonate et phosphate de l’effluent secondaire. Par ailleurs, des chutes de flux plus importantes sont observées lors des filtrations réalisées avec les membranes de NF qui sont plus sensibles au colmatage irréversible. Dans un second temps, l’optimisation de la filière de traitement des eaux usées urbaines couplant un bioréacteur à membranes à un procédé d’OI a été réalisée à partir d’une unité pilote fonctionnant en continu. La sélection de conditions opératoires adéquates a permis de faire fonctionner le procédé d’OI pendant plus de quatre mois sans qu’aucune maintenance ne soit réalisée. Une faible chute de flux de l’OI, linéaire sur toute la période de filtration, essentiellement dû à l’adsorption de molécules organiques à la surface de la membrane, a été observée. Sur l’ensemble de la période d’essais, la filière BAM/OI permet d’obtenir un abattement optimal en micropolluants présents. Lorsque des micropolluants sont injectés à des concentrations plus élevées (simulation d’une brusque dégradation de la qualité des eaux en entrée de filière) dans le bioréacteur, une chute de l’activité de la biomasse couplée à un relargage de produits microbiens solubles peut être observée. Néanmoins, ces pics de pollution n’ont eu aucun impact sur le colmatage de la membrane du BAM ni sur celle de l’OI. La filière BAM-OI permet donc de garantir un taux de rejet élevé et une productivité d’environ 15 L.h-1.m2 quelles que soient les fluctuations de la composition de l’eau usée urbaine à traiter. / In order to be competitive compare to surface water treatments, wastewater reuse needs robust, reliable and profitable combination of technologies. The combination of bioreactors and membrane processes seems to be a promising solution to these challenges. This study focus on the impact of the operating conditions of the secondary treatment (particularly the membrane bioreactor (MBR)) on the nanofiltration (NF) and reverse osmosis (RO) tertiary treatments as well as the fate of micropollutants and microorganisms along the treatment line. Firstly, short term filtration experiments with various NF and RO membranes were performed in order to characterize the interactions between secondary treatment effluents (STE) and membranes. High retentions of micropollutants listed by the European water framework directive were observed. During these short term experiments, RO flux decline is mainly due to an increase of osmotic pressure and then a precipitation of salts that can be solved by controlling the pH and thus the carbonate and phosphate concentration of the STE. In addition, higher flux declines are observed with NF because of a higher irreversible fouling behavior. Secondly, continuous long term tests were performed on a pilot unit combining a MBR and a RO processes. The appropriate selection of operating conditions allowed treating wastewater during more than four months without any maintenance. A linear low flux decline, mainly due to adsorption of organic molecules at the membrane surface was observed. During this filtration period, the MBR/RO process presented very high micropollutant retentions. When micropollutants are injected at higher concentration (simulation of sudden fluctuation of feed composition) into the MBR, a drop of biomass activity combined with soluble microbial products release can be observed. Nevertheless, these peaks of pollution did not cause any additional fouling of MBR as well as RO membranes. MBR/RO process is then a reliable technology that can guaranty high retention and productivity (around 15 L.h-1.m-2) whatever the fluctuations of the feed composition.
63

Qualité biologique des eaux usées traitées en vue de la réutilisation / Biological quality of treated wastewater with the aim of reclamation

Carré, Erwan 06 July 2017 (has links)
La réutilisation des eaux usées traitées (REUT) constitue une ressource alternative pérenne et à fort potentiel notamment pour les régions soumises à un stress hydrique. L’objectif général de cette thèse est de définir les conditions nécessaires pour garantir la fiabilité d’une filière de traitement tertiaire pour la réutilisation. La première partie s’intéresse aux limites des méthodes de dénombrement des microorganismes indicateurs couramment employées, notamment en lien avec la contamination particulaire des effluents. Les résultats indiquent qu’il existe un risque de sous-estimation par ces méthodes pour de fortes charges en matières en suspension.La désinfection par rayonnement ultraviolet (UV) est souvent employée pour garantir la qualité sanitaire de l’eau distribuée. La deuxième partie de cette thèse vise à comprendre les mécanismes pouvant affecter l’efficacité des UV. Une corrélation linéaire a pu être mise en évidence entre la contamination particulaire des effluents à traiter et la baisse d’efficacité de la désinfection UV, caractérisée d’une part par la diminution de la constante d’inactivation des microorganismes exposés aux UV et d’autre part par le risque d’apparition d’un effet de traîne (fraction de microorganismes insensibles aux UV).La mise en place d’un prétraitement par filtration s’avère donc nécessaire en amont de la désinfection UV. La troisième partie de cette thèse a permis de définir les paramètres opératoires les plus adaptés à l’effluent. Enfin, le contrôle de la qualité sur l’ensemble de la filière est envisagé, avec notamment la démonstration de faisabilité d’un système de surveillance en continu basé sur la spectrométrie UV/Visible. / Wastewater reclamation is an ongoing and promising alternative resource in a context of water stress. In particular, this is a major issue in the Mediterranean region, and its effects tend to be intensified by global warming. The main objective of this PhD thesis is to define the conditions for ensuring the reliability of a tertiary treatment chain for wastewater reclamation. The first part deals with the limits of the methods used in routine for the enumeration of indicator microorganisms, in relation with particulate contamination. The results indicate that there is a risk of underestimation by these methods for high loads of suspended matter.Ultraviolet (UV) disinfection has been used for years to ensure the biological safety of reclaimed water. The second part of this work aims to understand the mechanisms which may affect the efficiency of UV disinfection. A linear relationship has been observed between the particulate contamination of the effluents to be treated and the disinfection efficiency loss, featured on one hand by the decrease of the inactivation constant of the microorganisms and on the other hand by the risk of tailing (UV-resistant fraction among the microorganisms).The implementation of a pre-filtration is thus necessary before UV disinfection. The third part of this work enabled to identify the filtration parameters suited for the effluents to be treated. Finally, quality control on the whole chain is considered, in particular with the demonstration of feasibility of a continuous control system based on UV/Visible spectrometry.
64

Semantic monitoring mechanisms dedicated to security monitoring in IaaS cloud / Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS

Hebbal, Yacine 18 September 2017 (has links)
L’introspection de machine virtuelle (VM) consiste à superviser les états et les activités de celles-ci depuis la couche de virtualisation, tirant ainsi avantage de son emplacement qui offre à la fois une bonne visibilité des états et des activités des VMs ainsi qu’une bonne isolation de ces dernières. Cependant, les états et les activités des VMs à superviser sont vus par la couche de virtualisation comme une suite binaire de bits et d’octets en plus des états des ressources virtuelles. L’écart entre la vue brute disponible à la couche de virtualisation et celle nécessaire pour la supervision de sécurité des VMs constitue un challenge pour l’introspection appelé « le fossé sémantique ». Pour obtenir des informations sémantiques sur les états et les activités des VMs à fin de superviser leur sécurité, nous présentons dans cette thèse un ensemble de techniques basé sur l’analyse binaire et la réutilisation du code binaire du noyau d’une VM. Ces techniques permettent d’identifier les adresses et les noms de la plupart des fonctions noyau d’une VM puis de les instrumenter (intercepter, appeler et analyser) pour franchir le fossé sémantique de manière automatique et efficiente même dans les cas des optimisations du compilateur et de la randomisation de l’emplacement du code noyau dans la mémoire de la VM. / Virtual Machine Introspection (VMI) consists inmonitoring VMs security from the hypervisor layer which offers thanks to its location a strong visibility on their activities in addition to a strong isolation from them. However, hypervisor view of VMs is just raw bits and bytes in addition to hardware states. The semantic difference between this raw view and the one needed for VM security monitoring presents a significant challenge for VMI called “the semantic gap”. In order to obtain semantic information about VM states and activities for monitoring their security from the hypervisor layer, we present in this thesis a set of techniques based on analysis and reuse of VM kernel binary code. These techniques enable to identify addresses and names of most VM kernel functions then instrument (call, intercept and analyze) them to automatically bridge the semantic gap regardless of challenges presented by compiler optimizations and kernel base address randomization.
65

Esthétique de l'exploitation photographique de photos déjà existantes. / Aesthetics of the photographic use of pre-existing photos

Zorzal, Bruno 09 December 2016 (has links)
Au moment où les artistes revendiquent la totalité des objets composant la réalité comme source matérielle pour l’art, on se voit dans la nécessité de réfléchir sur les usages et appropriations créatives spécifiques d’images photographiques. En avançant ainsi d’un cadre général vers le particulier, on vise à instaurer une réflexion centrée sur l’utilisation de photos déjà existantes dans les pratiques artistiques visant la fabrication d’une œuvre photographique. Cependant, le fait de créer à partir d’un objet déjà créé qui ici est une photo, n’étant pas sans problèmes, qu’en est-il d’une forme photographique, de même que d’une expression subjective qui garderait un rapport de dépendance avec la nécessité de l’existence préalable d’une image technique ? Que se passe-t-il quand voit le jour, dans ce contexte, une image d’image ? En ce sens, quand le faire photographique devient un refaire à partir d’une photographie déjà existante, nous rapportons-nous de la même manière aux photos, aux processus et procédés photographiques en art et finalement aux œuvres photographiques, voire à la photographie et à l’art lui-même ? Les problèmes élaborés, dans ce contexte particulier, face aux œuvres et à l’aide de théories et notions nous permettent de repérer des éléments en vue d’une esthétique de l’exploitation en photographie de photos déjà existantes, et nous exposent à des aspects politiques, légaux, éthiques, etc. de ces actions, qui placent les photos au centre des processus et procédés en photographie. / In a time when artists claim the totality of objects composing reality as a material source for art, we find it necessary to reflect on the uses of and creative appropriations specific to photographic images. In moving thusly from a general framework to a specific one, we intend to introduce a reflection centered on the use of pre-existing photos in artistic practices that themselves are directed towards the creation of a photographic oeuvre. However, and given the problematics associated with creating from an already-created object, in this case a photo, what is in it of a photographic form that as a subjective expression keeps a link of dependence with the necessity of existence that is precondition of a technical image? What happens when an image of an image enters the world in this context? In this sense, when doing photography becomes redoing from a pre-existing photograph, do we approach photos, photographic processes and procedures in art and finally photographic oeuvres, or even photography and art itself in the same manner? The questions that are developed in this specific context, in response to artworks and with the aid of theories and notions, permit us to identify elements towards an aesthetics of the photographic use of pre-existing photos, and expose us to political, legal, ethical, and other aspects of these actions, placing photos at the center of processes and procedures in photography.
66

Développement d'un procédé innovant de retraitement des slurries de l'industrie microélectronique

Testa, Fabrice 18 July 2011 (has links)
L’objectif de cette étude est de recycler du slurry, suspension silicatée, utilisé dans le domaine de l’électronique lors du polissage. Deux applications de polissage sont étudiées : le polissage silicium et le polissage tungstène. Pour ces deux applications, une caractérisation physico-chimique des slurries en amont et en aval du procédé de polissage a mis en exergue une importante dilution du slurry par de l’eau déionisée destinée au rinçage des wafers : une collecte ségrégée a ainsi été mise en place. Le procédé d’ultrafiltration permet une reconcentration de la silice. Toutefois ce procédé ne permet pas la récupération des composés dissous du slurry, qui restent pourtant essentiels au polissage et d’autant plus pour l’application tungstène : un ajustement chimique est donc développée avant réutilisation du slurry ainsi retraité. Pour le slurry tungstène, la matrice chimique étant plus complexe, deux types d’ajustement ont été testés dont les proportions ont été optimisées par une méthode de plans d’expériences.Concernant le slurry silicium, un prototype industriel a été installé et les résultats de polissage sont similaires au slurry POU sur un nombre significatif de plaques. La qualification industrielle a été réalisée. Ce prototype permet d’atteindre les objectifs de diminution de 30% de la consommation de slurry et de 40% des volumes d’effluents rejetés vers station d’épuration. / The chemical and mechanical polishing is a costly step in the process of microelectronic chips manufacturing. This study aims for recycle the silicate suspension named slurry by membrane processes. Both polishing applications are studied: the silicium and the tungsten polishing. A physical and chemical characterization before and after polishing process shows an important dilution of slurry by deionized water used for wafers rinsing. From CMP machine, a collect segregation of a concentrated effluent is realised by a diverter valve. Ultrafiltration has been chosen to reconcentrate silica but does not permit to recover the chemical compounds of the slurry which are essential to the polishing mainly to the tungsten application. Thus, retreatment process includes a collect segregation at the CMP outlet to decrease the dilution factor of slurry, an ultrafiltration step to concentrate silica and a chemical adjustment step. About tungsten application, the chemical media is more complex and two types of adjustment have been led. Firstly, a mix of POU and retreated slurry has been tested and secondly, an experiment of design with three important compounds of the slurry has been tested. Most CMP parameters are obtained in industrial specifications with the mix of POU and retreated slurry.Concerning the silicium slurry, an industrial prototype is installed and polishing results are similar to the original slurry for a significant wafers number. The industrial agreement is obtained. This prototype allows reaching a 30% decrease of slurry consumption and a 40% decrease of waste waters.
67

Enjeux et place des data sciences dans le champ de la réutilisation secondaire des données massives cliniques : une approche basée sur des cas d’usage / Issues and place of the data sciences for reusing clinical big data : a case-based study

Bouzillé, Guillaume 21 June 2019 (has links)
La dématérialisation des données de santé a permis depuis plusieurs années de constituer un véritable gisement de données provenant de tous les domaines de la santé. Ces données ont pour caractéristiques d’être très hétérogènes et d’être produites à différentes échelles et dans différents domaines. Leur réutilisation dans le cadre de la recherche clinique, de la santé publique ou encore de la prise en charge des patients implique de développer des approches adaptées reposant sur les méthodes issues de la science des données. L’objectif de cette thèse est d’évaluer au travers de trois cas d’usage, quels sont les enjeux actuels ainsi que la place des data sciences pour l’exploitation des données massives en santé. La démarche utilisée pour répondre à cet objectif consiste dans une première partie à exposer les caractéristiques des données massives en santé et les aspects techniques liés à leur réutilisation. La seconde partie expose les aspects organisationnels permettant l’exploitation et le partage des données massives en santé. La troisième partie décrit les grandes approches méthodologiques en science des données appliquées actuellement au domaine de la santé. Enfin, la quatrième partie illustre au travers de trois exemples l’apport de ces méthodes dans les champs suivant : la surveillance syndromique, la pharmacovigilance et la recherche clinique. Nous discutons enfin les limites et enjeux de la science des données dans le cadre de la réutilisation des données massives en santé. / The dematerialization of health data, which started several years ago, now generates na huge amount of data produced by all actors of health. These data have the characteristics of being very heterogeneous and of being produced at different scales and in different domains. Their reuse in the context of clinical research, public health or patient care involves developing appropriate approaches based on methods from data science. The aim of this thesis is to evaluate, through three use cases, what are the current issues as well as the place of data sciences regarding the reuse of massive health data. To meet this objective, the first section exposes the characteristics of health big data and the technical aspects related to their reuse. The second section presents the organizational aspects for the exploitation and sharing of health big data. The third section describes the main methodological approaches in data sciences currently applied in the field of health. Finally, the fourth section illustrates, through three use cases, the contribution of these methods in the following fields: syndromic surveillance, pharmacovigilance and clinical research. Finally, we discuss the limits and challenges of data science in the context of health big data.
68

Contribution à la construction d’ontologies et à la recherche d’information : application au domaine médical / Contribution to ontology building and to semantic information retrieval : application to medical domain

Drame, Khadim 10 December 2014 (has links)
Ce travail vise à permettre un accès efficace à des informations pertinentes malgré le volume croissant des données disponibles au format électronique. Pour cela, nous avons étudié l’apport d’une ontologie au sein d’un système de recherche d'information (RI).Nous avons tout d’abord décrit une méthodologie de construction d’ontologies. Ainsi, nous avons proposé une méthode mixte combinant des techniques de traitement automatique des langues pour extraire des connaissances à partir de textes et la réutilisation de ressources sémantiques existantes pour l’étape de conceptualisation. Nous avons par ailleurs développé une méthode d’alignement de termes français-anglais pour l’enrichissement terminologique de l’ontologie. L’application de notre méthodologie a permis de créer une ontologie bilingue de la maladie d’Alzheimer.Ensuite, nous avons élaboré des algorithmes pour supporter la RI sémantique guidée par une ontologie. Les concepts issus d’une ontologie ont été utilisés pour décrire automatiquement les documents mais aussi pour reformuler les requêtes. Nous nous sommes intéressés à : 1) l’identification de concepts représentatifs dans des corpus, 2) leur désambiguïsation, 3), leur pondération selon le modèle vectoriel, adapté aux concepts et 4) l’expansion de requêtes. Ces propositions ont permis de mettre en œuvre un portail de RI sémantique dédié à la maladie d’Alzheimer. Par ailleurs, le contenu des documents à indexer n’étant pas toujours accessible dans leur ensemble, nous avons exploité des informations incomplètes pour déterminer les concepts pertinents permettant malgré tout de décrire les documents. Pour cela, nous avons proposé deux méthodes de classification de documents issus d’un large corpus, l’une basée sur l’algorithme des k plus proches voisins et l’autre sur l’analyse sémantique explicite. Ces méthodes ont été évaluées sur de larges collections de documents biomédicaux fournies lors d’un challenge international. / This work aims at providing efficient access to relevant information among the increasing volume of digital data. Towards this end, we studied the benefit from using ontology to support an information retrieval (IR) system.We first described a methodology for constructing ontologies. Thus, we proposed a mixed method which combines natural language processing techniques for extracting knowledge from text and the reuse of existing semantic resources for the conceptualization step. We have also developed a method for aligning terms in English and French in order to enrich terminologically the resulting ontology. The application of our methodology resulted in a bilingual ontology dedicated to Alzheimer’s disease.We then proposed algorithms for supporting ontology-based semantic IR. Thus, we used concepts from ontology for describing documents automatically and for query reformulation. We were particularly interested in: 1) the extraction of concepts from texts, 2) the disambiguation of terms, 3) the vectorial weighting schema adapted to concepts and 4) query expansion. These algorithms have been used to implement a semantic portal about Alzheimer’s disease. Further, because the content of documents are not always fully available, we exploited incomplete information for identifying the concepts, which are relevant for indexing the whole content of documents. Toward this end, we have proposed two classification methods: the first is based on the k nearest neighbors’ algorithm and the second on the explicit semantic analysis. The two methods have been evaluated on large standard collections of biomedical documents within an international challenge.
69

Exploration des variantes d'artefacts logiciels pour une analyse et une migration vers des lignes de produits / Mining software artefact variants for product line migration and analysis

Martinez, Jabier 18 October 2016 (has links)
Les lignes de produits logiciels (LdPs) permettent la dérivation d'une famille de produits basés sur une gestion de la variabilité. Les LdPs utilisent des configurations de caractéristiques afin de satisfaire les besoins de chaque client et, de même, permettre une réutilisation systématique en utilisant des assets réutilisables. L’approche capitalisant sur des variantes des produits existants est appelé une approche extractive pour l'adoption de LdPs. L’identification des caractéristiques est nécessaire pour analyser la variabilité d’un ensemble de variantes. Il est également nécessaire de localiser les éléments associés à ces caractéristiques. Les contraintes entre ces caractéristiques doivent être identifiées afin de garantir la sélection de configurations valides. Par ailleurs, il faut construire les assets réutilisables et synthétiser un modèle de caractéristiques. Cette thèse présente BUT4Reuse (Bottom-Up Technologies for Reuse), un framework unifié, générique et extensible pour l’adoption extractive de LdPs. Une attention particulière est accordée à des scénarios de développement dirigée par les modèles. Nous nous concentrons aussi sur l'analyse des techniques en proposant un benchmark pour la localisation de caractéristiques et une technique d’identification de familles de variantes. Nous présentons des paradigmes de visualisation pour accompagner les experts du domaine dans le nommage de caractéristiques et aider à la découverte de contraintes. Finalement, nous étudions l'exploitation des variantes pour l'analyse de la LdP après sa création. Nous présentons une approche pour trouver des variantes pertinentes guidée par des évaluations des utilisateurs finaux. / Software Product Lines (SPLs) enable the derivation of a family of products based on variability management techniques. Inspired by the manufacturing industry, SPLs use feature configurations to satisfy different customer needs, along with reusable assets to allow systematic reuse. Capitalizing on existing variants by extracting the common and varying elements is referred to as extractive approaches for SPL adoption. Feature identification is needed to analyse the domain variability. Also, to identify the associated implementation elements of the features, their location is needed. In addition, feature constraints should be identified to guarantee that customers are not able to select invalid feature combinations. Then, the reusable assets associated to the features should be constructed. And finally, a comprehensive feature model need to be synthesized. This dissertation presents Bottom-Up Technologies for Reuse (BUT4Reuse), a unified, generic and extensible framework for mining software artefact variants. Special attention is paid to model-driven development scenarios. We also focus on benchmarks and in the analysis of variants, in particular, in benchmarking feature location techniques and in identifying families of variants in the wild for experimenting with feature identification techniques. We present visualisation paradigms to support domain experts on feature naming and to support on feature constraints discovery. Finally, we investigate and discuss the mining of artefact variants for SPL analysis once the SPL is already operational. Concretely, we present an approach to find relevant variants within the SPL configuration space guided by end user assessments.
70

Les processus métiers en tant que services - BPaaS : sécurisation des données et des services / Business process as a service - BPaaS : securing data and services

Bentounsi, Mohamed el Mehdi 14 September 2015 (has links)
Malgré les avantages économiques de l’informatique en nuage (ou cloud computing) pour les entreprises et ses multiples applications envisagées, il subsiste encore des obstacles pour son adoption à grande échelle. La sécurité des données sauvegardées et traitées dans le nuage arrive en tête des préoccupations des décideurs des directions des systèmes d'information. De ce fait, l'objectif principal de nos travaux de recherche lors de cette thèse de doctorat est de poser des bases solides pour une utilisation sûre et sécurisée du nuage. Dans un premier lieu, l’externalisation des processus métiers vers le nuage permet aux entreprises de réduire les couts d’investissement et de maitriser les couts d’exploitation de leurs systèmes d’information ; Elle permet aussi de promouvoir la réutilisation des parties (ou fragments) de ses processus métiers en tant que service cloud, éventuellement par des concurrents directs, afin de faciliter le développement de nouvelles applications orientés services ‘SOA’, ainsi la collaboration à l’échelle du nuage. Néanmoins, le fait de révéler la provenance d’un fragment réutilisé est considérée comme une brèche dans la vie privée et risque d’être dommageable pour l’entreprise propriétaire de ce fragment. Les techniques d’anonymisation des données ont fait leurs preuves dans le domaine des bases de données. Notre principale contribution dans cette partie est la proposition d’un protocole basée sur l’anonymisation des fragments de processus métiers afin de garantir à la fois, la vie privée de leurs propriétaires et la disponibilité de ces fragments pouvant être réutilisés dans le nuage. Les systèmes d’authentification biométriques permettent une authentification des individus avec une garantit suffisante. Néanmoins, le besoin en ressources informatiques ‘calcul et stockage’ de ces systèmes et le manque de compétences au sein des organismes freinent considérablement leurs utilisations à grande échelle. Le nuage offre la possibilité d’externaliser à la fois le calcul et le stockage des données biométriques à moindre cout et de proposer une authentification biométrique en tant que service. Aussi, l’élasticité du nuage permet de répondre aux pics des demandes d’authentifications aux heures de pointes. Cependant, des problèmes de sécurité et de confidentialité des données biométriques sensibles se posent, et par conséquent doivent être traité afin de convaincre les institutions et organismes à utiliser des fragments externes d'authentification biométriques dans leurs processus métiers. Notre principale contribution dans cette partie est un protocole léger ‘coté client’ pour une externalisation (sur un server distant) de la comparaison des données biométriques sans révéler des informations qui faciliteraient une usurpation d’identité par des adversaires. Le protocole utilise une cryptographie légère basée sur des algorithmes de hachage et la méthode de 'groupe de tests combinatoires', permettant une comparaison approximative entre deux données biométriques. Dans la dernière partie, nous avons proposé un protocole sécurisé permettant la mutualisation d’un Hyperviseur (Outil permettant la corrélation et la gestion des événements issus du SI) hébergé dans le nuage entre plusieurs utilisateurs. La solution proposée utilise à la fois, le chiffrement homomorphique et la réécriture de règles de corrélation afin de garantir la confidentialité les évènements provenant des SI des différents utilisateurs. Cette thèse a été réalisée à l'Université Paris Descartes (groupe de recherche diNo du LIPADE) avec le soutien de la société SOMONE et l'ANRT dans le cadre d'une convention CIFRE. / Cloud computing has become one of the fastest growing segments of the IT industry. In such open distributed computing environments, security is of paramount concern. This thesis aims at developing protocols and techniques for private and reliable outsourcing of design and compute-intensive tasks on cloud computing infrastructures. The thesis enables clients with limited processing capabilities to use the dynamic, cost-effective and powerful cloud computing resources, while having guarantees that their confidential data and services, and the results of their computations, will not be compromised by untrusted cloud service providers. The thesis contributes to the general area of cloud computing security by working in three directions. First, the design by selection is a new capability that permits the design of business processes by reusing some fragments in the cloud. For this purpose, we propose an anonymization-based protocol to secure the design of business processes by hiding the provenance of reused fragments. Second, we study two di_erent cases of fragments' sharing : biometric authentication and complex event processing. For this purpose, we propose techniques where the client would only do work which is linear in the size of its inputs, and the cloud bears all of the super-linear computational burden. Moreover, the cloud computational burden would have the same time complexity as the best known solution to the problem being outsourced. This prevents achieving secure outsourcing by placing a huge additional overhead on the cloud servers. This thesis has been carried out in Université Paris Descartes (LIPADE - diNo research group) and in collaboration with SOMONE under a Cifre contract. The convergence of the research fields of those teams led to the development of this manuscrit.

Page generated in 0.1152 seconds