• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 24
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 92
  • 40
  • 36
  • 35
  • 34
  • 29
  • 25
  • 23
  • 22
  • 20
  • 19
  • 19
  • 18
  • 15
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modélisation centrée sur les processus métier pour la génération complète de portails collaboratifs

Souissi, Amen 20 December 2013 (has links) (PDF)
Les entreprises collaborent pour saisir des opportunités, échanger des documents et ressources, cela en suivant des processus métier pouvant évoluer. Les portails collaboratifs sont une solution orientée web à ce besoin de collaboration. Cependant, la conception et la maintenance d'un portail collaboratif métier n'est pas trivial et reste peu accessible aux acteurs de l'entreprise. Cela a comme conséquence la difficulté de maintenir et faire évoluer le portail collaboratif sans que cela ne soit trop coûteux en temps et financièrement. Afin de répondre à cette problématique, une solution consiste à capter les besoins métier de la collaboration dans un modèle, puis générer automatiquement le portail collaboratif correspondant. Le modèle, dans ce cas, doit être accessible aux acteurs métier et expressif décrivant ainsi les aspects les plus complexes d'une collaboration. C'est dans ce contexte que se situent nos travaux. À défaut d'avoir une solution toute faite, nous avons mis en place une approche de conception de portail collaboratif fondée sur l'Ingénierie Dirigée par les Modèles. Pour la description de nos portails, nous avons choisi de privilégier la modélisation des entreprises centrée sur les processus métier comme point de départ. Notre solution repose sur notre métamodèle MACoP (Modeling and Analysis of Collaborative Portal). Dans ce métamodèle nous avons fait cohabiter l'accessibilité et l'expressivité. Cela en proposant de nouveaux concepts permettant ainsi la génération complète des portails collaboratifs. Le métamodèle MACoP est accompagné d'une chaîne de transformations permettant de passer directement d'un modèle MACoP au code Python du portail collaboratif.
72

Conception et analyse des biopuces à ADN en environnements parallèles et distribués / Design and analysis of DNA microarrays in parallel and distributed environments

Jaziri, Faouzi 23 June 2014 (has links)
Les microorganismes constituent la plus grande diversité du monde vivant. Ils jouent un rôle clef dans tous les processus biologiques grâce à leurs capacités d’adaptation et à la diversité de leurs capacités métaboliques. Le développement de nouvelles approches de génomique permet de mieux explorer les populations microbiennes. Dans ce contexte, les biopuces à ADN représentent un outil à haut débit de choix pour l'étude de plusieurs milliers d’espèces en une seule expérience. Cependant, la conception et l’analyse des biopuces à ADN, avec leurs formats de haute densité actuels ainsi que l’immense quantité de données à traiter, représentent des étapes complexes mais cruciales. Pour améliorer la qualité et la performance de ces deux étapes, nous avons proposé de nouvelles approches bioinformatiques pour la conception et l’analyse des biopuces à ADN en environnements parallèles. Ces approches généralistes et polyvalentes utilisent le calcul haute performance (HPC) et les nouvelles approches du génie logiciel inspirées de la modélisation, notamment l’ingénierie dirigée par les modèles (IDM) pour contourner les limites actuelles. Nous avons développé PhylGrid 2.0, une nouvelle approche distribuée sur grilles de calcul pour la sélection de sondes exploratoires pour biopuces phylogénétiques. Ce logiciel a alors été utilisé pour construire PhylOPDb: une base de données complète de sondes oligonucléotidiques pour l’étude des communautés procaryotiques. MetaExploArrays qui est un logiciel parallèle pour la détermination de sondes sur différentes architectures de calcul (un PC, un multiprocesseur, un cluster ou une grille de calcul), en utilisant une approche de méta-programmation et d’ingénierie dirigée par les modèles a alors été conçu pour apporter une flexibilité aux utilisateurs en fonction de leurs ressources matériel. PhylInterpret, quant à lui est un nouveau logiciel pour faciliter l’analyse des résultats d’hybridation des biopuces à ADN. PhylInterpret utilise les notions de la logique propositionnelle pour déterminer la composition en procaryotes d’échantillons métagénomiques. Enfin, une démarche d’ingénierie dirigée par les modèles pour la parallélisation de la traduction inverse d’oligopeptides pour le design des biopuces à ADN fonctionnelles a également été mise en place. / Microorganisms represent the largest diversity of the living beings. They play a crucial rôle in all biological processes related to their huge metabolic potentialities and their capacity for adaptation to different ecological niches. The development of new genomic approaches allows a better knowledge of the microbial communities involved in complex environments functioning. In this context, DNA microarrays represent high-throughput tools able to study the presence, or the expression levels of several thousands of genes, combining qualitative and quantitative aspects in only one experiment. However, the design and analysis of DNA microarrays, with their current high density formats as well as the huge amount of data to process, are complex but crucial steps. To improve the quality and performance of these two steps, we have proposed new bioinformatics approaches for the design and analysis of DNA microarrays in parallel and distributed environments. These multipurpose approaches use high performance computing (HPC) and new software engineering approaches, especially model driven engineering (MDE), to overcome the current limitations. We have first developed PhylGrid 2.0, a new distributed approach for the selection of explorative probes for phylogenetic DNA microarrays at large scale using computing grids. This software was used to build PhylOPDb: a comprehensive 16S rRNA oligonucleotide probe database for prokaryotic identification. MetaExploArrays, which is a parallel software of oligonucleotide probe selection on different computing architectures (a PC, a multiprocessor, a cluster or a computing grid) using meta-programming and a model driven engineering approach, has been developed to improve flexibility in accordance to user’s informatics resources. Then, PhylInterpret, a new software for the analysis of hybridization results of DNA microarrays. PhylInterpret uses the concepts of propositional logic to determine the prokaryotic composition of metagenomic samples. Finally, a new parallelization method based on model driven engineering (MDE) has been proposed to compute a complete backtranslation of short peptides to select probes for functional microarrays.
73

Rétro-ingénierie des plateformes pour le déploiement des applications temps-réel / Reverse-engineering of platforms for the deployment of real-time applications

Mzid, Rania 12 May 2014 (has links)
Les travaux présentés dans cette thèse s’inscrivent dans le cadre du développement logiciel des systèmes temps réel embarqués. Nous définissons dans ce travail une méthodologie nommée DRIM. Cette méthodologie permet de guider le déploiement des applications temps réel sur différents RTOS en suivant la ligne de l’IDM et en assurant le respect des contraintes de temps après le déploiement. L’automatisation de la méthodologie DRIM montre sa capacité à détecter les descriptions non-implémentables de l’application, réalisées au niveau conception, pour un RTOS donné, ce qui présente l’avantage de réduire le temps de mise sur le marché d’une part et de guider l’utilisateur pour un choix approprié de l’RTOS cible d’autre part. / The main purpose of this Phd is to contribute to the software development of real-time embedded systems. We define in this work a methodology named DRIM: Design Refinement toward Implementation Methodology. This methodology aims to guide the deployment of a real-time application on to different RTOS while respecting MDE principals and ensuing that the timing properties are still met after deployment. The automation of DRIM shows its ability to detect non-implementable design models describing the real-time application, on aparticular RTOS, which permits to reduce the time-to-market on the one hand and guide the user to the selection of the appropriate RTOS from the other hand.
74

Ingénierie et réingénierie des EIAH - L'approche REDiM

Choquet, Christophe 10 December 2007 (has links) (PDF)
Ce document présente nos recherches dans le domaine des EIAH (Environnements Informatiques pour l'Apprentissage Humain). Ces travaux se sont structurés en tant que projet scientifique impliquant plusieurs chercheurs. <br />Ce projet, REDiM (Réingénierie des EIAH Dirigée par les Modèles), a pour objectif d'intégrer les enseignants et les formateurs de terrain dans le processus de conception d'un EIAH. La posture scientifique générale est de considérer la conception comme continue, supportée par un processus itératif alternant des phases d'analyse des usages et de réingénierie de l'EIAH, dans une approche dirigée par les modèles. Nous entendons en cela promouvoir une démarche d'ingénierie générative où l'EIAH est généré à partir de modèles prescriptifs (i.e. qui définissent et encadrent l'activité des acteurs de l'EIAH) ou, ad minima, prédictifs (i.e. qui décrivent et préconisent l'activité idéale que les acteurs de l'EIAH devraient avoir). Cette démarche d'ingénierie a également pour objectif de construire des modèles descriptifs qui rendent compte des situations pédagogiques observées, directement manipulables et interprétables par les concepteurs enseignants ou formateurs. Nos travaux se sont centrés sur une famille particulière de modèles d'un EIAH : les scénarios pédagogiques.<br />La première partie de ce document se consacre à définir notre position et notre problématique scientifiques. A partir d'exemples concrets extraits de nos expérimentations, nous listons les situations de conception qu'il convient d'éviter pour impliquer les enseignants et les formateurs dans les processus actifs de l'ingénierie d'un EIAH. Nous proposons alors une première problématisation de notre objet d'étude, l'ingénierie et la réingénierie d'un scénario pédagogique, et positionnons nos travaux par rapport à ceux de la communauté nationale et internationale qui leur sont connexes. Cette première partie se conclut par une présentation de notre problématique scientifique et de notre méthodologie de recherche.<br />La seconde partie de ce document présente nos résultats de recherche. Un premier ensemble de travaux s'est attaché à définir un modèle de l'ingénierie et de la réingénierie d'un scénario pédagogique. Ce modèle identifie les processus actifs participant au développement d'un scénario pédagogique et caractérise les flux de communication entre ces processus par les artefacts échangés. Un deuxième ensemble de travaux se centre sur l'instrumentation des activités de modélisation et d'analyse des observations de l'utilisation d'un EIAH. Nous proposons notamment un langage permettant (1) de définir ce qu'il faut observer pendant une session d'apprentissage, (2) de décrire la méthode d'analyse des observations collectées et (3) de représenter ces observations de manière à construire un ensemble de scénarios descriptifs qui rendent comptent des situations pédagogiques observées. Les caractéristiques de ce langage favorisent la capitalisation et le partage des savoir-faire d'analyse des traces d'utilisation d'un EIAH.<br />La dernière partie de ce document fait une synthèse de nos contributions et dresse un ensemble de perspectives de recherche sur l'instrumentation de l'enseignant dans son rôle de concepteur d'un EIAH, sur la définition et l'exploitation de modèles productifs pour le développement d'un EIAH et sur les moyens et les enjeux de la capitalisation et du partage des savoir-faire en matière d'ingénierie et de réingénierie d'un EIAH.
75

Composition de modèles pour la modélisation multi-paradigme du comportement des systèmes

Hardebolle, Cécile 28 November 2008 (has links) (PDF)
Dans le contexte de l'Ingénierie Dirigée par les Modèles, l'utilisation de multiples paradigmes de modélisation pour développer un système complexe est à la fois inévitable et essentielle. Les modèles qui représentent un tel système sont donc hétérogènes, ce qui rend tout raisonnement global sur le système difficile. L'objectif de la modélisation multi-paradigme est de faciliter l'utilisation conjointe de modèles hétérogènes pendant le cycle de développement. Les travaux exposés dans cette thèse concernent l'étude de l'hétérogénéité des modèles et la conception d'une approche pour la modélisation multi-paradigme des systèmes. Nous caractérisons les causes de l'hétérogénéité des modèles par rapport au cycle de développement puis identifions différents types d'hétérogénéité. En nous basant sur ces causes d'hétérogénéité, nous proposons un cadre d'étude pour le domaine de la modélisation multi-paradigme avec différents axes de recherche. La multidisciplinarité de la modélisation multi-paradigme rend applicables des techniques issues de différents domaines. Nous proposons un état de l'art et une classification des techniques dont nous avons étudié la pertinence par rapport à l'hétérogénéité. La gamme des techniques présentées inclut les transformations de modèles, la composition de méta-modèles, la composition de modèles, l'adaptation de composants, la co-simulation ou encore les méga-modèles. Nous présentons ensuite ModHel'X, l'approche de composition de modèles pour la modélisation multi-paradigme que nous avons développée. Elle s'appuie sur le concept de modèle de calcul et permet : 1. de spécifier la sémantique d'un langage de modélisation de manière exécutable à travers la spécialisation opérationnelle d'une sémantique abstraite pour les modèles de calcul ; 2. de spécifier explicitement les mécanismes de composition à utiliser entre des modèles hétérogènes via une structure de modélisation appelée bloc d'interface ; 3. de simuler le comportement global de modèles hétérogènes par un algorithme générique d'exécution que nous avons défini. Une implémentation de ModHel'X a été réalisée sous la forme d'un framework s'appuyant sur EMF (Eclipse Modeling Framework).
76

Air-Sea Flux Measurements Over The Bay Of Bengal During A Summer Monsoon

Raju, Jampana V S 11 1900 (has links)
Majority of the rain producing monsoon systems in India form or intensify over the Bay of Bengal and move onto the land. We expect the air-sea interaction to be a crucial factor in the frequent genesis and intensification of monsoon systems over the Bay. Knowledge of air-sea fluxes is essential in determining the air-sea interactions. However, the Bay remains a poorly monitored ocean basin and the state of the near surface conditions during the monsoon months remains to be studied in detail. For example, we do not know yet which among the various flux formulae used in the General circulation models are appropriate over the Bay since there are no direct measurements of surface fluxes here during the peak monsoon months. The present thesis aims towards filing that gap. In this thesis fluxes were computed using the Bulk method, Inertial dissipation method and direct covariance method. The flux comparisons were reasonable during certain flow conditions which are clearly identified. When these conditions are not met the differences among the fluxes from these methods can be larger than the inherent uncertainties' in the methods. Stratification, flow distortion and averaging time are the key variables that give rise to the differences in the fluxes. It is found that there are significant differences in the surface flux estimates computed from different atmospheric General Circulation Model bulk parameterization schemes. In this thesis, the flow gradients are estimated by taking advantage of the natural pitch and roll motion of the ship. A attempt is made to gain insight into the flow distortion and its influence on the fluxes. In our analysis it is found that the displacement of the streamlines is an important component in quantifying flow distortion.
77

Gestion de l’hétérogénéité d’un SI de classification documentaire multifacette et positionnement dans l’environnement des ECM. / Management of heterogeneity of a documentary multifaceted classification Information System and position in the ECM environment.

Ankoud, Manel 19 December 2014 (has links)
L’organisation des connaissances est une discipline investie par des bibliothécaires, documentalistes, archivistes spécialistes de l’information, informaticiens et tous professionnels de documents. Elle englobe toutes activités, études et recherches qui élaborent et traitent les processus d’organisation et de présentation des ressources documentaires utiles dans une organisation. Dans ce contexte, le projet ANR Miipa-Doc a pour objectifs d’explorer des nouvelles méthodes d’indexation ascendantes, en utilisant des termes descripteurs formulés par les individus plutôt que choisis parmi une liste préétablie, pour l’organisation des contenus documentaires complexes au sein des entreprises de large taille, et concevoir l’architecture logicielle correspondante.Dans ce projet notre contribution consiste à gérer l’hétérogénéité d’un système d’information d’organisation des contenus documentaires, basé sur une approche orientée métier et un SOC (système d’organisation des connaissances) folksonomique à facette. Nous proposons dans cette gestion une approche incrémentale dirigée par les modèles, issue de l’IDM (ingénierie dirigée par les modèles), basée sur des méta-modèles pour garantir l’aspect d’évolutivité. Après l’implémentation du prototype HyperTaging qui met en place ces deux approches, nous proposons un processus d’évaluation permet de positionner ce prototype et tous SI de classification documentaire dans l’environnement des ECM, en se basant sur des critères d’évaluation fins et particuliers. / The knowledge organization is invested by librarians, archivists, information specialists, IT professionals and all discipline of document. It includes all activities, studies and research which develop and treat organization process and presentation of relevant information resources in an organization. In this context the Miipa-Doc project aims to explore new ascendants indexing methods, using descriptors made by individuals rather than selected given list for complex contained in the organization document, in large size companies, and design the corresponding software architecture.Our contribution in this project is to manage the heterogeneity of an information system of document organization, based on a business-oriented approach and a KOS (knowledge organization system) of folksonomy facet. We propose an incremental approach this management model driven, outcome of MDE (Model Driven Engineering), based on meta-models to ensure scalability appearance. After implementing the HyperTaging prototype, that implements both approaches, we propose an evaluation process used to position the prototype and all IS of documentary classification in the environment of ECM based on purposes of delicate and particular evaluation criteria.
78

Gestion de l’hétérogénéité d’un SI de classification documentaire multifacette et positionnement dans l’environnement des ECM. / Management of heterogeneity of a documentary multifaceted classification Information System and position in the ECM environment.

Ankoud, Manel 19 December 2014 (has links)
L’organisation des connaissances est une discipline investie par des bibliothécaires, documentalistes, archivistes spécialistes de l’information, informaticiens et tous professionnels de documents. Elle englobe toutes activités, études et recherches qui élaborent et traitent les processus d’organisation et de présentation des ressources documentaires utiles dans une organisation. Dans ce contexte, le projet ANR Miipa-Doc a pour objectifs d’explorer des nouvelles méthodes d’indexation ascendantes, en utilisant des termes descripteurs formulés par les individus plutôt que choisis parmi une liste préétablie, pour l’organisation des contenus documentaires complexes au sein des entreprises de large taille, et concevoir l’architecture logicielle correspondante.Dans ce projet notre contribution consiste à gérer l’hétérogénéité d’un système d’information d’organisation des contenus documentaires, basé sur une approche orientée métier et un SOC (système d’organisation des connaissances) folksonomique à facette. Nous proposons dans cette gestion une approche incrémentale dirigée par les modèles, issue de l’IDM (ingénierie dirigée par les modèles), basée sur des méta-modèles pour garantir l’aspect d’évolutivité. Après l’implémentation du prototype HyperTaging qui met en place ces deux approches, nous proposons un processus d’évaluation permet de positionner ce prototype et tous SI de classification documentaire dans l’environnement des ECM, en se basant sur des critères d’évaluation fins et particuliers. / The knowledge organization is invested by librarians, archivists, information specialists, IT professionals and all discipline of document. It includes all activities, studies and research which develop and treat organization process and presentation of relevant information resources in an organization. In this context the Miipa-Doc project aims to explore new ascendants indexing methods, using descriptors made by individuals rather than selected given list for complex contained in the organization document, in large size companies, and design the corresponding software architecture.Our contribution in this project is to manage the heterogeneity of an information system of document organization, based on a business-oriented approach and a KOS (knowledge organization system) of folksonomy facet. We propose an incremental approach this management model driven, outcome of MDE (Model Driven Engineering), based on meta-models to ensure scalability appearance. After implementing the HyperTaging prototype, that implements both approaches, we propose an evaluation process used to position the prototype and all IS of documentary classification in the environment of ECM based on purposes of delicate and particular evaluation criteria.
79

Systém správy identit pro malé a střední firmy / Identity Management Solution for Small and Medium Businesses

MAXA, Karel January 2014 (has links)
The topic of this master's thesis is development of identity management solution for small and medium business. The thesis is divided into four major parts. The first part contains theoretical background as description of RBAC model or model with relationships between practically used objects (user identity, role, position, permission, account...). Analysis of functioning and needs of targeted organizations was carried out in the second part. The third part describes the design of the developed application. The fourth part discusses actual implementation of the application. The main outcome of the thesis is implemented application that can be deployed at thesis defined organizations. The application includes all the functionality required in the first phase of the project.
80

Modeling of Secure Dependable (S&D) applications based on patterns for Resource-Constrained Embedded Systems (RCES) / Modélisation des applications "sécurisées et sûres" (S&D) à base de patrons pour des systèmes embarqués contraints en ressources (RCES)

Ziani, Adel 19 September 2013 (has links)
La complexité croissante du matériel et du logiciel dans le développement des applications pour les systèmes embarqués induit de nouveaux besoins et de nouvelles contraintes en termes de fonctionnalités, de capacité de stockage, de calcul et de consommation d'énergie. Cela entraîne des difficultés accrues pour les concepteurs alors que les contraintes commerciales liées aux développement et à la production de ces systèmes demeurent impondérables. Un autre défi qui s'ajoute à cette complexité est le développement des applications avec de fortes exigences de sécurité et de fiabilité (S&D) pour des systèmes embarqués contraints en ressources (RCES). De ce fait, nous recommandons d'aborder cette complexité via la réutilisation d'un ensemble d'artefacts de modélisation dédiés. Le "patron" constitue l'artefact de base pour représenter des solutions S&D, à spécifier par les experts de ces aspects et à réutiliser par les ingénieurs pour résoudre les problèmes de l'ingénierie système/logicielle du domaine confrontée à ces aspects. Dans le cadre de cette thèse, nous proposons une approche d'ingénierie à base de modèles pour la spécification, le packaging et la réutilisation de ces artefacts pour modéliser et analyser ces systèmes. Le fondement de notre approche est un ensemble de langages de modélisation et des règles de transformation couplés à un référentiel orienté modèles et de moteurs de recherche et d'instantiation. Ces langages de modélisation permettent de spécifier les patrons, les systèmes de patrons et un ensemble de modèles de propriétés et de ressources. Ces modèles permettent de gouverner l'utilisation des patrons, leur organisation et leur analyse pour d'éventuel réutilisation. Pour les transformations, nous avons conçu un ensemble de règles pour l'analyse de la satisfiabilité des architectures logicielles à base de patrons S&D pour des plateformes matérielles à base de modèles de ressources. Pour le développement du référentiel, nous proposons un processus de spécification et de génération basé sur les langages de modélisation décrits au préalable. Les moteurs permettent de retrouver pour ensuite instantier ces artefacts vers des environnements de développement spécifiques.Dans le cadre de l'assistance pour le développement des applications S&D pour les RCES, nous avons implémenté une suite d'outils, basés sur Eclipse EMF/QVTO, pour supporter la spécification de ces artefacts et l'analyse des applications S&D autour d'un référentiel. Afin de faciliter l'utilisation de l'approche proposée, nous préconisons un ensemble de méthodes pour favoriser l'utilisation de cette suite d'outils tout au long du processus de développement. En outre, nous avons abordé la construction par génération automatique de référentiels orientés modèles, basée sur Eclipse EMF/QVTO et la plateforme Eclispe CDO, accompagné d'un ensemble d'outils pour le peuplement, l'accès et la gestion de ce référentiel. Les problèmes étudiés dans ce travail ont été identifiés dans le contexte du projet européen FP7 TERESA. Les solutions proposées ont ainsi été démontrées et évaluées dans le cadre de ce projet à travers un cas d'étude d'une application de contrôle, exhibant des exigences de fiabilité et de sécurité, pour les systèmes ferroviaires. / Non-functional requirements such as Security and Dependability (S&D) become more and more important as well as more and more difficult to achieve, particularly in embedded systems development. Such systems come with a large number of common characteristics, including real-time and temperature constraints, security and dependability as well as efficiency requirements. In particular, the development of Resource Constrained Embedded Systems (RCES) has to address constraints regarding memory, computational processing power and/or energy consumption. In this work, we propose a modeling environment which associates model-driven paradigm and a model-based repository, to support the design and the packaging of S&D patterns, resource models and their property models. The approach is based on a set of modeling languages coupled with a model-repository, search and instantiation engines towards specific development environments. These modeling languages allow to specify patterns, resources and a set of property models. These property models will allow to govern the use of patterns and their analysis for reuse. In addition, we propose a specification and generation process of repositories. As part of the assistance for the development of S&D applications, we have implemented a suite of tool-chain based on the Eclipse platform to support the different activities around the repository, including the analysis activities. The proposed solutions were evaluated in the TERESA project through a case study from the railway domain.

Page generated in 0.0261 seconds