• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 24
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 92
  • 40
  • 36
  • 35
  • 34
  • 29
  • 25
  • 23
  • 22
  • 20
  • 19
  • 19
  • 18
  • 15
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Le Développement Agile de Services de Télécommunication Intégrés via des techniques d'ingénierie des modèles.

Belaunde, Mariano 20 January 2011 (has links) (PDF)
Pour devenir ou rester compétitif, un opérateur télécom doit constamment enrichir ou adapter son offre de services. Cette recherche permanente d'innovation implique de rendre agiles les processus de création de service. Par agilité nous entendons non seulement la capacité à mettre rapidement sur le marché de nouvelles idées de service mais également de s'assurer de leur évolution dans un environnement technologique changeant. Dans ce mémoire de thèse nous défendons l'idée qu'une utilisation pragmatique et combinée des principes du SOA avec les technologies d'ingénierie des modèles peut être un facteur clef pour l'optimisation du processus de création de services et pour répondre aux exigences de l'agilité. L'approche que nous recommandons dans le cas des services de télécommunications que nous avons étudié (les services composites intégrés et les services vocaux) c'est d'abord d'utiliser des langages dédiés (DSL) graphiques et/ou textuels pour la spécification de haut niveau des services, ensuite d'exploiter ces spécifications dans des environnements de création et d'exécution (frameworks) orientés modèles supportant nativement le DSL, afin de permettre le test et la simulation au plus tôt des fonctionnalités du service via des itérations rapides. Enfin une automatisation importante du déploiement vers les plates-formes de production (serveurs d'application) et les terminaux mobiles (code client) via le développement de transformateurs dédiés. Le travail présenté dans cette thèse est validé par plusieurs expérimentations et démonstrations portant sur des services vocaux et des services de télécommunication intégrés composites (exploitant des ressources télécom et des facilités issues de l'industrie informatique).
32

Oracles et qualification du test de transformations de modèles

Mottu, Jean-Marie 26 November 2008 (has links) (PDF)
Dans l'Ingénierie Dirigée par les Modèles, les modèles sont des éléments productifs pour le développement logiciel. Ils sont exploités par les transformations de modèles qui automatisent les étapes du développement. Dans nos travaux de thèse, nous contribuons au test de transformations de modèles en étudiant cette problématique et en proposant des techniques de test adaptées aux caractéristiques et à l'emploi des transformations. Nous adaptons l'analyse de mutation pour qualifier les modèles de test selon leur pouvoir de détection d'erreurs propres aux transformations. Nous proposons des fonctions d'oracles et évaluons leur adéquation avec la complexité et la réutilisation d'une transformation. Enfin, nous exploitons nos travaux dans l'étude d'une méthode de développement de composants de confiance de transformation et nous proposons des outils permettant la mise en oeuvre et l'expérimentation de nos travaux et d'autres recherches sur le test de transformations de modèles.
33

Méthodes et outils pour la conception de systèmes logiciels auto-adaptatifs

Chauvel, Franck 19 September 2008 (has links) (PDF)
Because of the increasing need of mobiles devices, most of software systems need to take into account a highly dynamic environment including hardware and software resources. This need for self-adaptation arises in both large-scale systems such as peer-to-peer systems and small-scale systems such as embedded systems. Those systems, so called ``self-adaptive systems'', have to observe the changes which occur in their environment in order to maximize the quality of the services they provide. ``Observation, Decision, Action'' have thus become the three basic capabilities of self-adaptive systems. They observe the environment in order to decide on what and when the system's architecture must be modified. The design and the development of such systems is a crossroad between three research fields in Computer Science: Software Engineering, Artificial Intelligence, and Distributed Systems. First, Software Engineering and especially Dynamic Architectures enable the definition of software systems as assemblies of well-defined software components. Then, Artificial Intelligence enables the automation of the decision process. Finally, the Distributed Systems and specially Context-Aware Systems focus on the collection and the aggregation of environmental information. However, the design and the development of self-adaptive systems are still hand-written and error prone tasks because of a lack of devoted tools and methodologies. Although most recent middleware platforms enable the dynamic updating of component-based systems, the underlying adaptation mechanisms are still too technical to fit the abstraction level needed by the system architect. Most platforms keep providing API or, at best, some low-level and platform dependant scripts. Good practices in software engineering (such as, design methods, validation tools, etc) are thus not applied to the self-adaptation concerns. The contribution of this thesis is to help the system architect by providing the tools and the methods he needs to describe self-adaptation concerns at the appropriate abstraction level. Self-adaptation behaviours are described as rules expressed in a pseudo natural language which avoid the quantification of environment properties. The system architect can define his own terminologies to portray the environment. The semantics of those rules are based on fuzzy logic and enable a direct interpretation and, therefore, the simulation, at design-time, of self-adaptive systems. Such a simulation at design time is a first validation which reduces the risk of conflicts between the architectural choices and the adaptation requirements. Such conflicts lead to expensive roll-backs in the design process. The TanGraM tool supports the definition of self-adaptive architectures, including the structure, the behaviour, and the manipulated data. It supports as well the integration and the simulation of qualitative adaptation policies at design time. An extension of the Fractal platform has also been released and enables the direct reuse of those adaptation policies in a real Fractal system. We use those tools to design and deploy a self-adaptive HTTP server which has been used as a case study. It adapts its architecture according to the average load and density of HTTP requests. However, the description of qualitative adaptation policies is a first step towards a reliable design process for self-adaptive systems.
34

Un modèle pour l'ingénierie des systèmes interactifs dédiés à la manipulation de données

Blouin, Arnaud 30 November 2009 (has links) (PDF)
L'ingénierie du logiciel s'intéresse, entre autres, à trois aspects du développement des systèmes interactifs (SI) : la liaison entre les données sources et leurs présentations cibles ; la conception de la facette interactive ; l'exécution d'un même SI sur différentes plates-formes d'exécution. Les différentes évolutions du web et des données, la diversification des plates-formes d'exécution, ainsi que les techniques d'interactions modernes amènent à revoir la manière de traiter ces trois aspects. L'ingénierie des modèles (IDM) apporte une solution à l'exécution multi-plateforme en échelonnant la conception d'un SI sur différents niveaux d'abstraction. C'est sur ce principe que nos travaux se fondent. Nous avons tout d'abord défini un langage de correspondance, appelé Malan, dédié au lien entre les données sources d'un SI et leurs présentations cibles. Malan a pour avantages de : s'abstraire des plate-forme de données et d'IHM utilisées ; pouvoir réaliser des calculs complexes pour la disposition des éléments d'une présentation ; avoir été développé spécialement pour la liaison données-présentations, contrairement aux langages de transformations classiques. Nous avons ensuite conçu un modèle conceptuel d'interaction, appelé Malai, réunissant les caractéristiques majeures des principaux modèles d'interactions. Malai vise à : faciliter la conception du feed-back intérimaire des instruments ; réutiliser des interactions déjà définies ; considérer une action comme un objet à part entière ; décrire des interactions classiques et modernes ; générer du code pour une plate-forme d'exécution donnée.
35

Construction de systèmes par application de modèles paramétrés

Muller, Alexis 26 June 2006 (has links) (PDF)
L'ingénierie logicielle vise à se rationaliser toujours plus et commence à atteindre des niveaux de productivité proches d'autres domaines, mécanique ou électronique par exemple. Notre approche vise la spécification de composants métiers réutilisables et composables dans des contextes (domaines) applicatifs différents. Nous proposons d'en faire des composants de modèles génériques paramétrés eux-mêmes par des ”modèles requis” et fournissant un modèle enrichi. On dépasse ainsi la notion de contrat d'assemblage de composants souvent réduite à une interface de services unitaires. La conception d'un système revient alors à assembler de tels composants par les modèles. Nous proposons pour cela un opérateur d'application de modèles paramétrés. Celui-ci permet de spécifier des assemblages à partir d'un ensemble de composants de modèles. Nous étudions des propriétés d'ordre permettant de garantir la cohérence des alternatives de composition. Ceci conduit à des règles et contraintes au niveau des modèles, afin d'assurer la cohérence de systèmes ainsi construits. Nous formulons une méta-modélisation de l'approche par extension du méta-modèle UML2 et un ensemble de contraintes. Nous proposons également différentes stratégies de mise en œuvre, sous la forme de patron de conception, permettant de préserver, jusqu'à l'exploitation, les qualités de structuration et de généricité obtenues au niveau modèle. Des projections ont été expérimentées sur différentes plates-formes à composants.
36

Modélisation d'événements composites répétitifs, propriétés et relations temporelles

Faucher, Cyril, Faucher, Cyril 13 December 2012 (has links) (PDF)
La modélisation des événements et de leurs propriétés temporelles concerne des types variés d'utilisateurs et de communautés scientifiques. Nous nous plaçons dans le cadre du paradigme Objet et construisons un méta modèle opérationnel servant de représentation pivot, indépendante du métier pour représenter des événements composites avec leurs propriétés structurelles et temporelles. Le méta modèle PTOM (Periodic Temporal Occurrence Metamodel) prend en compte l'expression de contraintes structurelles sur les événements, ou géométriques, topologiques et relationnelles sur la temporalité de leurs occurrences. Il privilégie la représentation en intension (vs extension) des occurrences d'événements périodiques. PTOM étend la norme ISO 19108 et s'adapte aux standards EventsML G2 et iCalendar. Sur un plan théorique, nous étendons les algèbres d'intervalles d'ALLEN et de LIGOZAT, et proposons un système de relations topologiques entre intervalles non convexes (ALLEN*) dont nous étudions les propriétés. Ces résultats sont intégrés dans PTOM. La première application de PTOM est la spécification de la sémantique du calendrier grégorien. Les éléments calendaires sont réintroduits en tant qu'événements périodiques dans PTOM, ce qui renforce son pouvoir expressif. PTOM a été mis en œuvre lors d'un projet ANR sur des corpus d'événements journalistiques (agences de presse) concernant les loisirs et la culture. L'Ingénierie Dirigée par les Modèles a été utilisée pour la conception et l'exploitation de PTOM. Cela permet de gérer la complexité, d'assurer la maintenabilité et la cohérence de l'ensemble et enfin, de générer automatiquement des interfaces pour les pourvoyeurs ou utilisateurs de données.
37

Processus IDM pour l’intégration des patrons de sécurité dans une application à base de composants / An MDE process for security pattern integration in component based application

Bouaziz, Rahma 06 December 2013 (has links)
La sécurité est devenue un enjeu important dans le développement des systèmes logiciels actuels. La majorité des concepteurs de ces systèmes manquent d’expertise dans le domaine de la sécurité. Il s’avère donc important de les guider tout au long des différentes phases de développement logiciel dans le but de produire des systèmes plus sécurisés. Cela permettra de réduire le temps ainsi que les coûts de développement. Pour atteindre cet objectif, nous proposons d’appliquer l’expertise en matière de sécurité sous forme de patrons de sécurité lors de la phase de conception de logiciels. Un patron de sécurité intègre des solutions éprouvées et génériques proposées par des experts en sécurité. Cependant, les patrons de sécurité sont souvent négligés au niveau de la conception et ne constituent pas une solution intuitive qui peut être utilisée par les concepteurs de logiciels. Cela peut être le résultat de l’inadaptation de ces patrons au contexte des systèmes, la non-expertise des concepteurs dans le domaine de la sécurité ou encore l’absence d’un processus d’intégration de ces patrons dans les modèles à un haut niveau d’abstraction.Afin de permettre aux concepteurs d’utiliser les solutions proposées par des patrons de sécurité, cette thèse propose une approche d’ingénierie dirigée par les modèles pour sécuriser des applications via l’intégration de patrons de sécurité. Nous avons choisi comme contexte d’application de notre approche, les applications à base de composants qui visent à faciliter le développement d’applications à partir de l’assemblage de briques logicielles préfabriquées appelées composants. Le processus proposé assure la séparation entre l’expertise du domaine d’application et l’expertise de sécurité, toutes les deux étant nécessaires pour construire une application sécurisée. La méthodologie proposée assure une intégration semi-automatique des patrons de sécurité dans le modèle initial. Cette intégration est réalisée tout d’abord lors de la modélisation de l’application à travers, dans un premier temps, l’élaboration de profils étendant les concepts du domaine avec les concepts de sécurité. Dans un second temps, l’intégration se fait à travers la définition de règles, qui une fois appliquées, génèrent une application sécurisée. Finalement, cette intégration est assurée aussi au niveau de la génération du code fonctionnel de l’application en intégrant le code non-fonctionnel relatif à la sécurité à travers l’utilisation des aspects. L’utilisation de l’approche orientée aspect garantit que l’application des patrons de sécurité est indépendante de toute application particulière. Le processus proposé est décrit avec le standard SPEM.Ce travail a été concrétisé par un outil nommé SCRI-TOOL pour SeCurity patteRn Integration Tool. Cet outil permet aux développeurs non experts en sécurité d’intégrer les différentes propriétés de sécurité (intégrées dans les patrons) dans une application à base de composants. Afin d’illustrer l’utilisation de SCRI-TOOL, nous proposons une étude de cas portant sur le domaine des systèmes de soins distribués. Le choix d’une telle étude de cas s’explique par l’importance des exigences en termes de sécurité requises pour le bon fonctionnement d’une telle application. En effet, vue le grand nombre d’acteurs pouvant interagir, la sécurité est une exigence critique dans de tels systèmes. Cette étude nous a permis de mettre en évidence l’importance de la gestion de la sécurité à un haut niveau d’abstraction et la façon d’appliquer la méthodologie proposée sur un cas réel. / Security has become an important challenge in current software and system development. Most of designers are experts in software development but not experts in security. It is important to guide them to apply security mechanisms in the early phases of software development to reduce time and cost of development. To reach this objective, we propose to apply security expertise as security patterns at software design phase. A security pattern is a well-understood solution to a recurring information security problem. So, security patterns encapsulate the knowledge accumulated by security experts to secure a software system. Although well documented, patterns are often neglected at the design level and do not constitute an intuitive solution that can be used by software designers. This can be the result of the maladjustment of those patterns to systems context, the inexpertness of designers with security solutions and the need of integration process to let designers apply those pattern ? solutions in practical situations and to work with patterns at higher levels of abstraction. To enable designers to use solutions proposed by security patterns, this thesis proposes a model driven engineering approach to secure applications through the integration of security patterns. Component-based approach is a powerful means to develop and reuse complex systems. In this thesis, we take component based software systems as an application domain for our approach to facilitate the development of applications by assembling prefabricated software building blocks called components. The proposed process provides separation between domain expertise and application security expertise, both of which are needed to build a secure application. Our main goal is to provide a semi-automatic integrating of security patterns into component-based models, and producing an executable secure code. This integration is performed through a set of transformation rules. The result of this integration is a new model supporting security concepts. It is then automatically translated into aspect-oriented code related to security. These aspects are then woven in a modular way within the functional application code to enforce specified security properties. The use of aspect technology in the implementation phase guarantees that the application of security patterns is independent from any particular implementation. In order to provide a clear comprehension of the SCRIP process, we have described it using the standard SPEM . This work is implemented in a software tool called SCRI-TOOL (SeCurity patteRn Integration Tool). This tool allows not security experts developers to integrate different security properties throughout the development cycle of an component based application. To illustrate the use of SCRI-TOOL, we propose a case study regarding electronic healthcare systems. The choice of such a case study is motivated by the great attention archived for such systems from academia and industry and by the importance of security in such systems. Indeed, because of the large number of actors that can interact in such systems, security is a critical requirement. This case study will also allow us to illustrate the proposed methodology to highlight the importance of security management at a high level of abstraction. As results of the application of this process, we obtain a health care application completely secure and meeting the requirements of medical context.
38

Generalização do modelo computacional de tráfego veicular IDM (Intelligent Driver Model)

SANTOS, Luiz José Rodrigues dos 28 February 2008 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-03T14:07:18Z No. of bitstreams: 1 Luiz Jose Rodrigues dos Santos.pdf: 1081987 bytes, checksum: 435fc2cb438881b9c3905e16b4b41ed0 (MD5) / Made available in DSpace on 2016-08-03T14:07:42Z (GMT). No. of bitstreams: 1 Luiz Jose Rodrigues dos Santos.pdf: 1081987 bytes, checksum: 435fc2cb438881b9c3905e16b4b41ed0 (MD5) Previous issue date: 2008-02-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Urban traffic represents a phenomenon of great socioeconomic importance,whose modeling from the point of view of prevision on the basis of initial conditions, still represents a challenge for modern science. Computational methods (computer simulations) represent a powerful tool for modeling and prediction of a number of effects, where systems of coupled differential equations may be used to simulate different phenomena observed in traffic systems. In particular, a quantity of high importance for maintenance and planning of road systems is the vehicular capacity which can be supported without traffic jams, whose description and prevision is still not well understood. In this work, a generalization of an existing microscopic traffic model, the Intelligent Driver Model (IDM), is proposed by implementing a distribution of desired velocities, where it is shown that vehicle capacity of multiple lane roads can be measured in a rather realistic manner, as a function of model parameters,which may be adjusted to real observations. / O tráfego urbano representa um fenômeno de grande importância sócio econômica, cuja modelagem de ponto de vista de previsão a partir de condições iniciais, ainda representa um desafio para a ciência moderna. Métodos computacionais (simulação computacional) representam uma ferramenta poderosa para modelagem e previsão de diversos efeitos, nos quais sistemas de equações diferenciais acopladas podem simular diversos fenômenos observados no sistema de tráfego. Em particular, uma grandeza de alto impacto para o gerenciamento e planejamento de rodovias é a capacidade veicular que elas podem suportar sem que aconteça o efeito de congestionamento, cuja descrição e previsão ainda não estão bem entendida. Neste trabalho, propõe-se uma generalização de um modelo microscópico computacional existente, o Intelligent Driver Model (IDM), aplicando uma distribuição de velocidades desejadas, onde torna-se possível medir de forma bastante realista a capacidade veicular de rodovias com múltiplas faixas, em função de parâmetros de modelo, que podem ser ajustados às observações reais.
39

Automação do processo de corte e dobra de armaduras para estruturas de concreto integrada ao processo BIM. / Automation of the cutting and bending process of reinforcing bars for concrete structures integrated to the BIM process.

Alex Roda Maciel 29 May 2018 (has links)
A consolidação do processo de Modelagem da Informação da Construção (BIM) tende a contribuir para o aumento da eficiência da indústria da construção civil, fomentando novos fluxos de trabalho e permitindo o reuso de informações ao longo do ciclo de vida dos empreendimentos. Apesar do potencial de integração e automação associados ao processo BIM, o uso das informações digitais contidas no modelo para facilitar a pré-fabricação de produtos para a construção mostra-se incipiente. Nota-se que emprego da fabricação digital encontra obstáculos sobretudo em setores que atuam de modo segregado, e que por isto mesmo demandam sinergia, bem como o uso de normas e padrões que possibilitem a interoperabilidade e reuso das informações geradas nas fases anteriores a fabricação. Neste contexto, foi feita uma análise do uso da fabricação digital aplicada ao processamento industrial de aço para estruturas de concreto armado (corte e dobra). Embora os fabricantes que atuam neste setor possuam suporte a interface digital com os demais agentes, a configuração de sua cadeia de produtiva, bem como os processos tradicionalmente adotados, promovem a ocorrência de ilhas de automação ligadas por transferência manual e reentrada de dados. Como forma de reduzir a intervenção manual para a transcrição dos dados, propõe-se o uso do esquema de dados Industry Foundation Classes (IFC) na fabricação digital de componentes de armadura. Este trabalho tem por objetivo apresentar uma solução técnica, baseada no esquema IFC, aos requisitos de troca de informação necessários no fluxo de trabalho proposto. Com base nos requisitos de troca identificados por meio do método Information Delivery Manual (IDM), apresenta-se como essas informações podem ser mapeadas e qual o subconjunto de dados necessários à fabricação digital baseada no esquema IFC4. Por fim, apresenta-se a documentação e validação da solução técnica desenvolvida de acordo com o método Model View Definition (MVD) e com o uso da ferramenta ifcDoc. Após a realização de testes com base no esquema IFC4 foi constatada a viabilidade para recuperação dos dados contidos no modelo. Entretanto também foi identificada a carência de ferramentas comerciais que suportem tal funcionalidade. / The consolidation of Building Information Modeling (BIM) possibly contributes to the increase of the efficiency in the construction industry, by fostering new workflows and data reuse throughout projects life cycle. Despite the potential for integration and automation associated with BIM, the use of the digital information contained in the model to facilitate prefabrication of construction products is still incipient. The digital fabrication finds obstacles in sectors that act in a segregated manner, henceforth needs standard adoption to allow reuse of the information generated in the phases prior to production. In this context, it was analyzed the use of digital fabrication applied to the industrial processing of reinforcement bars for concrete structures (rebar cutting and bending). Although the fabricators who act in this sector already have support to the digital interface with other agents, the supply chain configuration adopted by the Brazilian market, as well as the traditional paper-based processes employed, promote the occurrence of \"islands of automation\" connected by manual data transfer. In order to reduce the need for manual intervention for data re-interpretation and re-entry, it is proposed to use the Industry Foundation Classes (IFC) data schema to promote the digital interface between the reinforcing bar supply chain stakeholder\'s. This work aims to present an IFC-based technical solution to the fabricator\'s information requirements by means of the Information Delivery Manual (IDM) and Model View Definition (MVD) standards. On the basis of the exchange requirements specified by rebar fabricator through IDM method, it is presented the IFC schema subset entailed and how this information can be mapped in order to allow the use of IFC on the cut & bend rebar supply chain. Finally, the technical solution was documented in an MVD and validate with the ifcDoc tool. After conducting validation tests based on the IFC4 schema, it was verified the viability to recover the data contained in the model. However, the lack of commercial tools that support such functionality has also been identified.
40

MuVArch : une approche de méta-modélisation pour la représentation multi-vues des architectures hétérogènes embarqués / MuVARCH : a (meta) modeling approach for multi-view representation of heterogeneous embedded architectures

Khecharem, Amani 03 May 2016 (has links)
Nous avons défini et réalisé avec l'approche MuVarch un environnement de (méta-)modélisation orientée vers la représentation multi-vues des architectures embarquées hétérogènes (de type "smartphone" par exemple). En plus de la vue architecturale de base, support de toutes les autres, on considère les vues "performance", "consommation", "température", ainsi que la vue fonctionnelle "applicative" pour fournir des scénarios comportementaux de fonctionnement de la plate-forme. Il était important de savoir décrire en MuVarch comment les vues se raccrochent à la vue de base architecturale, et comment elle se relient également entre elles (relation entre consommation énergétique et température par exemple). L'objectif ultime est d'utiliser ce framework multi-vues et les différentes informations apportées par chacune, pour savoir supporter des politiques alternatives de mapping/allocation des tâches applicatives sur les ressources de l'architecture (la définition de ces politiques restant extérieure à nos travaux de thèse). La représentation adéquate de cette relation d'allocation forme donc un des aspects importants de nos travaux. / We introduced and realized with our MuVarch approach an heterogeneous (meta)modeling environment for multi-view representation of heterogeneous embedded architectures (of "smartphone" type for instance). In addition to the backbone architectural view supporting others, we considered performance, power, and thermal view. We introduced also the functional applicative view, to provide typical use cases for the architecture. It was important to describe in MuVarch our various views would connect to the basic one, and how they would mutually relate together as well (how temperature depends on power consumption for instance). The global objective was to let the framework consider alternative mapping/allocation strategies for applicative tasks on architectural resources (although the definition of such strategies themselves was out of the scope). The appropriate form of such an allocation relation, which may be quite involved, was thus an important aspect of this thesis.

Page generated in 0.07 seconds