• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 277
  • 189
  • 50
  • 48
  • 29
  • 24
  • 19
  • 16
  • 13
  • 11
  • 10
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 779
  • 197
  • 131
  • 118
  • 107
  • 93
  • 91
  • 88
  • 82
  • 81
  • 79
  • 77
  • 76
  • 70
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

Designing scientific workflow following a structure and provenance-aware strategy / Conception de workflows scientifiques fondée sur la structure et la provenance

Chen, Jiuqiang 11 October 2013 (has links)
Les expériences bioinformatiques sont généralement effectuées à l'aide de workflows scientifiques dans lesquels les tâches sont enchaînées les unes aux autres pour former des structures de graphes très complexes et imbriquées. Les systèmes de workflows scientifiques ont ensuite été développés pour guider les utilisateurs dans la conception et l'exécution de workflows. Un avantage de ces systèmes par rapport aux approches traditionnelles est leur capacité à mémoriser automatiquement la provenance (ou lignage) des produits de données intermédiaires et finaux générés au cours de l'exécution du workflow. La provenance d'un produit de données contient des informations sur la façon dont le produit est dérivé, et est cruciale pour permettre aux scientifiques de comprendre, reproduire, et vérifier les résultats scientifiques facilement. Pour plusieurs raisons, la complexité du workflow et des structures d'exécution du workflow est en augmentation au fil du temps, ce qui a un impact évident sur la réutilisation des workflows scientifiques.L'objectif global de cette thèse est d'améliorer la réutilisation des workflows en fournissant des stratégies visant à réduire la complexité des structures de workflow tout en préservant la provenance. Deux stratégies sont introduites. Tout d'abord, nous proposons une approche de réécriture de la structure du graphe de n'importe quel workflow scientifique (classiquement représentée comme un graphe acyclique orienté (DAG)) dans une structure plus simple, à savoir une structure série-parallèle (SP) tout en préservant la provenance. Les SP-graphes sont simples et bien structurés, ce qui permet de mieux distinguer les principales étapes du workflow. En outre, d'un point de vue plus formel, on peut utiliser des algorithmes polynomiaux pour effectuer des opérations complexes fondées sur les graphiques (par exemple, la comparaison de workflows, ce qui est directement lié au problème d’homomorphisme de sous-graphes) lorsque les workflows ont des SP-structures alors que ces opérations sont reliées à des problèmes NP-hard pour des graphes qui sont des DAG sans aucune restriction sur leur structure. Nous avons introduit la notion de préservation de la provenance, conçu l’algorithme de réécriture SPFlow et réalisé l’outil associé.Deuxièmement, nous proposons une méthodologie avec une technique capable de réduire la redondance présente dans les workflow (en supprimant les occurrences inutiles de tâches). Plus précisément, nous détectons des « anti-modèles », un terme largement utilisé dans le domaine de la conception de programme, pour indiquer l'utilisation de formes idiomatiques qui mènent à une conception trop compliquée, et qui doit donc être évitée. Nous avons ainsi conçu l'algorithme DistillFlow qui est capable de transformer un workflow donné en un workflow sémantiquement équivalent «distillé», c’est-à-dire, qui est libre ou partiellement libre des anti-modèles et possède une structure plus concise et plus simple. Les deux principales approches de cette thèse (à savoir, SPFlow et DistillFlow) sont basées sur un modèle de provenance que nous avons introduit pour représenter la structure de la provenance des exécutions du workflowl. La notion de «provenance-équivalence» qui détermine si deux workflows ont la même signification est également au centre de notre travail. Nos solutions ont été testées systématiquement sur de grandes collections de workflows réels, en particulier avec le système Taverna. Nos outils sont disponibles à l'adresse: https://www.lri.fr/~chenj/. / Bioinformatics experiments are usually performed using scientific workflows in which tasks are chained together forming very intricate and nested graph structures. Scientific workflow systems have then been developed to guide users in the design and execution of workflows. An advantage of these systems over traditional approaches is their ability to automatically record the provenance (or lineage) of intermediate and final data products generated during workflow execution. The provenance of a data product contains information about how the product was derived, and it is crucial for enabling scientists to easily understand, reproduce, and verify scientific results. For several reasons, the complexity of workflow and workflow execution structures is increasing over time, which has a clear impact on scientific workflows reuse.The global aim of this thesis is to enhance workflow reuse by providing strategies to reduce the complexity of workflow structures while preserving provenance. Two strategies are introduced.First, we propose an approach to rewrite the graph structure of any scientific workflow (classically represented as a directed acyclic graph (DAG)) into a simpler structure, namely, a series-parallel (SP) structure while preserving provenance. SP-graphs are simple and layered, making the main phases of workflow easier to distinguish. Additionally, from a more formal point of view, polynomial-time algorithms for performing complex graph-based operations (e.g., comparing workflows, which is directly related to the problem of subgraph homomorphism) can be designed when workflows have SP-structures while such operations are related to an NP-hard problem for DAG structures without any restriction on their structures. The SPFlow rewriting and provenance-preserving algorithm and its associated tool are thus introduced.Second, we provide a methodology together with a technique able to reduce the redundancy present in workflows (by removing unnecessary occurrences of tasks). More precisely, we detect "anti-patterns", a term broadly used in program design to indicate the use of idiomatic forms that lead to over-complicated design, and which should therefore be avoided. We thus provide the DistillFlow algorithm able to transform a workflow into a distilled semantically-equivalent workflow, which is free or partly free of anti-patterns and has a more concise and simpler structure.The two main approaches of this thesis (namely, SPFlow and DistillFlow) are based on a provenance model that we have introduced to represent the provenance structure of the workflow executions. The notion of provenance-equivalence which determines whether two workflows have the same meaning is also at the center of our work. Our solutions have been systematically tested on large collections of real workflows, especially from the Taverna system. Our approaches are available for use at https://www.lri.fr/~chenj/.
642

A interpretação do trabalho em enfermagem no capitalismo financeirizado: um estudo na perspectiva teórica do fluxo tensionado / The nursing work interpretation in financial capitalism: a study in the theoretical perspective of \"flux tendu\"

Helton Saragor de Souza 09 January 2015 (has links)
O objeto deste estudo é o trabalho das categorias da enfermagem sob a organização pós-fordista no capitalismo financeirizado. Associamos a mundialização do capital e a predominância financeira à expansão dos serviços de saúde no Brasil. Nesse sentido, discutimos as características do trabalho coletivo em saúde e das categorias de enfermagem. Abordamos a relação geral e particular do trabalho em saúde e problematizamos a leitura do trabalho em enfermagem nos moldes tayloristas. Os estudos de caso concentram-se em três hospitais localizados Região Metropolitana de São Paulo com gestões distintas: administração pública; administração terceirizada para Organização Social de Saúde (OSS); e administração privada. Nessas unidades, através de etnografia e da realização de entrevistas com os profissionais, caracterizamos o tipo de regime de trabalho pela abordagem do tipo de vínculo empregatício; da remuneração; sobre transferências, promoções e demissões; das características do absenteísmo; da relação com a chefia e da ação coletiva. Estritamente, sobre o processo de trabalho, abordamos o predomínio relacional do ato do cuidado, a influência da tecnologia, os erros procedimentais e a saúde dos trabalhadores. Em nossa visão, a conversão dos serviços de saúde em áreas de valorização do capital e o subfinanciamento do Estado configuram a relação desproporcional entre a demanda de usuários e a quantidade incipiente de trabalhadores que seria o modus operandis do trabalho em enfermagem. Desse modo, o processo de trabalho fundamenta-se no fluxo tensionado, gerando sobrecarga e intensificação, consequentemente, a incidência de erros, o desgaste físico-psicológico e a frustração para os trabalhadores. / The object of this study is the work of the nursing practice\'s categories under the post-fordism organization into the financial-funding capitalism. We associated the globalization of capital and the financial dominance to the expansion of the field of health services in Brazil. Under this view, we discuss the characteristics of team work and the categories in nursing practice, the general and private relationship into the field and problematize the reading of the nursing practice under the light of the taylorism. The case studies concentrate in three hospitals of different administrative methods: public; through Social Health Organization (OSS); and private administration in the metropolitan region of Sao Paulo. In these units, through ethnography and interviews with professionals, we characterize the type of work regimen by analyzing the employment network; the remuneration; the transfers, promotions and dismissals; the characteristics of the absentees; the relation with the superiors and the team action. Strictly, about our process of work, we address the predominance of the act of caring, the influence of the technology, the procedure errors and the healthcare of the workers. In our point of view, the conversion of the health services into fields of capital appreciation and the sub-financing of the State configure an imbalanced relationship between the demand of users and the incipient amount of workers that would be the modus operandis of the nursing practice. Thus, the process of work lays the foundations of the tensioned flux flux tendu of the reactivity to the context, generating overcharge and intensification, therefore the incidence of mistakes, physical-psychological distress and frustration to the workers.
643

Um estudo da aplicação de técnicas de inteligência computacional e de aprendizado em máquina de mineração de processos de negócio / A study of the application of computational intelligence and machine learning techniques in business process mining

Ana Rocío Cárdenas Maita 04 December 2015 (has links)
Mineração de processos é uma área de pesquisa relativamente recente que se situa entre mineração de dados e aprendizado de máquina, de um lado, e modelagem e análise de processos de negócio, de outro lado. Mineração de processos visa descobrir, monitorar e aprimorar processos de negócio reais por meio da extração de conhecimento a partir de logs de eventos disponíveis em sistemas de informação orientados a processos. O principal objetivo deste trabalho foi avaliar o contexto de aplicação de técnicas provenientes das áreas de inteligência computacional e de aprendizado de máquina, incluindo redes neurais artificiais. Para fins de simplificação, denominadas no restante deste texto apenas como ``redes neurais\'\'. e máquinas de vetores de suporte, no contexto de mineração de processos. Considerando que essas técnicas são, atualmente, as mais aplicadas em tarefas de mineração de dados, seria esperado que elas também estivessem sendo majoritariamente aplicadas em mineração de processos, o que não tinha sido demonstrado na literatura recente e foi confirmado por este trabalho. Buscou-se compreender o amplo cenário envolvido na área de mineração de processos, incluindo as principais caraterísticas que têm sido encontradas ao longo dos últimos dez anos em termos de: tipos de mineração de processos, tarefas de mineração de dados usadas, e técnicas usadas para resolver tais tarefas. O principal enfoque do trabalho foi identificar se as técnicas de inteligência computacional e de aprendizado de máquina realmente não estavam sendo amplamente usadas em mineração de processos, ao mesmo tempo que se buscou identificar os principais motivos para esse fenômeno. Isso foi realizado por meio de um estudo geral da área, que seguiu rigor científico e sistemático, seguido pela validação das lições aprendidas por meio de um exemplo de aplicação. Este estudo considera vários enfoques para delimitar a área: por um lado, as abordagens, técnicas, tarefas de mineração e ferramentas comumente mais usadas; e, por outro lado, veículos de publicação, universidades e pesquisadores interessados no desenvolvimento da área. Os resultados apresentam que 81% das publicações atuais seguem as abordagens tradicionais em mineração de dados. O tipo de mineração de processos com mais estudo é Descoberta 71% dos estudos primários. Os resultados deste trabalho são valiosos para profissionais e pesquisadores envolvidos no tema, e representam um grande aporte para a área / Mining process is a relatively new research area that lies between data mining and machine learning, on one hand, and business process modeling and analysis, on the other hand. Mining process aims at discovering, monitoring and improving business processes by extracting real knowledge from event logs available in process-oriented information systems. The main objective of this master\'s project was to assess the application of computational intelligence and machine learning techniques, including, for example, neural networks and support vector machines, in process mining. Since these techniques are currently widely applied in data mining tasks, it would be expected that they were also widely applied to the process mining context, which has been not evidenced in recent literature and confirmed by this work. We sought to understand the broad scenario involved in the process mining area, including the main features that have been found over the last ten years in terms of: types of process mining, data mining tasks used, and techniques applied to solving such tasks. The main focus of the study was to identify whether the computational intelligence and machine learning techniques were indeed not being widely used in process mining whereas we sought to identify the main reasons for this phenomenon. This was accomplished through a general study area, which followed scientific and systematic rigor, followed by validation of the lessons learned through an application example. This study considers various approaches to delimit the area: on the one hand, approaches, techniques, mining tasks and more commonly used tools; and, on the other hand, the publication vehicles, universities and researchers interested in the development area. The results show that 81% of current publications follow traditional approaches to data mining. The type of mining processes more study is Discovery 71% of the primary studies. These results are valuable for practitioners and researchers involved in the issue, and represent a major contribution to the area
644

Conception d'un système d'aide à la chirurgie sur base de la modélisation d'opérations, d'un recalage temporel des données et d'un recalage sémantique de métadonnées

Malarme, Pierre 10 October 2011 (has links)
Le but principal de cette thèse de doctorat est de concevoir un système de chirurgie assistée par la connaissance. Cette connaissance est extraite de l'information issue des données et du contexte capturés en salle d'opération. Ce contexte est défini à l'aide d'un modèle de processus opératoire (surgical workflow - SWf). L'assistance porte sur la capture des modèles, l'automatisation de tâches ou encore la gestion des erreurs et des imprévus.<p><p>The main goal of this PhD thesis is to design a computer assisted surgery system based on surgical workflow (SWf) modeling, and intra-operative data and metadata acquired during the operation. For the SWf modeling, workflow-mining techniques will be developed based on dynamic learning and incremental inference. An ontology will be used to describe the various steps of the surgery and their attributes. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
645

Um modelo de definição de processos para sistemas de workflow flexíveis

BEZERRA, Fábio de Lima January 2003 (has links)
Trabalho com suporte da CAPES. / This work presents a new model of process definition in workflow systems, the PDBC model. We also present a prototype of a workflow system whicli implements the PDBC model, the Tucupi server. The proposal of this new model is to allow flexibility in workflow systems. For this, we will use what we call partia! workflow, which is a partially deüned workflow whose complete definition is carried through during the execution of workflow. Partia! Workflow is deüned as a set of constraints and activities. Moreover, another way for a workflow system to get flexibility is through an exception handling mechanism. In this work we consider such mechanism through the use of overriden constraints, that is, constraints that can be violated in determined circumstances. For this we present the WRBAC, a model of access control for workflow systems, used to provide an adequate mechanism of violation of the overriden constraints used in the definition of a workflow. / Em domínios de aplicação como a área médica e engenharia de software os sistemas de workflow existentes são inadequados, pois a definição dos processos nesses sistemas é inflexível. No exemplo da área médica, ninguém sabe quais as ações devem ser tomadas durante a abordagem de um paciente, ou seja, ninguém conhece um processo de tratamento para paciente no instante em que ele é admitido no hospital. Portanto, uma nova forma de interação com os sistemas de workflow se faz necessário. Nesta nova forma de interação um usuário pergunta ao sistema o que deve ser feito para que uma atividade (atividade objetivo) seja executada. Por exemplo, para um médico realizar uma cirurgia em um paciente que procedimentos devem ser executados antes ou mesmo depois? Nesta nova abordagem, o sistema de workflow cumpre, além do papel de despachante de atividades aos usuários, como nos sistemas de workflow atuais, o papel de ajudante do usuário, pois indica ao usuário quais atividades executar antes e depois de executar uma atividade objetivo. Este trabalho apresenta um novo modelo de definição de processos em sistemas de workflow, o modelo PDBC. Apresentamos também um protótipo de um sistema de workflow que implementa o modelo PDBC, o servidor Tucupi. A proposta deste novo modelo é permitir que os sistemas de workflow manipulem workflows mais flexíveis. Para isso usaremos o que chamamos de workflow parcial, que é um workflow parcialmente definido cuja definição completa é realizada apenas durante a execução do workflow. O workflow parcial é definido como um conjunto de restrições e atividades. Outra maneira de se obter flexibilidade em sistemas de workflow é através de um mecanismo de tratamento de exceções adequado. Neste trabalho propomos um mecanismo de tratamento de exceções através do uso de restrições violáveis, ou seja, restrições que podem ser violadas em determinadas circunstâncias. Para isso apresentamos o WRBAC, um modelo de controle de acesso para sistemas de workflow, utilizado para provê um mecanismo adequado de sobrecarga das restrições utilizadas na definição de um processo.
646

Posouzení informačního systému firmy a návrh změn / Information System Assessment and Proposal for ICT Modification

Kašpar, Jan January 2016 (has links)
The Master‘s thesis deals with the design of information system of the company KLAS Nekoř a.s. Based on the analysis, I will present suggestions to improve information system of the company. Master‘s thesis assesses the current situation of the information system of the company and establishes requirements for the selection of the optimal solution. It also describes the steps for the implementation of a new information system in the company KLAS Nekoř a.s.
647

Internet das coisas: tecnologias habilitadoras e workflow. / Internet of things: enabling technologies and workflow.

Este, Willian Reginato 18 June 2019 (has links)
A Internet das coisas (IoT) é um paradigma consolidado por recentes avanços tecnológicos, que possibilita a identificação e medição de muitas atividades, agregando facilidade, rapidez e eficiência das mesmas, sejam elas realizadas por humanos ou máquinas de, praticamente, qualquer setor que se deseje. Contudo, um dos principais desafios para que soluções de IoT sejam desenvolvidas com sucesso consiste no processo de escolha e integração entre diversas tecnologias que, necessariamente, serão parte de tais soluções. Este estudo tem como objetivo identificar as tecnologias habilitadoras comuns de soluções de IoT por meio da análise qualitativa de diferentes propostas de arquiteturas, que serão as principais fontes para orientar o desenvolvimento de um workflow com macropassos. Delineou-se um conjunto de tarefas que visa auxiliar o processo de escolha de tecnologias para soluções de IoT, sendo apresentado, posteriormente, o uso do workflow aplicado a uma solução para automação, gestão e controle de estufas, através da monitoração de parâmetros vitais para este ambiente. O método utilizado consistiu na busca de fontes bibliográficas constituída por artigos, dissertações e teses via palavras chave, definindo, assim, as questões de pesquisa a que este trabalho busca endereçar. Foram encontrados como resultado 95 trabalhos entre artigos, dissertações e teses e, por critérios de inclusão e exclusão, 76 foram suprimidos, selecionando, assim, o total de 19 trabalhos ao final do processo. A conclusão é de que o workflow mostrou-se apto a apoiar na escolha inicial de tecnologias e desenvolvimento da solução em alto nível, porém apresentou-se insuficiente para detalhamento técnico minucioso da solução. / The Internet of Things (IoT) is a paradigm consolidated by recent technological advances, which enables the identification and measurement of many activities, aggregating their ease, speed and efficiency, whether performed by humans or machines from virtually any sector. However, one of the key challenges for successfully developing IoT solutions is the process of choosing and integrating various technologies that will necessarily be part of such solutions. This study aims to identify the common enabling technologies of IoT solutions through the qualitative analysis of different architecture proposals, which will be the main sources to guide the development of a workflow with macro steps. A set of tasks was designed to assist the process of choosing technologies for IoT solutions, and then the use of workflow applied to a solution for automation, management and control of greenhouses, through the monitoring of vital parameters for this environment. The method used consisted of searching bibliographic sources consisting of articles, dissertations and theses via keywords, thus defining the research questions to which this paper seeks to address. Ninety-five papers were found among articles, dissertations and theses and, by inclusion and exclusion criteria, 76 were deleted, thus selecting a total of 19 papers at the end of the process. The conclusion is that the workflow was able to support the initial choice of technologies and high-level solution development, but was insufficient for thorough technical detailing of the solution.
648

Automatic recognition of low-level and high-level surgical tasks in the Operating Room from video images

Lalys, Florent 03 May 2012 (has links) (PDF)
La besoin d'une meilleure intégration des nouveaux systèmes de chirurgie assistée par ordinateur dans les salles d'opération à récemment été souligné. Une nécessité pour atteindre cet objectif est de récupérer des données dans les salles d'opérations avec différents capteurs, puis à partir de ces données de créer des modèles de processus chirurgicaux. Récemment, l'utilisation de vidéos dans la salle d'opération a démontré son efficacité pour aider à la création de systèmes de CAO sensibles au contexte. Le but de cette thèse était de présenter une nouvelle méthode pour la détection automatique de tâches haut niveaux (i.e. phases chirurgicales) et bas-niveaux (i.e. activités chirurgicales) à partir des vidéos des microscopes uniquement. La première étape a consisté à reconnaitre automatiquement les phases chirurgicales. L'idée fut de combiner des techniques récentes de vision par ordinateur avec une analyse temporelle. Des classifieurs furent tout d'abord mis en œuvre pour extraire des attributs visuels et ainsi caractériser chaque image, puis des algorithmes de classification de séries temporelles furent utilisés pour reconnaitre les phases. La deuxième étape a consisté à reconnaitre les activités chirurgicales. Des informations concernant des outils chirurgicaux et des structures anatomiques furent détectées et combinées avec l'information de la phase précédemment obtenu au sein d'un système de reconnaissance intelligent. Après des validations croisées sur des vidéos de neurochirurgie et de chirurgie de l'œil, nous avons obtenu des taux de reconnaissance de l'ordre de 94% pour la reconnaissance des phases et 64% pour la reconnaissance des activités. Ces systèmes de reconnaissance pourraient être utiles pour générer automatiquement des rapports post-opératoires, pour l'enseignement, l'apprentissage, mais aussi pour les futurs systèmes sensibles au contexte.
649

Analyse et déploiement de solutions algorithmiques et logicielles pour des applications bioinformatiques à grande échelle sur la grille

Bolze, Raphaël 31 October 2008 (has links) (PDF)
Cette thèse présente un ensemble d'objectifs dont le fil conducteur est le programme Décrypthon (projet tripartite entre l'AFM, le CNRS et IBM) où les applications et les besoins ont évolué au fur et à mesure de l'avancée de nos travaux. Dans un premier temps nous montrerons le rôle d'architecte que nous avons endossé pour la conception de la grille Décrypthon. Les ressources de cette grille sont supportées par les cinq universités partenaires (Bordeaux I, Lille I, ENS-Lyon, Pierre et Marie Curie Paris VI et Orsay), ainsi que le réseau RENATER (Réseau National de Télécommunications pour l'Enseignement et la Recherche), sur lequel est connecté l'ensemble des machines. Le Centre de ressources informatiques de Haute Normandie (CRIHAN) participe également au programme, il héberge les données volumineuses des projets scientifiques. Nous présenterons ensuite les expériences que nous avons effectuées sur l'intergiciel DIET afin de tester ses propriétés de façon à explorer sa stabilité dans un environnement à grande échelle comme Grid'5000. Nous nous sommes intéressés, en outre, au projet "Help Cure Muscular Dystrophy", un des projets sélectionnés par le programme Décrypthon. Nous avons conduit des expériences dans le but de préparer la première phase de calcul sur la grille de volontaires "World Community Grid". Nous dévoilerons l'ensemble des étapes qui ont précédées et suivies la première phase calculatoire qui a demandé quelques 80 siècles de temps processeur. Pour terminer, nous avons développé une fonctionnalité à l'intergiciel DIET, le rendant capable de gérer l'exécution de tâches ayant des dépendances. Nous nous sommes intéressés à développer des algorithmes prenant en compte plusieurs applications qui demandent l'accès aux mêmes ressources de manière concurrente. Nous avons validé cette fonctionnalité avec des applications issues des projets du programme Décrython. Ces travaux ont nécessité un développement logiciel important, d'une part sur les applications du Décrypthon elles-mêmes et sur leur portage afin de rendre transparente leur utilisation sur la grille Décrypthon, mais aussi au niveau de l'intergiciel DIET et son écosystème : DIET_Webboard, VizDIET, GoDIET, LogService, MA_DAG, etc. Les résultats présentés ont été obtenus sur trois grilles mises à notre disposition: la grille universitaire du Décrypthon, la grille d'internautes (World Community Grid) et la grille expérimentale Grid'5000.
650

Un modèle formel pour exprimer des politiques dynamiques pour contrôle d'accès et négociation dans un environnement distribué

El Houri, Marwa 28 May 2010 (has links) (PDF)
L'objectif principal de cette thèse est de définir un langage logique de haut niveau qui permet l'expression de politiques de sécurité complexes au sein d'un modèle de contrôle d'accès. Le développement de ce langage se fait en trois temps. Dans un premier temps nous présentons un modèle dynamique basé sur les rôles. Ainsi, nous considérons que l'évolution de l'état de sécurité d'un service dépend de l'exécution de ses fonctionnalités. Dans un deuxième temps nous définissons un formalisme basé sur les attributs qui offre plus de flexibilité en termes de spécifications des conditions de contrôle d'accès, et ajoutons la notion de workflow qui permet de modéliser le comportement d'un service. Dans un dernier temps, nous ajoutons un mécanisme de négociation qui permet à chaque service de définir sa propre politique d'échange avec les autres services dans l'environnement. La conception d'un tel cadre logique unifié facilite l'analyse de sûreté des politiques de sécurité puisque tous les facteurs qui influencent les décisions de contrôle d'accès sont pris en compte dans le même cadre. Ainsi le second objectif de cette thèse est d'étudier d'une part les principales propriétés de contrôle d'accès tels la délégation et la séparation des tâches et d'autre part les propriétés de sécurité pour la communication entre les différents services au niveau de la négociation.

Page generated in 0.0385 seconds