• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 5
  • Tagged with
  • 10
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Épidémiologie de la douleur musculo-squelettique liée à l’exécution de la musique chez les étudiants d’un instrument à cordes frottées

Robitaille, Judith January 2015 (has links)
Parmi les problèmes musculo-squelettiques liés à l’exécution de la musique, touchant particulièrement les instrumentistes à cordes frottées, la douleur est le symptôme le plus fréquent. La douleur liée à la pratique instrumentale a toutefois été peu documentée chez les étudiants qui font partie de l’élite en cordes, c’est-à-dire, les élèves de tous âges qui sont engagés dans une démarche d’apprentissage préprofessionnel de l’instrument. De plus, les facteurs de risque de la douleur liée à l’exécution de la musique ont été déterminés dans le contexte d’études transversales. Or certains facteurs de risque fluctuent dans le temps, par exemple la durée passée à jouer de l’instrument. À ce jour, l’impact des changements de la durée à jouer sur la douleur liée à l’exécution de la musique est peu connu. Les objectifs de ce mémoire sont de (1) décrire les caractéristiques de la douleur musculo-squelettique liée à l’exécution de la musique chez les étudiants en cordes qui font partie de l’élite, et (2) explorer l’effet des changements de la durée à jouer de l’instrument sur la douleur. Pour atteindre ces objectifs, des étudiants ont été recrutés dans trois camps musicaux offrant de la formation supérieure de façon intensive durant la période estivale. Les participants ont complété un questionnaire-maison auto-administré environ 1 mois avant le début du camp afin de caractériser leur douleur (objectif 1 : n=132) ainsi qu’à leur arrivée au camp musical et une semaine plus tard pour étudier relation entre le changement de durée à jouer et le changement de douleur (objectif 2 : n=93). La plupart des participants rapportent de la douleur liée à l’exécution de la musique (86 % à 96 % selon le temps de mesure considéré), d’une durée relativement courte (30 minutes) et d’intensité faible à modérée (moyenne de 33 mm à l’échelle visuelle analogue), touchant principalement les muscles stabilisateurs (cou, épaules, haut du dos). Une augmentation moyenne de 23 heures/semaine de la durée à jouer de l’instrument est rapportée dans le cadre de la participation à un camp musical intensif. Cette augmentation est significativement liée à l’exacerbation de l’expérience de douleur (fréquence et intensité des symptômes), mais elle n’explique que 10 % du phénomène. L’impact fonctionnel de la douleur, soit la perception d’incapacité à jouer à cause de la douleur, est significatif à tous les temps de mesure. Ces résultats démontrent la forte prévalence de la douleur liée à la pratique instrumentale chez les étudiants en cordes qui font partie de l’élite, et confirment le lien entre l’augmentation de la durée à jouer et l’exacerbation de la douleur liée à la pratique instrumentale.
2

Runtime Enforcement of (Timed) Properties with Uncontrollable Events / Enforcement à l’exécution de propriétés temporisées régulières en présence d’évènements incontrôlables

Renard, Matthieu 11 December 2017 (has links)
Cette thèse étudie l’enforcement de propriétés temporisées à l’exécution en présence d’évènements incontrôlables. Les travaux se placent dans le cadre plus général de la vérification à l’exécution qui vise à surveiller l’exécution d’un système afin de s’assurer qu’elle respecte certaines propriétés. Ces propriétés peuvent être spécifiées à l’aide de formules logiques, ou au moyen d’autres modèles formels, parfois équivalents, comme des automates. Nous nous intéressons à l’enforcement à l’exécution de propriétés spécifiées par des automates temporisés. Tout comme la vérification à l’exécution, l’enforcement à l’exécution surveille l’exécution d’un système, la différence étant qu’un mécanisme d’enforcement réalise certaines modifications sur l’exécution afin de la contraindre à satisfaire la propriété souhaitée. Nous étudions plus particulièrement l’enforcement à l’exécution lorsque certains évènements de l’exécution sont incontrôlables, c’est-à-dire qu’ils ne peuvent pas être modifiés par un mécanisme d’enforcement. Nous définissons des algorithmes de synthèse de mécanismes d’enforcement décrits de manières fonctionnelle puis opérationnelle, à partir de propriétés temporisées régulières (pouvant être représentées par des automates temporisés). Ainsi, deux mécanismes d’enforcement équivalents sont définis, le premier présentant une approche correcte sans considération d’implémentation, alors que le second utilise une approche basée sur la théorie des jeux permettant de précalculer certains comportements, ce qui permet de meilleures performances. Une implémentation utilisant ce précalcul est également présentée et évaluée. Les résultats sont encourageant quant à la faisabilité de l’enforcement à l’exécution en temps réel, avec des temps supplémentaires suffisamment courts sur de petites propriétés pour permettre une utilisation de tels systèmes. / This thesis studies the runtime enforcement of timed properties when some events are uncontrollable. This work falls in the domain of runtime verification, which includes all the techniques and tools based on or related to the monitoring of system executions with respect to requirement properties. These properties can be specified using different models such as logic formulae or automata. We consider timed regular properties, that can be represented by timed automata. As for runtime verification, a runtime enforcement mechanism watches the executions of a system, but instead of just outputting a verdict, it modifies the execution so that it satisfies the property. We are interested in runtime enforcement with uncontrollable events. An uncontrollable event is an event that an enforcement mechanism can not modify. We describe the synthesis of enforcement mechanisms, in both a functional and an operational way, that enforce some desired timed regular property. We define two equivalent enforcement mechanisms, the first one being simple, without considering complexity aspects, whereas the second one has a better time complexity thanks to the use of game theory; the latter being better suited for implementation. We also detail a tool that implements the second enforcement mechanism, as well as some performance considerations. The overhead introduced by the use of our tool seems low enough to be used in some real-time application scenarios.
3

Une méthode fondée sur les modèles pour gérer les propriétés temporelles des systèmes à composants logiciels / Design and implementation of a model driven design methodology for trusted realtime component

Nguyen, Viet Hoa 15 October 2013 (has links)
Cette thèse propose une approche pour intégrer l'utilisation des propriétés temporisées stochastiques dans un processus continu de design fondé sur des modèles à l'exécution. La spécification temporelle de services est un aspect important des architectures à base de composants, par exemple dans des réseaux distribués volatiles de nœuds informatiques. L'approche models@runtime facilite la gestion de ces architectures en maintenant des modèles abstraits des architectures synchronisés avec la structure physique de la plate-forme d'exécution distribuée. Pour les systèmes auto-adaptatifs, la prédiction de délais et de débit d'un assemblage de composants est primordial pour prendre la décision d'adaptation et accepter les évolutions qui sont conformes aux spécifications temporelles. Dans ce but, nous définissons une extension du métamodèle fondée sur les réseaux de Petri stochastiques comme un modèle temporisé interne pour la prédiction. Nous concevons une bibliothèque de patrons pour faciliter la spécification et la prédiction des propriétés temporisées classiques de modèles à l'exécution et rendre la synchronisation des comportements et des changements structurels plus facile. D'autre part, nous appliquons l'approche de la modélisation par aspects pour tisser les modèles temporisés internes dans les modèles temporisés de comportement du composant et du système. Notre moteur de prédiction est suffisamment rapide pour effectuer la prédiction à l'exécution dans un cadre réaliste et valider des modèles à l'exécution. / This thesis proposes an approach to integrate the use of time-related stochastic properties in a continuous design process based on models at runtime. Time-related specification of services are an important aspect of component-based architectures, for instance in distributed, volatile networks of computer nodes. The models at runtime approach eases the management of such architectures by maintaining abstract models of architectures synchronized with the physical, distributed execution platform. For self-adapting systems, prediction of delays and throughput of a component assembly is of utmost importance to take adaptation decision and accept evolutions that conform to the specifications. To this aim we define a metamodel extension based on stochastic Petri nets as an internal time model for prediction. We design a library of patterns to ease the specification and prediction of common time properties of models at runtime and make the synchronization of behaviors and structural changes easier. Furthermore, we apply the approach of Aspect-Oriented Modeling to weave the internal time models into timed behavior models of the component and the system. Our prediction engine is fast enough to perform prediction at runtime in a realistic setting and validate models at runtime.
4

A model driven approach for the development and verification of service-oriented applications / Approche dirigée par les modèles pour le développement et la vérification des applications orientées-services

Rekik, Fadwa 19 April 2017 (has links)
L’omniprésence des systèmes logiciels et le rôle important qu’ils jouent dans la vie quotidienne rendent les utilisateurs de plus en plus exigeants. Entre autre, ils demandent plus de fiabilité et des systèmes qui peuvent s’adapter à leur contexte d’utilisation. Afin de satisfaire ces demandes, les cadres techniques et les méthodes de conception sous-jacents au développement des systèmes doivent être modulaires, flexibles et consistants. L’architecture orientée service (SOA) est un paradigme qui offre des mécanismes permettant une grande flexibilité des architectures des systèmes logiciels tout en réduisant leurs coûts de développement puisqu’elle se base sur des entités modulaires et réutilisables appelées services. Ces services peuvent être réutilisés dans le cadre d’une composition ou d’une chorégraphie de services pour la construction de nouveaux processus métiers transverses. SOA promet aussi d’augmenter la fiabilité des systèmes au travers de la notion de contrat de services. De son côté, le paradigme de l’Ingénierie des modèles (IDM) offre au travers de ses deux principes fondateurs, l’abstraction et l’automatisation, deux moyens puissants de gestion de la complexité des systèmes. Malgré les progrès des deux paradigmes, IDM et SOA, il y a encore des défis à résoudre. Notamment, on peut citer : (1) La vérification rigoureuse des spécifications des systèmes conformes aux principes de SOA. Ce point constitue un défi car pour modéliser ces systèmes, les concepteurs ont besoin de plus d'un point de vue représentant chacun une préoccupation spécifique du système et bien sûr ces points de vue doivent être sémantiquement cohérents. Ce problème est appelé la vérification de la consistance horizontale, une tâche manuellement difficile qui constitue une étape importante pour réduire les incohérences dans les modèles des applications SOA avant de les transformer en d'autres formes (du code, des cas de tests, etc.). (2) La transformation des spécifications des systèmes en artefacts exécutables. Malgré la maturité de l’architecture SOA, la transformation des spécifications des systèmes SOA en artefacts exécutables s'avère encore une étape fastidieuse et est généralement effectué manuellement. En particulier, la transformation des chorégraphies de services en orchestrations exécutables reste un problème en raison de la nécessité de prendre en compte les aspects complexes des systèmes distribués, tels que l’asynchronisme et la concurrence. (3) La vérification de l’exécution. Au moment de la spécification, des comportements inattendus peuvent encore apparaitre lors de l’exécution. Pour cette raison, il est nécessaire de pouvoir vérifier la conformité de l'exécution d’un système par rapport à sa spécification. Ce problème est appelé la vérification de la consistance verticale. Ce travail de thèse propose ainsi une approche de type SOA dirigée par les modèles résolvant les défis mentionnés précédemment. Cette approche comprend une méthodologie en deux étapes pour la vérification de la consistance horizontale et verticale des systèmes SOA spécifiés en utilisant la norme SoaML de l’OMG. Le problème de vérification de la consistance horizontale est résolu au moyen de l'analyse statique de la spécification des systèmes. Le deuxième défi est résolu en spécifiant les règles de transformation d'un modèle de spécification de chorégraphie de services en une orchestration exécutable qui implémente la logique de la chorégraphie tout en prenant en compte la nature asynchrone des communications entre les services distribués. Le problème de vérification de la consistance verticale est résolu par notre approche par l'analyse hors ligne des traces d’exécution d’un système. L’ensemble de la proposition méthodologique a été implanté sous la forme d’une extension à l’outil de modélisation UML open-source Papyrus. / As software systems are pervasive and play an important role in everyday life, the users are becoming more and more demanding. They mainly require more reliable systems that automatically adapt to different use cases. To satisfy these requirements, technical frameworks and design methods, upon which the systems development is based, must meet specific objectives mainly modularity, flexibility, and consistency. Service-Oriented Architecture (SOA) is a paradigm that offers mechanisms to increase the software flexibility and reduce development costs by enabling service orchestration and choreography. SOA promises also reliability through the use of services contracts as an agreement between the service provider and consumer. Model-driven SOA is a novel and promising approach that strengthens SOA with Model-Driven Engineering (MDE) technics that ease the specification, development, and verification of Service-Oriented Applications by applying abstraction and automation principles. Despite the progress to integrate MDE to SOA, there are still some challenging problems to be solved: (1) Rigorous verification of SOA system specifications. This is a challenging problem because to model SOA systems designers need more than one viewpoint, each of which captures a specific concern of the system. These viewpoints are meant to be semantically consistent with each other. This problem is called horizontal consistency checking and it is an important step to reduce inconsistencies in SOA models before transforming them into other forms (code generation, test cases derivation, etc.). (2) Transformation of systems specifications into executable artifacts. Despite the maturity of SOA, the transformation of system specifications into executable artifacts is usually manual, fastidious and error-prone. The transformation of services choreographies into executable orchestrations particularly remains a problem because of the necessity to take into account critical aspects of distributed systems such as asynchrony and concurrency when executing centralized orchestrations. (3) Runtime verification. Even after verifying Horizontal consistency at design time, there could be unexpected and unspecified data interactions that are unknown during design-time. For this reason, we still need consistency verification at runtime to handle such unforeseen events. This problem is called Vertical consistency checking. This thesis work proposes a Model-driven SOA approach to address the above-mentioned challenges. This approach includes a two-step model-driven methodology to horizontally and vertically verify the consistency of SOA systems specifications described using the SoaML standard from the Object Management Group (OMG). The horizontal consistency checking problem, which is the first challenge, is solved by means of static analysis of the system specification at the design level. The second challenge is solved by specifying the transformation from a choreography specification model to an executable orchestration implementing the choreography logic. Our transformation takes into consideration the asynchronous nature of the communications between distributed services. The vertical consistency checking problem, which is the third challenge, is solved by our approach thanks to offline analysis that allows consistency verification between both design and runtime levels. The entire methodological proposal was implemented as an extension to the open source UML modeling tool Papyrus.
5

Vérification à l'exécution de spécifications décentralisées hiérarchiques / Runtime Verification of Hierarchical Decentralized Specifications

El hokayem, Antoine 18 December 2018 (has links)
La vérification à l’exécution est une méthode formelle légère qui consiste à vérifier qu’une exécution d’un système est correcte par rapport à une spécification. La spécification exprime de manière rigoureuse le comportement attendu du système, en utilisant généralement des formalismes basés sur la logique ou les machines à états finies. Alors que la verification a l’éxecution traite les systèmes monolithiques de manière exhaustive, plusieurs difficultés se présentent lors de l’application des techniques existantes à des systèmes décentralisés, c-à-d. des systèmes avec plusieurs composants sans point d’observation central. Dans cette thèse, nous nous concentrons particulièrement sur trois problèmes : la gestion de l’information partielle, la séparation du déploiement des moniteurs du processus de vérification lui-même et le raisonnement sur la décentralisation de manière modulaire et hiérarchique. Nous nous concentrons sur la notion de spécification décentralisée dans laquelle plusieurs spécifications sont fournies pour des parties distinctes du système. Utiliser une spécification décentralisée a divers avantages tels que permettre une synthèse de moniteurs à partir des spécifications complexes et la possibilité de modulariser les spécifications. Nous présentons également un algorithme de vérification général pour les spécifications décentralisées et une structure de données pour représenter l’exécution d’un automate avec observations partielles. Nous développons l’outil THEMIS, qui fournit une plateforme pour concevoir des algorithmes de vérification décentralisée, des mesures pour les algorithmes, une simulation et des expérimentations reproductibles pour mieux comprendre les algorithmes.Nous illustrons notre approche avec diverses applications. Premièrement, nous utilisons des spécifications décentralisées pour munir une analyse de pire cas, adapter, comparer et simuler trois algorithmes de vérification décentralisée existants dans deux scénarios: l’interface graphique Chiron, et des traces et spécifications générées aléatoirement. Deuxièmement, nous utilisons des spécifications décentralisées pour vérifier diverses propriétés dans un appartement intelligent: correction du comportement des capteurs de l’appartement, détection d’activité spécifiques de l’utilisateur (Activities of Daily Living, ADL) et composition de spécifications des deux catégories précédentes.En outre, nous élaborons sur l’utilisation de spécifications décentralisées pour la vérification décentralisée pendant l’exécution de programmes parallélisés. Nous commençons par discuter les limitations des approches et des outils existants lorsque les difficultés introduites par le parallélisme sont rencontrées. Nous détaillons la description de zones de parallélisme d’une unique exécution d’un programme et décrivons une approche générale qui permet de réutiliser des techniques de verification à l’éxécution existantes. Dans notre configuration, les moniteurs sont déployés dans des fils d’exécution spécifiques et échangent de l’information uniquement lorsque des points de synchronisation définis par le programme lui-même sont atteints. En utilisant les points de synchronisation existants, notre approche réduit les interférences et surcoûts résultant de la synchronisation, au prix d’un retard pour déterminer le verdict. / Runtime Verification (RV) is a lightweight formal method which consists in verifying that a run of a system is correct with respect to a specification. The specification formalizes the behavior of the system typically using logics or finite-state machines. While RV comprehensively deals with monolithic systems, multiple challenges are presented when scaling existing approaches to decentralized systems, that is, systems with multiple components with no central observation point. We focus particularly on three challenges: managing partial information, separating monitor deployment from the monitoring process itself, and reasoning about decentralization in a modular and hierarchical way. We present the notion of a decentralized specification wherein multiple specifications are provided for separate parts of the system. Decentralized specifications provide various advantages such as modularity, and allowing for realistic monitor synthesis of the specifications. We also present a general monitoring algorithm for decentralized specifications, and a general datastructure to encode automata execution with partial observations. We develop the THEMIS tool, which provides a platform for designing decentralized monitoring algorithms, metrics for algorithms, and simulation to better understand the algorithms, and design reproducible experiments.We illustrate the approach with two applications. First, we use decentralized specifications to perform a worst-case analysis, adapt, compare, and simulate three existing decentralized monitoring algorithms on both a real example of a user interface, and randomly generated traces and specifications. Second, we use decentralized specifications to check various specifications in a smart apartment: behavioral correctness of the apartment sensors, detection of specific user activities (known as activities of daily living), and composition of properties of the previous types.Furthermore, we elaborate on utilizing decentralized specifications for the decentralized online monitoring of multithreadedprograms. We first expand on the limitations of existing tools and approaches when meeting the challenges introduced by concurrency and ensure that concurrency needs to be taken into account by considering partial orders in traces. We detail the description of such concurrency areas in a single program execution, and provide a general approach which allows re-using existing RV techniques. In our setting, monitors are deployed within specific threads, and only exchange information upon reaching synchronization regions defined by the program itself. By using the existing synchronization, we reduce additional overhead and interference to synchronize at the cost of adding a delay to determine the verdict.
6

Classification de menaces d’erreurs par analyse statique, simplification syntaxique et test structurel de programmes / Classification of errors threats by static analysis, program sclicing and structural testing of programs

Chebaro, Omar 13 December 2011 (has links)
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l’analyse statique et l’analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l’analyse statique signale les instructions risquant de provoquer des erreurs à l’exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l’analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L’objectif de cette thèse est de rendre la recherche d’erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d’espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu’aucun chemin d’exécution ne peut atteindre l’état d’erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l’ensemble de toutes les alarmes du programme qui ont été détectées par l’analyse statique. L’inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d’espace et les alarmes les plus faciles à classer sont pénalisées par l’analyse d’autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d’analyse si des alarmes sont incluses dans d’autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l’utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d’alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l’union de ces sous-ensembles couvre l’ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu’avec each, et des slices plus simples qu’avec all. Cependant, l’analyse dynamique de certaines slices peut manquer de temps ou d’espace avant de classer certaines alarmes, tandis que l’analyse dynamique d’une slice éventuellement plus simple permettrait de les classer. L’utilisation smart consiste à appliquer l’utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c’est nécessaire. Lorsqu’une alarme ne peut pas être classée par l’analyse dynamique d’une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l’outil de génération de tests PathCrawler et la plate-forme d’analyse statique Frama-C. Des expérimentations ont montré, d’une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d’autre part, que la vérification devient plus rapide avec l’utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser / Software validation remains a crucial part in software development process. Two major techniques have improved in recent years, dynamic and static analysis. They have complementary strengths and weaknesses. We present in this thesis a new original combination of these methods to make the research of runtime errors more accurate, automatic and reduce the number of false alarms. We prove as well the correction of the method. In this combination, static analysis reports alarms of runtime errors some of which may be false alarms, and test generation is used to confirm or reject these alarms. When applied on large programs, test generation may lack time or space before confirming out certain alarms as real bugs or finding that some alarms are unreachable. To overcome this problem, we propose to reduce the source code by program slicing before running test generation. Program slicing transforms a program into another simpler program, which is equivalent to the original program with respect to certain criterion. Four usages of program slicing were studied. The first usage is called all. It applies the slicing only once, the simplification criterion is the set of all alarms in the program. The disadvantage of this usage is that test generation may lack time or space and alarms that are easier to classify are penalized by the analysis of other more complex alarms. In the second usage, called each, program slicing is performed with respect to each alarm separately. However, test generation is executed for each sliced program and there is a risk of redundancy if some alarms are included in many slices. To overcome these drawbacks, we studied dependencies between alarms on which we base to introduce two advanced usages of program slicing : min and smart. In the min usage, the slicing is performed with respect to subsets of alarms. These subsets are selected based on dependencies between alarms and the union of these subsets cover the whole set of alarms. With this usage, we analyze less slices than with each, and simpler slices than with all. However, the dynamic analysis of some slices may lack time or space before classifying some alarms, while the dynamic analysis of a simpler slice could possibly classify some. Usage smart applies previous usage iteratively by reducing the size of the subsets when necessary. When an alarm cannot be classified by the dynamic analysis of a slice, simpler slices are calculated. These works are implemented in sante, our tool that combines the test generation tool PathCrawler and the platform of static analysis Frama-C. Experiments have shown, firstly, that our combination is more effective than each technique used separately and, secondly, that the verification is faster after reducing the code with program slicing. Simplifying the program by program slicing also makes the detected errors and the remaining alarms easier to analyze
7

Arbitration in administrative contracts : comparative law perspective / L’arbitrage en matière de contentieux des contrats administratifs : dans une perspective comparée

Lin, Ching-Lang 30 June 2014 (has links)
Il a été longuement discuté de savoir si le système d'arbitrage est applicable pour régler les litiges administratifs qui concernent certains contrats administratifs ou d’autres sans rapport avec le contrat administratif. Dans cette thèse, les trois questions spécifiques sont analysées tour à tour : (1) Est-il possible pour un arbitre ou un tribunal arbitral de trancher des questions relevant du droit administratif? (2) Y a-t-il, ou devrait-il y avoir, des limitations à l'autorité des arbitres et des tribunaux arbitraux? (3) Enfin, après la délivrance d'une sentence arbitrale, quel rôle devrait jouer l'État dans la phase de contrôle judiciaire? La première question concerne l'arbitrabilité et a été discutée dans la première partie (FIRST PART: ARBITRABILITY). La deuxième question a été discutée dans la deuxième partie (SECOND PART: PARTICULAR QUESTIONS OF ADMINISTRATIVE MATTERS IN ARBITRATION PROCEDURE). Enfin, sur la dernière question a fait l’objet d’une troisième partie (THIRD PART: JUDICIAL REVIEW AND EXECUTION OF ARBITRATION AWARD). Dans cette thèse, nous avons comparé les systèmes de quatre pays (Canada, Chine, France, Taïwan). En conclusion, nous pouvons donc conclure que l’évolution de la conception du contrat administratif implique de nombreux aspects, y compris les aspects juridiques, économiques, politiques et même culturels. Le développement de la fonction de contentieux administratif, comme ‘’subjectivement orienté" ou "objectivement orienté" aura une incidence sur l'acceptation de l'arbitrage en matière administrative. Dans l'ensemble, l'arbitrage sera plus acceptable dans les systèmes dont la fonction est plus ‘’subjectivement orientée" que dans ceux dont la fonction est "objectivement orientée". / While arbitration has traditionally been considered as a means to resolve private disputes, its role in disputes involving administrative contracts is a crucial question in administrative law. In brief, the three specific questions are (1) Can arbitrators or arbitral tribunals decide issues involving administrative law? and (2) Is there, or should there be, any limitation on the authority of arbitrators or arbitral tribunals? (3) Moreover, after the issue of an arbitration award, what role should the State play in the judicial review phase? The first question, the issue of arbitrability, is discussed in part 1 (FIRST PART: ARBITRABILITY). The second question will be discussed in part2 (SECOND PART: PARTICULAR QUESTIONS OF ADMINISTRATIVE MATTERS IN ARBITRATION PROCEDURE). Finally, on the question of what happens after the arbitration award, we will discuss judicial review in part 3 (THIRD PART: JUDICIAL REVIEW AND EXECUTION OF ARBITRATION AWARD). We compare legal systems between the four countries: in France, in Canada, in China and in Taiwan. We believe that an administrative contract, at least in its function and conception, is gradually becoming different from a private contract. Innovation with respect to administrative contracts will also reflect the concentration and function of the administrative litigation systems in each country. In addition, the “objective” or “subjective” function of administrative litigation will also affect the degree of arbitrability, as well as arbitration procedures. Taken together, arbitration will be more acceptable in systems whose function is more “subjectively oriented” than in those whose function is “objectively oriented". Finally, “the arbitration of administrative matters” traditionally has been an important question in administrative and arbitration law. In the future, we will continue to see it shine in the doctrine and jurisprudence of both the administrative and arbitration law fields.
8

Automated Verification of Exam, Cash, aa Reputation, and Routing Protocols / Vérification automatique de protocoles d'examen, de monnaie, de réputation, et de routage

Kassem, Ali 18 September 2015 (has links)
La sécurité est une exigence cruciale dans les applications basées sur l'information et la technologie de communication, surtout quand un réseau ouvert tel que l'Internet est utilisé. Pour assurer la sécurité dans ces applications des protocoles cryptographiques ont été développé. Cependant, la conception de protocoles de sécurité est notoirement difficile et source d'erreurs. Plusieurs failles ont été trouvées sur des protocoles qui se sont prétendus sécurisés. Par conséquent, les protocoles cryptographiques doivent être vérifiés avant d'être utilisés. Une approche pour vérifier les protocoles cryptographiques est l'utilisation des méthodes formelles, qui ont obtenu de nombreux résultats au cours des dernières années.Méthodes formelles portent sur l'analyse des spécifications des protocoles modélisées en utilisant, par exemple, les logiques dédiés, ou algèbres de processus. Les méthodes formelles peuvent trouver des failles ou permettent de prouver qu'un protocole est sécurisé sous certaines hypothèses par rapport aux propriétés de sécurité données. Toutefois, elles abstraient des erreurs de mise en ouvre et les attaques side-channel.Afin de détecter ces erreurs et la vérification des attaques d'exécution peut être utilisée pour analyser les systèmes ou protocoles exécutions. En outre, la vérification de l'exécution peut aider dans les cas où les procédures formelles mettent un temps exponentielle ou souffrent de problèmes de terminaison. Dans cette thèse, nous contribuons à la vérification des protocoles cryptographiques avec un accent sur la vérification formelle et l'automatisation. Tout d'abord, nous étudions les protocoles d'examen. Nous proposons des définitions formelles pour plusieurs propriétés d'authentification et de confidentialité dans le Pi-calcul Appliqué.Nous fournissons également une des définitions abstraites de propriétés de vérifiabilité. Nous analysons toutes ces propriétés en utilisant automatiquement ProVerif sur plusieurs études de cas, et avons identifié plusieurs failles. En outre, nous proposons plusieurs moniteurs de vérifier les exigences d'examen à l'exécution. Ces moniteurs sont validés par l'analyse d'un exécutions d'examen réel en utilisant l'outil MARQ Java.Deuxièmement, nous proposons un cadre formel pour vérifier les propriétés de sécurité de protocoles de monnaie électronique non transférable. Nous définissons la notion de vie privée du client et les propriétés de la falsification. Encore une fois, nous illustrons notre modèle en analysant trois études de cas à l'aide ProVerif, et confirmons plusieurs attaques connues.Troisièmement, nous proposons des définitions formelles de l'authentification, la confidentialité et les propriétés de vérifiabilité de protocoles de réputation électroniques. Nous discutons les définitions proposées, avec l'aide de ProVerif, sur un protocole de réputation simple. Enfin, nous obtenons un résultat sur la réduction de la vérification de la validité d'une route dans les protocoles de routage ad-hoc, en présence de plusieurs attaquants indépendants qui ne partagent pas leurs connaissances. / Security is a crucial requirement in the applications based on information and communication technology, especially when an open network such as the Internet is used.To ensure security in such applications cryptographic protocols have been used.However, the design of security protocols is notoriously difficult and error-prone.Several flaws have been found on protocols that are claimed secure.Hence, cryptographic protocols must be verified before they are used.One approach to verify cryptographic protocols is the use of formal methods, which have achieved many results in recent years.Formal methods concern on analysis of protocol specifications modeled using, e.g., dedicated logics, or process algebras.Formal methods can find flaws or prove that a protocol is secure under ``perfect cryptographic assumption" with respect to given security properties. However, they abstract away from implementation errors and side-channel attacks.In order to detect such errors and attacks runtime verification can be used to analyze systems or protocols executions.Moreover, runtime verification can help in the cases where formal procedures have exponential time or suffer from termination problems.In this thesis we contribute to cryptographic protocols verification with an emphasis on formal verification and automation.Firstly, we study exam protocols. We propose formal definitions for several authentication and privacy propertiesin the Applied Pi-Calculus. We also provide an abstract definitions of verifiability properties.We analyze all these properties automatically using ProVerif on multiple case studies, and identify several flaws.Moreover, we propose several monitors to check exam requirements at runtime. These monitors are validated by analyzing a real exam executions using MARQ Java based tool.Secondly, we propose a formal framework to verify the security properties of non-transferable electronic cash protocols.We define client privacy and forgery related properties.Again, we illustrate our model by analyzing three case studies using ProVerif, and confirm several known attacks.Thirdly, we propose formal definitions of authentication, privacy, and verifiability properties of electronic reputation protocols. We discuss the proposed definitions, with the help of ProVerif, on a simple reputation protocol.Finally, we obtain a reduction result to verify route validity of ad-hoc routing protocols in presence of multiple independent attackers that do not share their knowledge.
9

Patientez en prison. La construction des itinéraires carcéraux en centre de détention. / Route of sentencing reductions in prison.

Leroy, Aude 18 November 2016 (has links)
Selon le droit de l'exécution des peines, un éventail de mesures judiciaires permet de déplacer un détenu vers l’extérieur des murs, de manière temporaire ou pérenne. Il s’agit d’un ensemble assez flou, appelé aménagements de peine. Un paradigme dominant des politiques publiques enjoint à favoriser les demandes de ces mesures de la part des détenus condamnés. L’idée est d’organiser des voies progressives de sortie. Les acteurs professionnels de la prison et de la justice s’accordent à considérer qu’il s’agit de la meilleure transition entre le dedans et le dehors. Pourtant, l’obtention d’une mesure telle que la libération conditionnelle ou la semi-liberté relève d’un processus très sélectif. Les professionnels enrôlés dans ces activités décisionnelles tiennent compte d’ordres de considérations contradictoires polarisées par, d’un côté, l’idéal de la réhabilitation du condamné, et, d’un autre côté, les préoccupations concernant la récidive. Il en résulte des dilemmes, et un chemin exigeant pour le condamné. Ces exigences, les professionnels leur donnent un sens, ils les transforment en épreuve traversée par un détenu singulier. Cette thèse prend pour objet la manière dont le justiciable, candidat à un aménagement de peine, se voit engagé à suivre un programme institutionnel, un curriculum de la réinsertion. Au cours de cette épreuve, le détenu est conduit à se rapprocher des attentes qui s’expriment à son égard, d’un schéma du bon candidat à ’aménagement de peine. Les gages qu’il doit présenter « enveloppent » tout ce qui fait une personne : gages d’insertion socio-économique, mais aussi gages d’une amélioration de son for intérieur, de son intimité psychique. Ces critères sont objectivés, notamment, par les expertises psychiatriques. Or, d’une manière ou d’une autre, l’ensemble des acteurs professionnels en prison, et même les bénévoles, sont mis à contribution dans ce projet institutionnel, qui prétend considérer comment le détenu a “évolué” en tant que personne. La thèse décrit cette économie morale : les relations de travail sous-tendues, en prison, par une politique pénale qui tend à gouverner les détenus en les enrôlant dans un programme dont on considère qu’il doit être voulu par le justiciable. / According to the law, a range of judicial measures allows to move a prisoner towards the outside of walls, in a temporary or long-lasting way. It is called sentencing reductions. One paradigm dominating public policies orders to favor the requests of these measures on behalf of the condemned prisoners. The idea is to organize progressive ways of release. The professional actors of the prison and the justice agree to consider that it is about the best transition between inside and the outside. Nevertheless, the obtaining of a measure such as the release on parole or the relative freedom is a matter of a very selective process. The professionals enlisted in these decision-making activities take into account orders of contradictory considerations polarized by, on one side, the ideal of the rehabilitation of the condemned person, and, on the other hand, the concerns concerning the recidivism. It results from it dilemmae, and demanding path for the condemned person. These requirements, the professionals give them a sense. They transform them into an meaningfull experience crossed by a singular prisoner. This dissertation takes for object the way the citizen, who applies to a sentencing reduction, get committed to follow an institutional program, a curriculum of the reintegration. During these hardships, the prisoner is driven to get closer to expectations which express themselves towards him/her. He is led into a plan of the good candidate for the sentencing reduction. The wages which he has to present "wrap" all which makes a person: wages of socioeconomic insertion, but also wages of an improvement of its heart of hearts, its psychic intimacy. These criteria are objectified, in particular, by psychiatric examinations. Yet, somehow or other, all the professional actors in prison, and even the volunteers, are put in contribution in this institutional project, which claims to consider how the prisoner "evolved". The dissertation describes this moral economy: the tend to govern the prisoners by enlisting them in a program of which we consider that they must desire to get hired into the programm.
10

Un modèle de prise de décision basé sur la performace des procesus métiers collaboratifs / Dynamic decision model based on the performance of collaborative business processes

Hachicha, Maroua 03 April 2017 (has links)
Cette thèse se focalise sur l’amélioration de l’évaluation de performance des processus métiers collaboratifs. Il s’agit de poursuivre l’évolution de la collaboration entre l’entreprise et ses partenaires. Trois niveaux d’abstraction ont été d’abord identifiés : Métier, fonctionnel et applicatif. Ensuite, nous avons développé une approche descendante allant du niveau métier au niveau applicatif. Dans le niveau métier, des différents d’indicateurs clés de performance ont été proposés à travers la méthodeECOGRAI. Dans le niveau applicatif, nous avons proposé un référentiel d’analyse contenant des indicateurs techniques fonctionnels tels que la durée, l’input, l’output, et non-fonctionnels notamment la maturité, le risque, l’interopérabilité à partir des traces d’exécution. Nous avons proposé ainsi un modèle ontologique en vue de capitaliser et enrichir la sémantique de la performance de ces processus. Nous avons proposé un modèle ascendant pour l’agrégation des indicateurs technique au niveaumétier. Le principal objectif de cette agrégation est la corrélation entre le comportement de l’application métier agrégé à partir de l’exécution et l’évolution des indicateurs métiers. Un autre modèle de gestion des événements métiers a été également proposé pour consolider le processus d’apprentissage de notre approche. Par ailleurs, pour assurer la convergence de la performance, nous avons combiné entre la gestion des traces et la gestion des évènements métiers. Cette combinaison permet d’accompagner l’évolution des processus métiers collaboratifs pendant leur exécution. L’accompagnement évoqué avant favorise l’obtention d’un diagnostic sur la performance pour servir à la prise de décision. Cette dernière est liée étroitement à la détection des alertes et particulièrement à l’anticipation des déviations de la performance le plus rapidement possible. Pour valider lacontribution scientifique de cette thèse, une étude de cas a été réalisée sur un processus de création de devis dans le cadre du projet européen FITMAN. / This thesis focuses on improving the performance evaluation of collaborative business processes. It is about pursuing the evolution of the collaboration between the company and its partners. In the beginning, three abstraction levels were identified: Business, functional and application. Then, we developed a top-down approach from the business level to the application level. In the business level, different key performance indicators have been proposed through the ECOGRAI method. In the application level, we proposed an analytical repository containing functional technical indicators such as duration, input, output, and non-functional, including maturity, risk, and interoperability based on execution traces. We have thus proposed an ontological model in order to capitalize and enrich the semantics of the performance of these processes. We proposed a bottom-up model for the aggregation of technical indicators at the business level. The main objective of this aggregation is the correlation between the behavior of the aggregated business application from the execution and the evolution of the business indicators. Another business event management model was also proposed to consolidate the learning process of our approach. Moreover, to ensure the convergence of performance, we have combined traces management and business event management. This combination allows to accompany the evolution of the collaborative business processes during their execution. The aforementionedaccompaniment favors the obtaining of a diagnosis on performance to be used for decision-making. The latter is closely linked to the detection of alerts and particularly to the anticipation of deviations in performance as quickly as possible. To validate the scientific contribution of this thesis, a case study was carried out on a process of creation of quote within the framework of the European project FITMAN.

Page generated in 0.0689 seconds