• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 10
  • 4
  • Tagged with
  • 36
  • 36
  • 16
  • 15
  • 10
  • 10
  • 9
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A framework for the management of heterogeneous models in Systems Engineering

Simon-Zayas, David 08 June 2012 (has links) (PDF)
De nos jours, la complexité des systèmes implique fréquemment la participation des différentes équipes d'ingénierie dans la gestion des modèles descriptifs. Chaque équipe ayant une diversité d'expériences, de connaissances du domaine et de pratiques de modélisation, l'hétérogénéité des modèles mêmes est une conséquence logique. Ainsi, malgré la bonne gestion des modèles d'un point de vue individuel, leur variabilité devient un problème quand les ingénieurs nécessitent partager leurs modèles afin d'effectuer des validations globales. Nous défendons l'utilisation des connaissances implicites comme un moyen important de réduction de l'hétérogénéité. Ces connaissances sont implicites car elles sont dans la tête des ingénieurs mais elles n'ont pas été formalisées dans les modèles bien qu'elles soient essentielles pour les comprendre. Après avoir analysé les approches actuelles concernant l'intégration de modèles et l'explicitation de connaissances implicites nous proposons une méthodologie qui permet de compléter (annoter) les modèles fonctionnels et de conception d'un système avec des connaissances partagées du domaine formalisées sous la forme d'ontologies. Ces annotations facilitent l'intégration des modèles et la validation de contraintes intermodèles. En outre, il s'agit d'une approche non intrusive car les modèles originaux ne sont pas modifiés directement. En effet, ils sont exportés dans un environnement unifié en exprimant leurs méta-modèles dans un langage de modélisation partagé qui permet l'homogénéisation syntactique. L'approche a été validée formellement en utilisant le langage de modélisation EXPRESS en tant que langage partagé. Ensuite, afin de la valider d'un point de vue industriel, trois cas d'étude du domaine aéronautique ont été implémentés en appliquant l'approche. Cet aspect industriel a été complété par le développement d'un prototype permettant de travailler avec les ingénieurs depuis une perspective processus.ctly modified. Thus, they are exported into a unified framework by expressing their meta-models in a shared modeling language that permits the syntactical homogenization. The approach has been formally validated by using the EXPRESS modeling language as shared language. Then, in order to validate it from an industrial point of view, three aircraft domain case studies have been implemented by applying the approach. This industrial aspect has been completed by the development of a prototype allowing engineers to work from a process perspective.
2

TRANSFERT DE FICHIERS EN MODE MESSAGERIE

Rollin, Florence 16 December 1986 (has links) (PDF)
Le développement rapide des réseaux et de la télématique a mis en évidence la nécessité de définir des normes tant au niveau du matériel que du logiciel. D'importants travaux sont menés par les organismes nationaux et internationaux de normalisation: CCITT, ISO, AFNOR. Ces derniers sont aujourd'hui soutenus par l'ensemble des constructeurs et utilisateurs du monde de l'informatique et des télécommunications. Le modèle de référence pour l'interconnexion des systèmes ouverts (OSI) est le point de départ d'un ensemble de normes qui définissent le fonctionnement d'un réseau composé de systèmes informatiques hétérogènes répartis à travers le monde. La messagerie X400, appelée également courrier électronique, est sans doute une des premières applications normalisées s'appuyant sur le modèle OSI. De nombreuses autres applications bureautiques et télématiques sont en cours d'étude. En .dehors des problèmes politiques et économiques, on peut dire aujourd'hui que la normalisation se porte bien. * C'est dans l'idée de définit de nouvelles* applications utilisant les services normalisés dont la messagerie X400 que des groupes de travail Architel ont été crées à l'initiative de M. Claude Kintzig. Les applications actuellement étudiées sont le*s suivantes: * TFMM : Transfert de Fichiers en Mode Messagerie. * STMM: Soumission de Travaux en Mode messagerie * CRMM : Conférences Réparties en Mode Messagerie * BIMM : Bases d'Informations en Mode Messagerie Tous ces projets ont en commun deux points. Ils utilisent pour communiquer les services de Transfert de Messages X400. Et ils fonctionnent dans un environnement de systèmes et de machines hétérogènes.
3

Évaluation prévisionnelle du comportement de systèmes informatiques selon des critères économiques et de sûreté de fonctionnement

Moreira De Souza, Jorge 26 February 1981 (has links) (PDF)
Le premier chapitre est consacré à l'obtention des expressions mathématiques et au développement des outils permettant une approche systématique d'accès aux fonctions de répartition des variables aléatoires, mises en jeu dans un processus markovien homogène. Nous nous intéressons plus particulièrement à l'étude probabiliste des variables aléatoires qui représentent le nombre de transitions entre les états et le temps de séjour dans un ensemble d'états d'un processus markovien. Le second chapitre est consacré à l'application des résultats mathématiques issus du chapitre précédent, à l'évaluation du taux d'arrêt et de l'indisponibilité des structures non-redondantes et redondantes. Dans le troisième et dernier chapitre, nous proposons une méthode d'analyse économique permettant l'étude quantitative de l'influence des principales composantes de coût pendant le cycle d'expoitation du système. Cette méthode utilise le modèle markovien qui représente le comportement du système, les composantes de coût venant se superposer au modèle. Elle est appliquée à l'évaluation de la réduction des coûts d'exploitation apportée par la tolérance aux fautes.
4

Prévision de la sureté de fonctionnement par les processus staochastiques. Le programme SURF, modélisation de structures à fonctionnement discontinu

Lestrade-Carbonnel, André 07 June 1977 (has links) (PDF)
Présentation de méthodes d'évaluation de la sureté de fonctionnement de systèmes numériques. On classe ces méthodes en deux catégories: les méthodes d'évaluation prévisionnelle des performances de sureté,les méthodes d'évaluation à priori. Développement d'un outil d'aide à la conception plus particulièrement pour la première catégorie. Modélisation de structures fonctionnant de manière non continue.
5

Gestion de vulnérabilités voix sur IP / Voice over IP vulnerability assessment

Abdelnur, Humberto Jorge 30 March 2009 (has links)
Les solutions voix sur IP (VoIP) sont actuellement en plein essor et gagnent tous le jours de nouveaux marché en raison de leur faible coût et d'une palette de services riche. Comme la voix sur IP transite par l'Internet ou utilise ses protocoles, elle devient la cible de multiples attaques qui peuvent mettre son usage en péril. Parmis les menaces les plus dangereuses on trouve les bugs et les failles dans les implantations logicielles des équipements qui participent à la livraison de ces services. Cette thése comprend trois contributions à l'amélioration de la sécurité des logiciels. La première est une architecture d'audit de sécurité pour les services VoIP intégrant découverte, gestion des données et attaques à des fins de test. La seconde contribution consiste en la livraison d'une approche autonome de discrimination de signatures de messages permettant l'automatisation de la fonction de fingerprinting passif utilisée pour identifier de façon unique et non ambigüe la source d'un message. La troisième contribution porte sur la détection dynamique de vulnérabilités dans des états avancés d'une interaction protocolaire avec un équipement cible. L'expérience acquise dans la recherche de vulnérabilités dans le monde de la VoIP avec nos algorithmes est également partagée dans cette thèse. / VoIP networks are in a major deployment phase and are becoming widely accepted due to their extended functionality and cost efficiency. Meanwhile, as VoIP traffic is transported over the Internet, it is the target of a range of attacks that can jeopardize its proper functionality. Assuring its security becomes crucial. Among the most dangerous threats to VoIP, failures and bugs in the software implementation will continue rank high on the list of vulnerabilities. This thesis provides three contributions towards improving software security. The first is a VoIP specific security assessment framework integrated with discovery actions, data management and security attacks allowing to perform VoIP specific assessment tests. The second contribution consists in an automated approach able to discriminate message signatures and build flexible and efficient passive fingerprinting systems able to identify the source entity of messages in the network. The third contribution addresses the issue of detecting vulnerabilities using a stateful fuzzer. It provides an automated attack approach capable to track the state context of a target device and we share essential practical experience gathered over a two years period in searching for vulnerabilities in the VoIP space.
6

Conception d'un modèle et de frameworks de distribution d'applications sur grappes de PCs avec tolérance aux pannes à faible coût / Design of a model and frameworks for application distribution on PC clusters with low-overhead fault tolerance

Makassikis, Constantinos 02 February 2011 (has links)
Les grappes de PCs constituent des architectures distribuées dont l'adoption se répand à cause de leur faible coût mais aussi de leur extensibilité en termes de noeuds. Notamment, l'augmentation du nombre des noeuds est à l'origine d'un nombre croissant de pannes par arrêt qui mettent en péril l'exécution d'applications distribuées. L'absence de solutions efficaces et portables confine leur utilisation à des applications non critiques ou sans contraintes de temps.MoLOToF est un modèle de tolérance aux pannes de niveau applicatif et fondée sur la réalisation de sauvegardes. Pour faciliter l'ajout de la tolérance aux pannes, il propose une structuration de l'application selon des squelettes tolérants aux pannes, ainsi que des collaborations entre le programmeur et le système de tolérance des pannes pour gagner en efficacité. L'application de MoLOToF à des familles d'algorithmes parallèles SPMD et Maître-Travailleur a mené aux frameworks FT-GReLoSSS et ToMaWork respectivement. Chaque framework fournit des squelettes tolérants aux pannes adaptés aux familles d'algorithmes visées et une mise en oeuvre originale. FT-GReLoSSS est implanté en C++ au-dessus de MPI alors que ToMaWork est implanté en Java au-dessus d'un système de mémoire partagée virtuelle fourni par la technologie JavaSpaces. L'évaluation des frameworks montre un surcoût en temps de développement raisonnable et des surcoûts en temps d'exécution négligeables en l'absence de tolérance aux pannes. Les expériences menées jusqu'à 256 noeuds sur une grappe de PCs bi-coeurs, démontrent une meilleure efficacité de la solution de tolérance aux pannes de FT-GReLoSSS par rapport à des solutions existantes de niveau système (LAM/MPI et DMTCP). / PC clusters are distributed architectures whose adoption spreads as a result of their low cost but also their extensibility in terms of nodes. In particular, the increase in nodes is responsable for the increase of fail-stop failures which jeopardize distributed applications. The absence of efficient and portable solutions limits their use to non critical applications or without time constraints. MoLOToF is a model for application-level fault tolerance based on checkpointing. To ease the addition of fault tolerance, it proposes to structure applications using fault-tolerant skeletons as well as collaborations between the programmer and the fault tolerance system to gain in efficiency. The application of MoLOToF on SPMD and Master-Worker families of parallel algorithms lead to FT-GReLoSSS and ToMaWork frameworks respectively. Each framework provides fault-tolerant skeletons suited to targeted families of algorithms and an original implementation. FT-GReLoSSS uses C++ on top of MPI while ToMaWork uses Java on top of virtual shared memory system provided by JavaSpaces technology. The frameworks' evaluation reveals a reasonable time development overhead and negligible runtime overheads in absence of fault tolerance. Experiments up to $256$ nodes on a dualcore PC cluster, demonstrate a better efficiency of FT-GReLoSSS' fault tolerance solution compared to existing system-level solutions (LAM/MPI and DMTCP)
7

L'ergonomie co-concepteur : quelle contribution à l'analyse des besoins à la conception de systèmes informatiques industriels?

Couix, Stanislas 06 February 2012 (has links) (PDF)
Un des buts de l'ergonomie est de participer à la conception des systèmes humain-machine. Il est largement reconnu que la contribution de l'ergonomie doit intervenir le plus tôt possible dans le processus de conception, depuis la découverte des besoins des utilisateurs jusqu'à la définition des exigences et des spécifications de conception, c'est-à-dire dès l'analyse des besoins. L'objectif de la thèse est d'analyser notre propre participation, en tant qu'ergonome co-concepteur, à l'analyse des besoins d'un projet de conception d'EDF R&D concernant un nouveau système informatique pour le pilotage de réacteurs nucléaires. Au cours de celui-ci, nous avons collaboré avec les ingénieurs du projet et les futurs utilisateurs dans la définition des différents aspects du système (fonctionnel, organisationnel, opérationnel, interaction et physique) à travers la formulation d'exigences et de spécifications. Cette collaboration s'est cristallisée à travers la rédaction du cahier des charges final. Outre l'observation de notre intervention dans le projet, trois études empiriques ont été menées. Dans chacune d'elles, notre rôle spécifique à différentes étapes de l'analyse des besoins est analysé par rapport aux rôles des ingénieurs et des utilisateurs. La première étude détaille notre contribution à l'identification et à la formalisation des exigences. La seconde étude analyse notre concours à la rédaction des spécification. Enfin, la troisième étude met en lumière notre participation à l'évolution de la première version des exigences et des spécifications jusqu'à leur version définitive. L'ensemble de ces travaux indique plusieurs résultats importants. Premièrement l'ergonome co-concepteur ne doit pas se limiter à ce statut pour agir globalement sur la situation de travail. Deuxièmement, contrairement à ce qu'indique la littérature, les étapes de l'analyse ergonomique des besoins sont plutôt réalisées en parallèle que de manière séquentielle. Troisièmement, l'ergonome va privilégier des contacts différents selon les phases de l'intervention. Il sera plutôt en contact avec les futurs utilisateurs lors de l'identification des besoins et surtout en lien avec l'équipe de conception lors des phases de spécification. Cependant, dans ces phases ultérieures, les séances de travail avec les utilisateurs font plus évoluer le système que les autres séances de travail. Quatrièmement, les études montrent que les différents acteurs impliqués ont un domaine d'expertise spécifique, mais complémentaire, aussi bien pour définir les exigences que les spécifications. Par exemple, dans la définition des spécifications, l'ergonome va formuler les éléments du système accessibles à l'utilisateur alors que les ingénieurs vont spécifier les éléments techniques nécessaires au fonctionnement, mais inaccessibles aux utilisateurs. Enfin, les résultats indiquent que l'ergonome ne s'appuie pas uniquement sur les éléments recueillis lors des analyses de terrain pour produire des exigences et des spécifications. Les analyses de terrain ont surtout été utilisées pour justifier les aspects fonctionnels, organisationnels et opérationnels du système. A contrario, les spécifications de l'interface du système proviennent plutôt de son expertise. Enfin, nous proposons une méthode ergonomique d'analyse des besoins. Par rapport aux méthodes actuelles, celle-ci met davantage l'accent sur les aspects collectifs de ce type d'intervention et détaille les apports de l'ergonome à la définition des différentes dimensions du système.
8

L'ergonomie co-concepteur : quelle contribution à l'analyse des besoins à la conception de systèmes informatiques industriels? / The ergonomist as a co-designer : which contribution to needs analysis in the design of industrial computer systems ?

Couix, Stanislas 06 February 2012 (has links)
Un des buts de l'ergonomie est de participer à la conception des systèmes humain-machine. Il est largement reconnu que la contribution de l'ergonomie doit intervenir le plus tôt possible dans le processus de conception, depuis la découverte des besoins des utilisateurs jusqu'à la définition des exigences et des spécifications de conception, c'est-à-dire dès l'analyse des besoins. L'objectif de la thèse est d'analyser notre propre participation, en tant qu'ergonome co-concepteur, à l'analyse des besoins d'un projet de conception d'EDF R&D concernant un nouveau système informatique pour le pilotage de réacteurs nucléaires. Au cours de celui-ci, nous avons collaboré avec les ingénieurs du projet et les futurs utilisateurs dans la définition des différents aspects du système (fonctionnel, organisationnel, opérationnel, interaction et physique) à travers la formulation d'exigences et de spécifications. Cette collaboration s'est cristallisée à travers la rédaction du cahier des charges final. Outre l'observation de notre intervention dans le projet, trois études empiriques ont été menées. Dans chacune d'elles, notre rôle spécifique à différentes étapes de l'analyse des besoins est analysé par rapport aux rôles des ingénieurs et des utilisateurs. La première étude détaille notre contribution à l'identification et à la formalisation des exigences. La seconde étude analyse notre concours à la rédaction des spécification. Enfin, la troisième étude met en lumière notre participation à l'évolution de la première version des exigences et des spécifications jusqu'à leur version définitive. L'ensemble de ces travaux indique plusieurs résultats importants. Premièrement l'ergonome co-concepteur ne doit pas se limiter à ce statut pour agir globalement sur la situation de travail. Deuxièmement, contrairement à ce qu'indique la littérature, les étapes de l'analyse ergonomique des besoins sont plutôt réalisées en parallèle que de manière séquentielle. Troisièmement, l'ergonome va privilégier des contacts différents selon les phases de l'intervention. Il sera plutôt en contact avec les futurs utilisateurs lors de l'identification des besoins et surtout en lien avec l'équipe de conception lors des phases de spécification. Cependant, dans ces phases ultérieures, les séances de travail avec les utilisateurs font plus évoluer le système que les autres séances de travail. Quatrièmement, les études montrent que les différents acteurs impliqués ont un domaine d'expertise spécifique, mais complémentaire, aussi bien pour définir les exigences que les spécifications. Par exemple, dans la définition des spécifications, l'ergonome va formuler les éléments du système accessibles à l'utilisateur alors que les ingénieurs vont spécifier les éléments techniques nécessaires au fonctionnement, mais inaccessibles aux utilisateurs. Enfin, les résultats indiquent que l'ergonome ne s'appuie pas uniquement sur les éléments recueillis lors des analyses de terrain pour produire des exigences et des spécifications. Les analyses de terrain ont surtout été utilisées pour justifier les aspects fonctionnels, organisationnels et opérationnels du système. A contrario, les spécifications de l'interface du système proviennent plutôt de son expertise. Enfin, nous proposons une méthode ergonomique d'analyse des besoins. Par rapport aux méthodes actuelles, celle-ci met davantage l'accent sur les aspects collectifs de ce type d'intervention et détaille les apports de l'ergonome à la définition des différentes dimensions du système. / One of the goals of ergonomics is to contribute to the design of man-machine systems. It is widely recognized that the involvement of ergonomics must take place as early as possible in the design process, starting with the discovery of user needs, up to the definition of design requirements and specifications - i.e. from user needs analysis onwards. The thesis aims to analyze our own participation, as an ergonomist and a co-designer, to user needs analysis in a design project at the EDF R&D department. The project dealt with a new computer system to operate nuclear reactors. During this work, we collaborated with engineers from the project and with future users, to define various aspects of the system (functional, organizational, operational, interaction-based, and physical) byformulating requirements and specifications. This collaboration materialized in the final specifications. In addition to observing our own involvement in the project, we carried out three empirical analyzed, in contrast to the roles of engineers and end users. The first study describes our contribution to identifying and formalizing user requirements. The second study analyses our role in writing the system specifications. Finally, the third study highlights our participation to the evolutions of the first version of requirements and specifications, towards their final version. This work has led to several important results. First, ergonomist as a co-designer should not restict his participation to this status, and should instead act globally on the work situation. Second, in contrast to claims in the literature, the stages of ergonomic needs analysis are carried out simultaneously rather than sequentially. Third, ergonomists tend are more often in contact with end users during user needs identification and more often in contact with the design team during the stage of system specification. However, in these later stages, work sessions with end users allow the system to evolve more than in other types of work sessions. Fourth, the studies show that the various stakeholders involved each have a specific field of expertise. These fields of expertise complement the expertise of ergonomics, both when defining requirements and when defining system specifications. For example, when defining specifications, ergonomists formulate the set of system elements which are accessible to users, whereas engineers specify the set of technical elements which are necessary to system operation, which are inaccessible to users. Finally, our results show that the ergonomist does not rely solely on elements gathered in field investigations to produce requirements and specifications. Field analyses are most often used to tackle the functional, organizational, and operational aspects of the system, whereas defining the elements of the system interface relies more on the ergonomist's own expertise. Finally, we propose an ergonomic method for user needs analysis. Compared with current methods, our method highlights the collective aspects of such interventions, and specifies the contributions of ergonomics to defining the various dimensions of a system.
9

Advances in secure remote electronic voting

Dossogne, Jérôme 30 October 2015 (has links)
In this document, most readers should be easily introduced to the challengesoffered to a designer, an implementer and a user when using electronic voting.Some of these challenges are receiving an answer in the second part of thedocument where we introduce and describe several distinct scientific resultsobtained during our years as PhD student covering essentially the years 2009 to2011 included. All these results are aimed towards either better understandingthe issues of electronic voting or solving them. Nonetheless, a reader might beinterested in picking one of these contributions to use for his own electronicvoting system while leaving the rest. That is, the different chapters of thesecond part of the document are able to stand on their own most of the timeand could be used without the others which leads us to introduce each of themseparately.After concluding in the third part, we provide a certain amount of appendicesthat were not thoroughly discussed within the second part of the documentbut that might be of interest to the reader. These appendices are made ofvarious researches, collaborations and analyzes that we performed during thosesame years and which are related to electronic voting. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
10

Requirement-driven Design and Optimization of Data-Intensive Flows

Jovanovic, Petar 26 September 2016 (has links)
Data have become number one assets of today's business world. Thus, its exploitation and analysis attracted the attention of people from different fields and having different technical backgrounds. Data-intensive flows are central processes in today’s business intelligence (BI) systems, deploying different technologies to deliver data, from a multitude of data sources, in user-preferred and analysis-ready formats. However, designing and optimizing such data flows, to satisfy both users' information needs and agreed quality standards, have been known as a burdensome task, typically left to the manual efforts of a BI system designer. These tasks have become even more challenging for next generation BI systems, where data flows typically need to combine data from in-house transactional storages, and data coming from external sources, in a variety of formats (e.g. social media, governmental data, news feeds). Moreover, for making an impact to business outcomes, data flows are expected to answer unanticipated analytical needs of a broader set of business users' and deliver valuable information in near real-time (i.e. at the right time). These challenges largely indicate a need for boosting the automation of the design and optimization of data-intensive flows. This PhD thesis aims at providing automatable means for managing the lifecycle of data-intensive flows. The study primarily analyzes the remaining challenges to be solved in the field of data-intensive flows, by performing a survey of current literature, and envisioning an architecture for managing the lifecycle of data-intensive flows. Following the proposed architecture, we further focus on providing automatic techniques for covering different phases of the data-intensive flows' lifecycle. In particular, the thesis first proposes an approach (CoAl) for incremental design of data-intensive flows, by means of multi-flow consolidation. CoAl not only facilitates the maintenance of data flow designs in front of changing information needs, but also supports the multi-flow optimization of data-intensive flows, by maximizing their reuse. Next, in the data warehousing (DW) context, we propose a complementary method (ORE) for incremental design of the target DW schema, along with systematically tracing the evolution metadata, which can further facilitate the design of back-end data-intensive flows (i.e. ETL processes). The thesis then studies the problem of implementing data-intensive flows into deployable formats of different execution engines, and proposes the BabbleFlow system for translating logical data-intensive flows into executable formats, spanning single or multiple execution engines. Lastly, the thesis focuses on managing the execution of data-intensive flows on distributed data processing platforms, and to this end, proposes an algorithm (H-WorD) for supporting the scheduling of data-intensive flows by workload-driven redistribution of data in computing clusters. The overall outcome of this thesis an end-to-end platform for managing the lifecycle of data-intensive flows, called Quarry. The techniques proposed in this thesis, plugged to the Quarry platform, largely facilitate the manual efforts, and assist users of different technical skills in their analytical tasks. Finally, the results of this thesis largely contribute to the field of data-intensive flows in today's BI systems, and advocate for further attention by both academia and industry to the problems of design and optimization of data-intensive flows. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished

Page generated in 0.0726 seconds