• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 6
  • 4
  • 1
  • Tagged with
  • 29
  • 18
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Exploitation des informations de traçabilité pour l'optimisation des choix en production et en logistique / Exploiting traceability information in order to optimize production and logistic choices

Tamayo Giraldo, Simon 05 December 2011 (has links)
Dans le cours des dernières années, la traçabilité s’est positionnée au cœur de plusieurs enjeux fondamentaux pour les entreprises. Cependant, cette notion est encore aujourd’hui vue comme une contrainte, servant uniquement à respecter des impositions légales et à rappeler des produits non-conformes. Dans ce projet, nous nous sommes attachés à élargir la définition de traçabilité aux domaines de la prévision et de la protection, pour qu’elle ne soit plus perçue comme une obligation supplémentaire à assumer, mais comme un véritable argument d’avantage concurrentiel. Ces travaux de recherche sont consacrés à l’exploitation des informations de traçabilité par l’utilisation des techniques d’intelligence artificielle et de recherche opérationnelle, afin de proposer des actions d’amélioration en production et en logistique. Ils ont été menés en collaboration avec la société ADENTS International, experte en traçabilité. Ce projet est composé de deux principaux axes de travail : l’un portant sur le diagnostic de la criticité d’une production, en fonction des informations de traçabilité et l’autre sur les actions à entreprendre par rapport à ce diagnostic. Dans le premier, nous remarquons l’importance de la notion de dispersion de matières premières et des composants, ainsi que celle des écarts en termes de qualité et de sécurité. Dans le second, nous nous intéressons d’avantage à la notion de rappel de produits, visant une gestion de transformations adaptée en aval de la production, afin de minimiser ces rappels. Pour la mise en place de ces deux grandes activités, nous nous sommes engagés à proposer des modèles et des méthodes flexibles et réactives, pouvant s’adapter à la versatilité ontologique des flux d’informations de traçabilité / The recent product traceability requirements demonstrate an industrial need to improve the information management strategies within traceability systems in order to evolve from reactivity to proactivity. The aim of this work is to exploit the recently available real-time access to traceability information. We propose the utilization of artificial intelligence and operational research techniques to analyse the information and therefore suggest improvement actions. This research project is composed of two main activities: first, the diagnosis of the criticality value associated to a production regarding the traceability information and second, the actions to undertake as a result of this diagnosis. One of the issues studied in this thesis is the problem of minimizing the size of products recall. Initially the problem of raw materials dispersion minimization is analysed. Then a result of the dispersion rate along with other production criteria are evaluated in order to determine a risk level criterion in terms of quality and security that we name “production criticality”. This criterion is used subsequently to optimize deliveries dispatch with the purpose of minimizing the number of batch recalls in case of crisis. This is achieved by implementing flexible and reactive tools
12

Evaluation des scénarii de dégradation des produits de construction

Talon, Aurélie 07 September 2006 (has links) (PDF)
Ce mémoire de thèse présente une méthodologie d'évaluation des profils multi-performances des produits de construction à des dates fixées de leurs vies en oeuvre, exploitant l'ensemble des données disponibles (durées, probabilités et niveaux de performances), multi-sources et multi-échelles (géométrique, phénoménologique, fonctionnelle et temporelle). Cette méthodologie comprend quatre étapes : - analyse qualitative : recherche des scénarii de dégradation, - analyse quantitative temporelle : évaluation des durées et des probabilités d'apparition des scénarii et gestion de leurs interactions, - analyse quantitative de la criticité : hiérarchisation des scénarii, - analyse quantitative des performances : obtention des profils multi-performances. Elle englobe des méthodes, des bases de données et des outils de représentation, applicables indépendamment les uns des autres. Elle est illustrée sur une fenêtre fixe, des murs en béton et en briques et un complexe mur en béton et fenêtre
13

Etudes de la convergence d'un calcul Monte Carlo de criticité : utilisation d'un calcul déterministe et détection automatisée du transitoire

Jinaphanh, Alexis 03 December 2012 (has links) (PDF)
Les calculs Monte Carlo en neutronique-criticité permettent d'estimer le coefficient de multiplication effectif ainsi que des grandeurs locales comme le flux ou les taux de réaction. Certaines configurations présentant de faibles couplages neutroniques (modélisation de cœurs complets, prise en compte de profils d'irradiations, ...) peuvent conduire à de mauvaises estimations du kef f ou des flux locaux. L'objet de cette thèse est de contribuer à rendre plus robuste l'algorithme Monte Carlo utilisé et améliorer la détection de la convergence. L'amélioration du calcul envisagée passe par l'utilisation, lors du calcul Monte Carlo, d'un flux adjoint obtenu par un pré-calcul détermi- niste réalisé en amont. Ce flux adjoint est ensuite utilisé pour déterminer le positionnement de la première génération, modifier la sélection des sites de naissance, et modifier la marche aléatoire par des stratégies de splitting et de roulette russe. Une méthode de détection automatique du transitoire a été développée. Elle repose sur la modélisation des séries de sortie par un processus auto régressif d'ordre 1 et un test statistique dont la variable de décision est la moyenne du pont de Student. Cette méthode a été appli- quée au kef f et à l'entropie de Shannon. Elle est suffisamment générale pour être utilisée sur n'importe quelle série issue d'un calcul Monte Carlo itératif. Les méthodes développées dans cette thèse ont été testées sur plusieurs cas simplifiés présentant des difficultés de convergence neutroniques.
14

Etudes de la convergence d'un calcul Monte Carlo de criticité : utilisation d'un calcul déterministe et détection automatisée du transitoire / Studies on the convergence of a Monte Carlo criticality calculation : coupling with a deterministic code and automated transient detection

Jinaphanh, Alexis 03 December 2012 (has links)
Les calculs Monte Carlo en neutronique-criticité permettent d'estimer le coefficient de multiplication effectif ainsi que des grandeurs locales comme le flux ou les taux de réaction. Certaines configurations présentant de faibles couplages neutroniques (modélisation de cœurs complets, prise en compte de profils d'irradiations, ...) peuvent conduire à de mauvaises estimations du kef f ou des flux locaux. L'objet de cette thèse est de contribuer à rendre plus robuste l'algorithme Monte Carlo utilisé et améliorer la détection de la convergence. L'amélioration du calcul envisagée passe par l'utilisation, lors du calcul Monte Carlo, d'un flux adjoint obtenu par un pré-calcul détermi- niste réalisé en amont. Ce flux adjoint est ensuite utilisé pour déterminer le positionnement de la première génération, modifier la sélection des sites de naissance, et modifier la marche aléatoire par des stratégies de splitting et de roulette russe. Une méthode de détection automatique du transitoire a été développée. Elle repose sur la modélisation des séries de sortie par un processus auto régressif d'ordre 1 et un test statistique dont la variable de décision est la moyenne du pont de Student. Cette méthode a été appli- quée au kef f et à l'entropie de Shannon. Elle est suffisamment générale pour être utilisée sur n'importe quelle série issue d'un calcul Monte Carlo itératif. Les méthodes développées dans cette thèse ont été testées sur plusieurs cas simplifiés présentant des difficultés de convergence neutroniques. / Monte Carlo criticality calculation allows to estimate the effective mu- tiplication factor as well as local quantities such as local reaction rates. Some configurations presenting weak neutronic coupling (high burn up pro- file, complete reactor core, ...) may induce biased estimations for kef f or reaction rates. In order to improve robustness of the iterative Monte Carlo méthods, a coupling with a deterministic code was studied. An adjoint flux is obtained by a deterministic calculation and then used in the Monte Carlo. The initial guess is then automated, the sampling of fission sites is modi- fied and the random walk of neutrons is modified using splitting and russian roulette strategies. An automated convergence detection method has been developped. It locates and suppresses the transient due to the initialization in an output series, applied here to kef f and Shannon entropy. It relies on modeling stationary series by an order 1 auto regressive process and applying statistical tests based on a Student Bridge statistics. This method can easily be extended to every output of an iterative Monte Carlo. Methods developed in this thesis are tested on different test cases.
15

Analyse statique de l'effet des erreurs de configuration dans des FGPA configurés par SRAM et amélioration de robustesse / Modeling faults in SRAM based FPGA and appropriate protections

Ferron, Jean-Baptiste 26 March 2012 (has links)
Cette thèse s'intéresse en premier lieu à l'analyse des effetsfonctionnels des erreurs dans laconfiguration de FPGAs à base de SRAM. Ces erreurs peuvent provenir deperturbations naturelles(rayonnements, particules) ou d'attaques volontaires, par exemple avecun laser. La famille Virtex IIde Xilinx est utilisée comme premier cas pratique d'expérimentation,puis une comparaison est réaliséeavec la famille AT40K de chez ATMEL. Ceci a permis de mieux comprendrel'impact réel dedifférentes sources de perturbations, et les motifs d'erreur devantréellement être pris en compte pouraméliorer la robustesse d'un circuit implanté sur ce type detechnologie. Cette étude a nécessité ledéveloppement d'outils de conception spécifiques, permettantd'automatiser les analyses. Uneméthodologie innovante est proposée pour l'évaluation de lasensibilité de la mémoire de configurationaux SEUs : une classification des bits de configuration est établie enfonction des effets produits parleur inversion sur le fonctionnement normal de l'application. Cecipermet de déterminer les zones lesplus critiques, autorisant le développement de stratégies deprotection sélectives et à faible coût. / This thesis deals primarily with the analysis of the functionaleffects of errors in the configuration ofSRAM-based FPGAs. These errors can be due either to naturalperturbations (radiations, particles) orto malicious attacks, for example with a laser. The Xilinx Virtex IIfamily is used as first case study,then a comparison is made with the ATMEL AT40K family. This workallowed us a betterunderstanding of the real impact of perturbations, and of the errorpatterns that need to be taken intoaccount when improving the robustness of a circuit implemented on thistype of technology. Thisstudy required the development of specific design tools to automatethe analyses. An innovativemethodology is proposed for the evaluation of the configuration memorysensitivity to SEUs: aclassification of configuration bits is made with respect to theeffects produced on the application by asingle bit-flip. This enables us to identify the most critical areas,and to propose selective hardeningsolutions, improving the global reliability of the application at low cost.
16

Paulo Freire como expressão de um tempo de crise: uma história de transição na consciência da sociedade brasileira

Monteiro, Paulo Henrique Rezende 31 August 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-16T10:36:21Z No. of bitstreams: 1 paulohenriquerezendemonteiro.pdf: 1258190 bytes, checksum: 1f709fedf82bd1aad66d4f85f5465163 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-16T14:15:48Z (GMT) No. of bitstreams: 1 paulohenriquerezendemonteiro.pdf: 1258190 bytes, checksum: 1f709fedf82bd1aad66d4f85f5465163 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-16T14:16:48Z (GMT) No. of bitstreams: 1 paulohenriquerezendemonteiro.pdf: 1258190 bytes, checksum: 1f709fedf82bd1aad66d4f85f5465163 (MD5) / Made available in DSpace on 2017-03-16T14:16:48Z (GMT). No. of bitstreams: 1 paulohenriquerezendemonteiro.pdf: 1258190 bytes, checksum: 1f709fedf82bd1aad66d4f85f5465163 (MD5) Previous issue date: 2015-08-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Paulo Freire como expressão de um tempo de crise é uma história sobre transição de consciência na sociedade brasileira. Pretendeu ser um trabalho que contribuísse para a revisão da obra do ilustre pernambucano a partir de seu nascedouro — o texto Educação e Atualidade Brasileira de 1959 — à luz da Hermenêutica da Consciência Histórica: a teoria ricoeuriana sobre as ações da compreensão em sua relação com a interpretação de textos onde se entende agente também como paciente da história. A teorização de Reinhard Koselleck sobre o tempo histórico como algo entre o espaço de experiência e o horizonte de expectativa e a Modernidade como expressão da concepção iluminista da história marcada pelos topói: tempo novo, aceleração da marcha rumo ao progresso e disponibilidade da história e sua crise também referenciaram o trabalho. A configuração freireana foi apresentada como correspondente de um tempo em transição entre aquela concepção iluminista da história e uma nova história, esta orientada por um passado que pode e deve ser revisitado e revisto nas suas configurações e um futuro que deve ser delimitado em termos de projetos não totalitários, em suma, em utopias ética e politicamente viáveis. / Paulo Freire comme l'expression d'un moment de crise est une histoire sur la transition de conscience dans la société brésilienne. Il vise à être un travail qui a contribué à la révision de l'illustre pernambuco depuis sa naissance - le texte L'éducation et la Présent Brésilienne de 1959 - à la lumière de l'Herméneutique de la Conscience Historique: la théorie ricoeuriana sur les actions de la compréhension dans leur relation à la interprétation des textes où il et entendu agent aussi comme patient de l'histoire. La théorie de Reinhard Koselleck sur le temps historique comme quelque chose entre l'expérience de l'espace et l'horizon d'attente et la Modernité comme une expression de la conception des illuministes de l'histoire marquée par topoi: temps nouveau, l'accélération du mars vers le progrès et la disponibilité de l'histoire et sa crise ont aussi référence du travail. La configuration freireana a été présenté comme correspondant d’un temps en transition et cette conception illuministe de l'histoire et une nouvelle histoire, cette orientée par un passé qui peut et doit être revu et modifié dans leurs configurations et un avenir qui doit être définie en termes de projets pas totalitaire, en bref, pour utopies éthiquement et politiquement viable.
17

Mixed criticality management into real-time and embedded network architectures : application to switched ethernet networks / Gestion de la criticité mixte dans les réseaux temps-réel embarqués et application à ethernet commuté

Cros, Olivier 08 December 2016 (has links)
La CM (Criticité Mixte) est une solution pour intégrer différents niveaux de criticité dans le même système au sein des mécanismes industriels intégrant des infrastructures réseau différentes. Notre objectif est de proposer des solutions pour intégrer la criticité mixte dans des domaines industriels hautements contraints afin de mélanger des flux de différentes criticité au sein de la même infrastructure. Cette intégration implique des contraintes d'isolation : l'impact du traffic non critique sur le traffic critique doit être borné, et le plus faible possible. C'est une condition indispensable pour assurer le respect des contraintes de temps de transmission. Afin d'analyser ces délais de transmission et de centrer notre travail sur le déterminisme de ces transmissions, nous avons recours à une méthode de calcul de délai de bout en bout appelé l'approche par trajectoires. Dans ce travail, nous utilisons une version corrigée de l'approche par trajectoires, prenant en compte la serialisation des messages.Afin d'assurer les contraintes de délais dans les réseaux à criticité mixte, nous présentons tout d'abord un modèle théorique d'intégration de la criticité mixte. Ce modèles est issu de l'ordonnancement temps-réel en contexte processeur. Ce modèle présente une modélisation des flux considérant que chaque flux peut être de plusieurs niveaux de criticité.Pour intégrer la criticité mixte dans les réseaux temps-réel, nous proposons deux protocoles différents. Le premier est le protocole centralisé. Il est organisé autour de la désignation d'un noeud central dans le réseau, responsable de la synchronisation des niveaux de criticité de chaque noeud via a un mécanisme d'émission multiple fiable. Ce mécanisme est chargé de faire changer les niveaux de criticité de tous les noeuds au même instant. Le second protocole est basé sur une approche distribuée. Il propose une gestion locale à chaque noeud de la criticité. Chaque noeud gère individuellement son propre niveau de criticité interne. Ce protocol permet de préserver les transmissions d'une part du traffic non critique au sein du réseau, même en parallèle de transmissions de flux critiques.Afin de proposer une implémentation de ces protocoles dans Ethernet, nous détaillons comment réutiliser la marque de l'en-tête de Ethernet 802.1Q pour spécifier le niveau criticité d'un message directement au sein de la trame. Grâce à cette solution, chaque flux du réseau est marqué de son niveau de criticité et cette information peut être décodée par les noeuds du réseau afin d'opérer un ordonnancement en conséquence. De plus, en gestion centralisée, nous proposons une solution permettant d'intégrer les informations de gestion de la criticité directement dans les trames du protocole de synchronization d'horloge gls{PTP}.Durant notre travail, nous avons conçu un outil de simulation dénommé gls{ARTEMIS}. Cet outil est utilisé pour l'analyse de délais de transmission dans des réseaux temps-réel et pour l'analyse de scénarios d'ordonnancement à criticité mixte. Les résultats de simulation obtenus nous permettent de formuler différentes hypothèses sur les garanties de qualité de service offertes par les protocoles centralisé et décentralisé. En termes de transmission de trafic non critique, le protocole décentralisé permet d'assurer la transmission d'une certaine quantité de messages grâce au fait que certains noeuds du réseau soient resté en mode non-critique.Pour conclure, nous proposons des solutions d'intégration de la criticité mixte à la fois dans des contextes industriels lourds et dans des architectures Ethernet grand public. Les solutions proposées peuvent être à la fois adaptées à des réseaux synchronisés ou non synchronisés. Selon le protocole, la configuration individuelle à appliquer à chaque noeud peut être réduite afin de proposer des solutions implémentables sur du matériel moins coûteux / MC (Mixed-Criticality) is an answer for industrial systems requiring different network infrastructures to manage informations of different criticality levels inside the same system. Our purpose in this work is to find solutions to integrate gls{MC} inside highly constrained industrial domains in order to mix flows of various criticality levels inside the same infrastructure. This integration induces isolation constraints : the impact of non-critical traffic on critical traffic must be characterized and bounded. This a condition to respect timing constraints. To analyze transmission delays and focus on the determinism of transmissions, we use an end-to-end delay computation method called the trajectory approach. In our work, we use a corrected version of the trajectory approach taking into account the serialization of messages.To assure the respect of timing constraints in mixed critical networks, we first present a theoretical model of gls{MC} representation. This model is issued from gls{MC} tasks scheduling on processors. This model proposes a flow modelization which considers that each flow can be of one (low critical flows) or several criticality levels.To integrate gls{MC} inside gls{RT} networks, we propose two network protocols. The first is the centralized protocol. It is structured around the definition of a central node in the network, which is responsible for synchronizing the criticality level switch of each node through a reliable multicast protocol in charge of switching the network criticality level. This centralized protocol proposes solutions to detect the needs to change the criticality levels of all nodes and to transmit this information to the central node. The second protocol is based on a distributed approach. It proposes a local gls{MC} management on each node of a network. Each node individually manages its own internal criticality level. This protocol offers solutions to preserve when possible non-critical network flows even while transmitting critical flows in the network through weak isolation.In order to propose an implementation of these protocols inside Ethernet, we describe how to use Ethernet 802.1Q header tag to specify the criticality level of a message directly inside the frame. With this solution, each flow in the network is tagged with its criticality level and this information can be analyzed by the nodes of the network to transmit the messages from the flow or not. Additionnally, for the centralized approach, we propose a solution integrating gls{MC} configuration messages into gls{PTP} clock-synchronization messages to manage criticality configuration information in a network.In this work, we designed a simulation tool denoted as gls{ARTEMIS} (Another Real-Time Engine for Message-Issued Simulation). This tool is dedicated to gls{RT} networks analysis and gls{MC} integration scheduling scenarios. This tool, based on open and modular development guidelines, has been used all along our work to validate the theoretical models we presented through simulation. We integrated both centralized and decentralized protocols inside gls{ARTEMIS} core. The obtained simulations results allowed us to provide information about the gls{QOS} guarantees offered by both protocols. Concerning non-critical traffic : the decentralized protocol, by permitting specific nodes to stay in non-critical nodes, assures a highest success ratio of non-critical traffic correct transmission.As a conclusion, we propose solutions to integrate gls{MC} inside both industrial and gls{COTS} Ethernet architectures. The solutions can be either adapted to clock-synchronized or non clock-synchronized protocols. Depending on the protocol, the individual configuration required by each switch can be reduced to adapt these solutions to less costly network devices
18

Surveillance comportementale de systèmes et logiciels embarqués par signature disjointe / Behavioral monitoring for embedded systems and software by disjoint signature analysis

Bergaoui, Selma 06 June 2013 (has links)
Les systèmes critiques, parmi lesquels les systèmes embarqués construits autour d'un microprocesseur mono-cœur exécutant un logiciel d'application, ne sont pas à l'abri d'interférences naturelles ou malveillantes qui peuvent provoquer des fautes transitoires. Cette thèse porte sur des protections qui peuvent être implantées pour détecter les effets de telles fautes transitoires sans faire d'hypothèses sur la multiplicité des erreurs générées. De plus, ces erreurs peuvent être soit des erreurs de flot de contrôle soit des erreurs sur les données. Une nouvelle méthode de vérification de flot de contrôle est tout d'abord proposée. Elle permet de vérifier, sans modifier le système initial, que les instructions du programme d'application sont lues sans erreur et dans le bon ordre. Les erreurs sur les données sont également prises en compte par une extension de la vérification de flot de contrôle. La méthode proposée offre un bon compromis entre les différents surcoûts, le temps de latence de détection et la couverture des erreurs. Les surcoûts peuvent aussi être ajustés aux besoins de l'application. La méthode est mise en œuvre sur un prototype, construit autour d'un microprocesseur Sparc v8. Les fonctions d'analyse de criticité développées dans le cadre de la méthodologie proposée sont également utilisées pour évaluer l'impact des options de compilation sur la robustesse intrinsèque du logiciel d'application. / Critical systems, including embedded systems built around a single core microprocessor running a software application, can be the target of natural or malicious interferences that may cause transient faults. This work focuses on protections that can be implemented to detect the effects of such transient faults without any assumption about the multiplicity of generated errors. In addition, those errors can be either control flow errors or data errors. A new control flow checking method is first proposed. It monitors, without modifying the original system, that the instructions of the microprocessor application program are read without error and in the proper order. Data errors are also taken into account by an extension of the control flow checking. The proposed method offers a good compromise between overheads, latency detection and errors coverage. Trade-offs can also be tuned according to the application constraints. The methodology is demonstrated on a prototype built around a Sparc v8 microprocessor. Criticality evaluation functions developed in the frame of the proposed methodology are also used to evaluate the impact of compilation options on the intrinsic robustness of the application software.
19

Évaluation quantitative de séquences d’événements en sûreté de fonctionnement à l’aide de la théorie des langages probabilistes / Quantitative assessment of events sequences in dependability studies, based on probabilistic languages theory

Ionescu, Dorina-Romina 21 November 2016 (has links)
Les études de sûreté de fonctionnement (SdF) sont en général basées sur l’hypothèse d’indépendance des événements de défaillance et de réparation ainsi que sur l’analyse des coupes qui décrivent les sous-ensembles de composants entraînant la défaillance du système. Dans le cas des systèmes dynamiques pour lesquels l’ordre d’occurrence des événements a une incidence directe sur le comportement dysfonctionnel du système, il est important de privilégier l’utilisation de séquences d’événements permettant une évaluation des indicateurs de SdF plus précise que les coupes. Ainsi, nous avons proposé, dans une première partie de nos travaux, un cadre formel permettant la détermination des séquences d’événements qui décrivent l’évolution du système ainsi que leur évaluation quantitative, en recourant à la théorie de langages probabilistes et à la théorie des processus markoviens/semi-markoviens. L'évaluation quantitative des séquences intègrent le calcul de leur probabilité d'occurrence ainsi que leur criticité (coût et longueur des séquences). Pour l’évaluation des séquences décrivant l’évolution des systèmes complexes présentant plusieurs modes de fonctionnement ou de défaillance, une approche modulaire basée sur les opérateurs de composition (choix et concaténation) a été proposée. Celle-ci consiste à calculer la probabilité d'une séquence d'événements globale à partir d'évaluations réalisées localement, mode par mode. Les différentes contributions sont appliquées sur deux cas d'étude de taille et complexité croissante. / Dependability studies are often based on the assumption of events (failures and repairs) independence but also on the analyse of cut-set which describes the subsets of components causing a system failure. In the case of dynamic systems where the events occurrence order has a direct impact on the dysfunctional behaviour, it is important to promote using event sequences instead of cut-sets for dependability assessment. In the first part, a formal framework is proposed. It helps in determining sequences of events that describe the evolution of the system and their assessment, using the theory of probabilistic languages and the theory of Markov/semi-Markov processes. The assessment integrates the calculation of the probability occurrence of the event sequences and their criticality (cost and length). For the assessment of complex systems with multiple operating/failure modes, a modular approach based on composition operators (choice and concatenation) is proposed. Evaluation of the probability of a global sequence of events is performed from local Markov/semi-Markov models for each mode of the system. The different contributions are applied on two case studies with a growing complexity.
20

Surveillance comportementale de systèmes et logiciels embarqués par signature disjointe

Bergaoui, Selma 06 June 2013 (has links) (PDF)
Les systèmes critiques, parmi lesquels les systèmes embarqués construits autour d'un microprocesseur mono-cœur exécutant un logiciel d'application, ne sont pas à l'abri d'interférences naturelles ou malveillantes qui peuvent provoquer des fautes transitoires. Cette thèse porte sur des protections qui peuvent être implantées pour détecter les effets de telles fautes transitoires sans faire d'hypothèses sur la multiplicité des erreurs générées. De plus, ces erreurs peuvent être soit des erreurs de flot de contrôle soit des erreurs sur les données. Une nouvelle méthode de vérification de flot de contrôle est tout d'abord proposée. Elle permet de vérifier, sans modifier le système initial, que les instructions du programme d'application sont lues sans erreur et dans le bon ordre. Les erreurs sur les données sont également prises en compte par une extension de la vérification de flot de contrôle. La méthode proposée offre un bon compromis entre les différents surcoûts, le temps de latence de détection et la couverture des erreurs. Les surcoûts peuvent aussi être ajustés aux besoins de l'application. La méthode est mise en œuvre sur un prototype, construit autour d'un microprocesseur Sparc v8. Les fonctions d'analyse de criticité développées dans le cadre de la méthodologie proposée sont également utilisées pour évaluer l'impact des options de compilation sur la robustesse intrinsèque du logiciel d'application.

Page generated in 0.0995 seconds