1 |
La négociation de rôle dans la construction d'un événementGosselin, Stéphanie January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
2 |
La négociation de rôle dans la construction d'un événementGosselin, Stéphanie January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
|
3 |
Analyse de la performance de cours à bois à l'aide de la simulation à événements discretsVachon-Robichaud, Sébastien 13 December 2023 (has links)
Les cours à bois jouent un rôle essentiel dans le bon fonctionnement de la chaîne d'approvisionnement des produits forestiers. Ces dernières jouent un rôle de consolidation, de régularisation ainsi que de valorisation de la matière entre diverses étapes de transformation du bois. Depuis quelque temps, un nombre grandissant de gestionnaires de cours à bois cherchent à améliorer la performance opérationnelle de leurs cours à bois. Bien qu'une certaine quantité d'outils soient disponibles pour évaluer la performance des cours à bois, ces derniers sont très peu utilisés. Ce mémoire décrit un projet de recherche dans lequel un de ces outils, la simulation à événements discrets, est utilisé conjointement avec une méthodologie de design de cours à bois pour résoudre des problématiques réelles d'un partenaire industriel. Le projet est divisé en deux études de cas concernant deux cours à bois d'une même scierie. Le premier cas étudié porte sur la cour de bois rond, là où la matière première est stockée, et l'objectif est de comparer le plan d'aménagement actuel ainsi qu'un aménagement obtenu à l'aide de la méthodologie de design. Un modèle de simulation a été bâti avec le logiciel Simio pour effectuer ces comparaisons. La seconde étude de cas porte sur la cour de bois scié et concerne la réévaluation des charges de travail de la flotte d'équipements de manutention. Un second modèle de simulation à événements discrets a été bâti sur Simio pour évaluer les charges de travail et redistribuer les tâches des chargeuses. Les modèles de simulation développés ont démontré leur capacité à guider les gestionnaires vers des stratégies de gestion de leurs cours qui favorisent une meilleure utilisation des capacités disponibles. Par exemple, il a été possible de constater une réduction potentielle de l'ordre de 75% de la distance parcourue par certaines chargeuses grâce à ces modèles. Il a également été possible d'évaluer des rebalancements de charges de travail au niveau de la manutention et d'évaluer leur faisabilité avant d'appliquer le moindre changement sur les opérations réelles de la cour. / Wood yards play a critical role in the proper functioning of the forest products supply chain. They may play a role in consolidation, regularization or value-added processing of the material between the various stages of the production chain. For some time now, a growing number of sawmill yard managers are seeking to improve the operational performance of their wood yards. Although some tools are available for the assessment of wood yard performance, they are scarcely being used. This master's thesis describes a research project in which one of these tools, discrete-event simulation (DES), is used in combination with a log yard design methodology in order to solve problems from a real sawmill owned by an industrial partner. The project is divided into two case studies of wood yards from the same mill. The first case study focuses on the log yard, where the raw materials are stored, and the aim is to compare the current yard design with one obtained by using the suggested methodology. A simulation model was built using Simio to make these comparisons. The second case study focuses on the lumber yard, where sawn timber is stored. The objective of this study is to re-evaluate workloads between loaders of the handling equipment fleet. A second simulation model was built on Simio to evaluate workloads and redistribute tasks among the available loaders. The simulation models developed have demonstrated their ability to guide managers towards strategies for managing their log yards that promote better use of available capacities. For example, it was possible to see a potential reduction in the order of 75% in the distance traveled by some loaders with these models. It was also possible to assess workload rebalancing at the handling level and assess their feasibility before applying any changes to the actual operations of the yard.
|
4 |
Déterminants du risque hémorragique et thrombotique des anticoagulants oraux et études de bon usage / Determinants of hemorrhagic and thrombotic risk of oral anticoagulants and studies of good useBene, Johana 21 September 2016 (has links)
Pendant plus de six décennies, les antivitamines K (AVK) ont été la seule classe d’anticoagulants oraux disponibles sur le marché. L’arrivée des Anticoagulants Oraux Directs (AOD) en 2008 a marqué un réel tournant dans l’anticoagulation par voie orale. La première partie de ce travail s’est intéressée aux caractéristiques des patients traités par anticoagulants, et les conséquences en termes d’hospitalisations pour évènement hémorragique ou ischémique. Au sein d’une cohorte de patients hospitalisés pour AVC (cohorte BIOSTROKE, Lille), aucun facteur d’influence particulier, intervenant sur la survenue et l’évolution (mortalité, de déclin cognitif, et de handicap à 3 mois) de l’AVC n’était mis en évidence. En parallèle, une étude menée dans le service d’urgences du Centre Hospitalier de Béthune sur 3 années (2012, 2014, 2016) pour suivre l’évolution des prescriptions d’anticoagulants oraux et observer l’impact de la mise sur le marché des AOD, montrait une population dont certaines caractéristiques semblaient être associées à une utilisation plus volontiers des AOD ou des AVK. Le nombre d’évènements hémorragiques et thrombotiques sous AVK restait cependant stable sur les trois périodes d’étude (770 patients inclus au total). Forts de ces données rassurantes, la deuxième partie de ce travail s’est intéressée aux pratiques de prescription et au bon usage des anticoagulants, avec un focus particulier sur les AOD, à travers trois études : la première réalisée auprès des médecins généralistes du Nord et du Pas de Calais qui montrait une population de prescripteurs plutôt méfiants envers les AOD et ayant une préférence pour les anti-Xa. Les deux autres études portaient sur le bon usage des AOD, à partir de prescriptions à l’officine (grâce à la participation des étudiants en pharmacie de la faculté de Lille en stage d’officine) et à l’hôpital (Centre Hospitalier Régional de Lille). Ces études retrouvaient globalement des chiffres de prescriptions d’AOD transposables aux données françaises, avec cependant des disparités ville/hôpital. En termes de bon usage, les prescriptions étaient pour moins d’un tiers d’entre elles non-conformes aux recommandations en vigueur, avec une forte proportion de situations de sous-dosages. En conclusion, ce travail de thèse a permis de mettre à jour des pistes de formation/information des professionnels de santé sur ces nouvelles molécules anticoagulantes qui vont participer à une prise en charge avisée et optimale des patients. / For over six decades, vitamin K antagonists (VKAs) were the only class of oral anticoagulants available on the market. The arrival of Direct Oral Anticoagulants (DOAs) in 2008 marked a real turning point in the oral anticoagulation. The first part of this work was interested in the characteristics of patients treated with anticoagulants and the consequences in terms of hospitalizations for ischemic or hemorrhagic events. In a cohort of patients hospitalized for stroke (cohort BIOSTROKE Lille), no particular influencer, on the onset and course (mortality, cognitive decline, and disability at 3 months) of stroke was highlighted. In parallel, a study conducted in the emergency department of the Hospital of Bethune on three years (2012, 2014, 2016) to observe oral anticoagulants prescriptions and the impact of DOAs arriving, showed a population where many characteristics appear to be associated with a more readily using DOAs or VKAs. The number of bleeding and thrombotic events with VKAs remained stable during the three study periods (in total 770 patients were included). With these reassuring data, the second part of this work has focused on prescribing practices and the appropriate use of anticoagulants, with a particular focus on DOAs, through three studies: one conducted among general practitioners of Nord and Pas de Calais departments, which showed a rather wary about DOAs but with a preference for anti-Xa. The other two studies focused on the appropriate use of DOAs, estimated from pharmacy (with the participation of pharmacy students of the Faculty of Lille) and hospital (Lille Regional Hospital Center) prescriptions. Data about DOAs prescriptions were transposable to French data, albeit with city / hospital disparities. Non-appropriate prescriptions were observed in less than one-third file, with a high proportion of under dosing situations. In conclusion, this work has allowed updating training tracks / information for health care professionals on these new anticoagulant molecules to improve information and optimal patients’ care.
|
5 |
Identification and fault diagnosis of industrial closed-loop discrete event systemsRoth, Matthias 08 October 2010 (has links) (PDF)
La compétitivité des entreprises manufacturières dépend fortement de la productivité des machines etdes moyens de production. Pour garantir un haut niveau de productivité il est indispensable de minimiser lestemps d'arrêt dus aux fautes ou dysfonctionnements. Cela nécessite des méthodes efficaces pour détecter et isolerles fautes apparues dans un système (FDI). Dans cette thèse, une méthode FDI à base de modèles est proposée.La méthode est conçue pour la classe des systèmes à événements discrets industriels composés d'une bouclefermée du contrôleur et du processus. En comparant les comportements observés et attendus par le modèle, il estpossible de détecter et d'isoler des fautes. A la différence de la plupart des approches FDI des systèmes àévénements discrets, une méthode basée sur des modèles du comportement normal au lieu de modèles descomportements fautifs est proposée. Inspiré par le concept des résidus bien connu pour le diagnostic dessystèmes continus, une nouvelle approche pour l'isolation des fautes dans les systèmes à événements discrets aété développée. La clé pour l'application des méthodes FDI basées sur des modèles est d'avoir un modèle justedu système considéré. Comme une modélisation manuelle peut être très laborieuse et coûteuse pour dessystèmes à l'échelle industrielle, une approche d'identification pour les systèmes à événements discrets enboucle fermée est développée. Basée sur un algorithme connu pour l'identification des modèles monolithiques,une adaptation distribuée est proposée. Elle permet de traiter de grands systèmes comportant un haut degré deparallélisme. La base de cette approche est une décomposition du système en sous systèmes. Cettedécomposition est automatisée en utilisant un algorithme d'optimisation analysant le comportement observé dusystème. Les méthodes conçues dans cette thèse ont été mises en oeuvre sur une étude de cas et sur uneapplication d'échelle industrielle.
|
6 |
Distributed cost-optimal planning / Planification optimale distribuéeJezequel, Loïg 13 November 2012 (has links)
La planification est un domaine de l'intelligence artificielle qui a pour but de proposer des méthodes permettant d'automatiser la recherche et l'ordonnancement d'ensembles d'actions afin d'atteindre un objectif donné. Un ensemble ordonné d'actions solution d'un problème de planification est appelé un plan. Parfois, les actions disponibles peuvent avoir un coût - on souhaite alors trouver des plans minimisant la somme des coûts des actions les constituant. Ceci correspond en fait à la recherche d'un chemin de coût minimal dans un graphe, et est donc traditionnellement résolu en utilisant des algorithmes tels que A*. Dans cette thèse, nous nous intéressons à une approche particulière de la planification, dite factorisée ou modulaire. Il s'agit de décomposer un problème en plusieurs sous-problèmes (généralement appelés composants) le plus indépendants possibles, et d'assembler des plans pour ces sous-problèmes en un plan pour le problème d'origine. L'intérêt de cette approche est que, pour certaines classes de problèmes de planification, les composants peuvent être bien plus simples à résoudre que le problème initial. Dans un premier temps, nous présentons une méthode de planification factorisée basée sur l'utilisation d'algorithmes dits à passage de messages. Une représentation des composants sous forme d'automates à poids nous permet de capturer l'ensemble des plans d'un sous-problème, et donc de trouver des plans de coût minimal, ce que ne permettaient pas les approches précédentes de la planification factorisée. Cette première méthode est ensuite étendue~: en utilisant des algorithmes dits « turbos », permettant une résolution approchée des problèmes considérés, puis en proposant une représentation différente des sous-problèmes, afin de prendre en compte le fait que certaines actions ne font que lire dans un composant. Ensuite, nous proposons une autre approche de la planification factorisée, basée sur une version distribuée de l'algorithme A*. Dans chaque composant, un agent réalise la recherche d'un plan local en utilisant sa connaissance du sous-problème qu'il traite, ainsi que des informations transmises par les autres agents. La principale différence entre cette méthode et la précédente est qu'il s'agit d'une approche distribuée de la planification modulaire. / Automated planning is a field of artificial intelligence that aims at proposing methods to chose and order sets of actions with the objective of reaching a given goal. A sequence of actions solving a planning problem is usually called a plan. In many cases, one does not only have to find a plan but an optimal one. This notion of optimality can be defined by assigning costs to actions. An optimal plan is then a plan minimizing the sum of the costs of its actions. Planning problems are standardly solved using algorithms such as A* that search for minimum cost paths in graphs. In this thesis we focus on a particular approach to planning called factored planning or modular planning. The idea is to consider a decomposition of a planning problem into almost independent sub-problems (or components). One then searches for plans into each component and try to assemble these local plans into a global plan for the original planning problem. The main interest of this approach is that, for some classes of planning problems, the components considered can be planning problems much simpler to solve than the original one. First, we present a study of the use of some message passing algorithms for factored planning. In this case the components of a problem are represented by weighted automata. This allows to handle all plans of a sub-problems, and permits to perform factored cost-optimal planning. Achieving cost-optimality of plans was not possible with previous factored planning methods. This approach is then extended by using approximate resolution techniques ("turbo" algorithms) and by proposing another representation of components for handling actions which read-only in some components. Then we describe another approach to factored planning: a distributed version of the famous A* algorithm. Each component is managed by an agent which is responsible for finding a local plan in it. For that, she uses information about her own component, but also information about the rest of the problem, transmitted by the other agents. The main difference between this approach and the previous one is that it is not only modular but also distributed.
|
7 |
Amélioration de la représentation du temps dans les simulations à événements discrets / Improved time representation in discrete-event simulationVicino, Damián Alberto 13 November 2015 (has links)
La simulation à événements discrets (SED) est une technique dans laquelle le simulateur joue une histoire suivant une chronologie d'événements, chaque événement se produisant en des points discrets de la ligne continue du temps. Lors de l'implémentation, un événement peut être représenté par un message et une heure d'occurrence. Le type du message n'est lié qu'au modèle et donc sans conséquences pour le simulateur. En revanche, les variables de temps ont un rôle critique dans le simulateur, pour construire la chronologie des événements, dans R+. Or ces variables sont souvent représentées pas des types de données produisant des approximations, tels que les nombres flottants. Cette approximation des valeurs du temps dans la simulation peut altérer la ligne de temps et conduire à des résultats incorrects. Par ailleurs, il est courant de collecter des données à partir de systèmes réels afin de prédire des phénomènes futurs, comme les prévisions météorologiques. Les résultats de cette collecte, à l'aide d'instruments et procédures de mesures, incluent une quantification d'incertitude, habituellement présentée sous forme d'intervalles. Or répondre à une question requiert parfois l'évaluation des résultats pour toutes les valeurs comprises dans l'intervalle d'incertitude. Cette thèse propose des types de données pour une gestion sans erreur du temps en SED, y compris pour des valeurs irrationnelles et périodiques. De plus, nous proposons une méthode pour obtenir tous les résultats possibles d'une simulation soumise à des événements dont l'heure d'occurrence comporte une quantification d'incertitude. / Discrete-Event Simulation (DES) is a technique in which the simulation engine plays a history following a chronology of events. The technique is called “discrete-event” because the processing of each event of the chronology takes place at discrete points of a continuous time-line. In computer implementations, an event could be represented by a message, and a time occurrence. The message data type is usually defined as part of the model and the simulator algorithms do not operate with them. Opposite is the case of time variables; simulator has to interact actively with them for reproducing the chronology of events over R+, which is usually represented by approximated data types as floating-point. The approximation of time values in the simulation can affect the time-line preventing the generation of correct results. In addition, it is common to collect data from real systems to predict future phenomena, for example for weather forecasting. When collecting data using metrological instruments and procedures, the measurement results include uncertainty quantifications, usually defined as intervals. However, sometimes, answering a question requires evaluating the results of all values in the uncertainty interval. This thesis proposes data types for handling representation of time properly in DES, including irrational and periodic time values. Moreover, we propose a method for obtaining every possible simulation result of DES models when feeding them events with uncertainty quantification on their time component.
|
8 |
L'activation de commandite : un état des lieux axé sur le design d'expérienceMarceau, Pascale 11 January 2024 (has links)
Titre de l'écran-titre (visionné le 8 janvier 2024) / Dans le domaine de la commandite, l'utilisation d'activations de commandite est considérée comme essentielle. Une organisation qui ne peut allouer des ressources supplémentaires à sa commandite ne peut tout simplement pas se permettre de s'engager dans ce type de partenariat, car sans ces activations, la valeur de la commandite est généralement considérée comme nulle. Malgré leur importance cruciale dans les stratégies de commandite, les connaissances sur les activations restent limitées. Par conséquent, le premier objectif de recherche de cette thèse (Chapitre 1), qui se veut théorique, vise à développer une meilleure compréhension des activations de commandite en réalisant une revue systématique de la littérature afin de synthétiser les connaissances actuelles sur ce sujet. La satisfaction de cet objectif de recherche permet d'identifier plusieurs failles, dont certaines d'entre elles font l'objet du deuxième et du troisième objectif de recherche, qui sont de nature empirique. D'après cette revue systématique de la littérature portant sur l'analyse de 107 articles, une tendance croissante à l'utilisation des activations de commandites expérientielles est observée. Les chapitres suivants abordent deux problématiques de recherche liées à ce type d'activation. Dans le Chapitre 2, l'accent est mis sur l'exploration du processus de conception des activations de commandite expérientielles. Ce chapitre adopte une approche de recherche qualitative, utilisant la méthode d'étude de cas individuels multiples. Les entretiens semi-dirigés constituent la principale méthode de collecte de données, permettant d'explorer les perspectives et les rôles variés des individus impliqués dans le processus de conception des activations, notamment ceux travaillant pour des commanditaires, des propriétés et des agences. Les résultats de cette étude mettent en évidence l'importance cruciale de concevoir des activations pertinentes. La pertinence d'une activation est analysée à travers quatre catégories : la pertinence personnelle, sociétale, pour l'organisation commanditaire et pour la propriété, ainsi que la pertinence de l'association entre le commanditaire et la propriété. La prise en compte de la pertinence constitue un élément essentiel lors de la conception des activations de commandite expérientielles. Dans le Chapitre 3, l'objectif est de développer une meilleure compréhension de la nature des activations de commandite expérientielles mémorables en développant et en validant empiriquement un indice formatif de la mémorabilité d'une activation de commandite, appelé l'IMAC. Dans ce chapitre, un processus complet de conceptualisation et d'opérationnalisation d'un construit formatif de second ordre de la mémorabilité d'une activation de commandite expérientielle est réalisé en étapes principales. La définition claire du domaine conceptuel de l'IMAC est suivie de la spécification des indicateurs, basée sur une analyse de la littérature, d'entretiens qualitatifs et de tendances actuelles en matière d'activations de commandite expérientielles. L'indice est validé auprès d'experts, conduisant ainsi à des améliorations. Ensuite, une collecte de données est effectuée pour évaluer le modèle de mesure, en validant les mesures réflexives, puis la mesure formative, et enfin pour évaluer le modèle structurel. La généralisabilité des résultats est évaluée à l'aide d'une approche d'échantillon fractionné et d'une validation croisée. Ces étapes confirment la validité de l'IMAC en tant que construit réflexif- formatif de second ordre. Il se compose d'un total de 29 items réflexifs et de onze dimensions formatives, classées par ordre décroissant d'impact : implication, signification, affective, sérendipité, déconnexion avec le réel, intensification, qualité de service, innovation, sensorielle, intellectuelle et déconnexion avec le temps. L'indice proposé est un outil facile à utiliser pour permettre aux responsables de commandites d'améliorer la mémorabilité de leurs activations de commandite. En résumé, cette thèse représente une contribution novatrice et significative à la littérature sur la commandite en explorant de nouvelles perspectives et en approfondissant la compréhension de ce domaine en constante évolution, plus particulièrement en se concentrant sur les activations de commandites expérientielles. Grâce à une revue systématique de la littérature, ainsi qu'à une méthodologie qualitative et quantitative rigoureuses, cette thèse repousse les limites de la connaissance existante et ouvre de nouvelles voies de réflexion à la fois pour les chercheurs de ce domaine et les praticiens de l'industrie de la commandite.
|
9 |
Analyse de Grafcets par Génération Logique de l'Automate ÉquivalentRoussel, Jean-Marc 16 December 1994 (has links) (PDF)
En Génie Automatique, le GRAFCET [IEC 848] est couramment employé pour la modélisation de la dynamique des systèmes à événements discrets, en raison de ses capacités de modélisation et de son ergonomie. Cependant, il lui est reproché de ne pas être défini de manière suffisamment formelle pour que tous les grafcets établis soient sans ambigüité et puissent être validés. L'objectif des travaux est double : contribuer à la formalisation du GRAFCET de manière à renforcer ses fondements théoriques et offrir à tout analyste les moyens nécessaires pour valider une modélisation exprimée en GRAFCET en vérifiant les propriétés des modèles et leur comportement par rapport à leurs entrées/sorties. Le GRAFCET étant une machine d'état complexe - essentiellement à cause des parallélismes importants qu'il permet de décrire - nous proposons à l'analyste d'utiliser le graphe des situations accessibles, ou grafcet d'état équivalent pour valider sa spécification. Nous avons conçu une technique de génération automatique du graphe des situations accessibles d'un grafcet global (qui est un automate fini «équivalent»), de manière à pouvoir établir un ensemble de preuves et propriétés sur la cohérence intrinsèque du grafcet et sur sa pertinence par rapport au cahier des charges. Une algèbre de Boole, dans laquelle la notion de fronts a été formalisée par deux opérateurs unaires a été construite. Les 14 propriétés qui ont été démontrées ont permis d'établir un module de calcul symbolique utilisé pour tenir compte de l'historique des évolutions des entrées. Nos travaux intègrent les extensions du modèles GRAFCET. Pour valider notre approche, une maquette informatique en C a été développée et permet de calculer l'automate équivalent au grafcet à valider. Nous utilisons pour vérifier certaines propriétés l'outil MEC développé pour l'étude des systèmes de transitions. Deux exemples de validation de grafcets par analyse de leur automate sont donnés dans le mémoire.
|
10 |
Techniques pour l'évaluation et l'amélioration du comportement des technologies émergentes face aux fautes aléatoires / Techniques for the evaluation and the improvement of emergent technologies’ behavior facing random errorsCostenaro, Enrico 09 December 2015 (has links)
L'objectif principal de cette thèse est de développer des techniques d'analyse et mitigation capables à contrer les effets des Evènements Singuliers (Single Event Effects) - perturbations externes et internes produites par les particules radioactives, affectant la fiabilité et la sureté en fonctionnement des circuits microélectroniques complexes. Cette thèse à la vocation d'offrir des solutions et méthodologies industrielles pour les domaines d'applications terrestres exigeant une fiabilité ultime (télécommunications, dispositifs médicaux, ...) en complément des travaux précédents sur les Soft Errors, traditionnellement orientés vers les applications aérospatiales, nucléaires et militaires.Les travaux présentés utilisent une décomposition de sources d'erreurs dans les circuits actuels, visant à mettre en évidence les contributeurs les plus importants.Les upsets (SEU) - Evènements Singuliers (ES) dans les cellules logiques séquentielles représentent actuellement la cible principale pour les efforts d'analyse et d'amélioration à la fois dans l'industrie et dans l'académie. Cette thèse présente une méthodologie d'analyse basée sur la prise en compte de la sensibilité de chaque état logique d'une cellule (state-awareness), approche qui améliore considérablement la précision des résultats concernant les taux des évènements pour les instances séquentielles individuelles. En outre, le déséquilibre intrinsèque entre la susceptibilité des différents états des bascules est exploité pour mettre en œuvre une stratégie d'amélioration SER à très faible coût.Les fautes transitoires (SET) affectant la logique combinatoire sont beaucoup plus difficiles à modéliser, à simuler et à analyser que les SEUs. L'environnement radiatif peut provoquer une multitude d'impulsions transitoires dans les divers types de cellules qui sont utilisés en configurations multiples. Cette thèse présente une approche pratique pour l'analyse SET, applicable à des circuits industriels très complexes. Les principales étapes de ce processus consiste à: a) caractériser complètement la bibliothèque de cellules standard, b) évaluer les SET dans les réseaux logiques du circuit en utilisant des méthodes statiques et dynamiques et c) calculer le taux SET global en prenant en compte les particularités de l'implémentation du circuit et de son environnement.L'injection de fautes reste la principale méthode d'analyse pour étudier l'impact des fautes, erreurs et disfonctionnements causés par les évènements singuliers. Ce document présente les résultats d'une analyse fonctionnelle d'un processeur complexe dans la présence des fautes et pour une sélection d'applications (benchmarks) représentatifs. Des techniques d'accélération de la simulation (calculs probabilistes, clustering, simulations parallèles) ont été proposées et évalués afin d'élaborer un environnement de validation industriel, capable à prendre en compte des circuits très complexes. Les résultats obtenus ont permis l'élaboration et l'évaluation d'un hypothétique scénario de mitigation qui vise à améliorer sensiblement, et cela au moindre coût, la fiabilité du circuit sous test. Les résultats obtenus montrent que les taux d'erreur, SDC (Silent Data Corruption) et DUE (Detectable Uncorrectable Errors) peuvent être considérablement réduits par le durcissement d'un petite partie du circuit (protection sélective). D'autres techniques spécifiques ont été également déployées: mitigation du taux de soft-errors des Flip-Flips grâce à une optimisation du Temporal De-Rating par l'insertion sélective de retard sur l'entrée ou la sortie des bascules et biasing du circuit pour privilégier les états moins sensibles.Les méthodologies, algorithmes et outils CAO proposés et validés dans le cadre de ces travaux sont destinés à un usage industriel et ont été valorisés dans le cadre de plateforme CAO commerciale visant à offrir une solution complète pour l'évaluation de la fiabilité des circuits et systèmes électroniques complexes. / The main objective of this thesis is to develop analysis and mitigation techniques that can be used to face the effects of radiation-induced soft errors - external and internal disturbances produced by radioactive particles, affecting the reliability and safety in operation complex microelectronic circuits. This thesis aims to provide industrial solutions and methodologies for the areas of terrestrial applications requiring ultimate reliability (telecommunications, medical devices, ...) to complement previous work on Soft Errors traditionally oriented aerospace, nuclear and military applications.The work presented uses a decomposition of the error sources, inside the current circuits, to highlight the most important contributors.Single Event Effects in sequential logic cells represent the current target for analysis and improvement efforts in both industry and academia. This thesis presents a state-aware analysis methodology that improves the accuracy of Soft Error Rate data for individual sequential instances based on the circuit and application. Furthermore, the intrinsic imbalance between the SEU susceptibility of different flip-flop states is exploited to implement a low-cost SER improvement strategy.Single Event Transients affecting combinational logic are considerably more difficult to model, simulate and analyze than the closely-related Single Event Upsets. The working environment may cause a myriad of distinctive transient pulses in various cell types that are used in widely different configurations. This thesis presents practical approach to a possible exhaustive Single Event Transient evaluation flow in an industrial setting. The main steps of this process consists in: a) fully characterize the standard cell library using a process and library-aware SER tool, b) evaluate SET effects in the logic networks of the circuit using a variety dynamic (simulation-based) and static (probabilistic) methods and c) compute overall SET figures taking into account the particularities of the implementation of the circuit and its environment.Fault-injection remains the primary method for analyzing the effects of soft errors. This document presents the results of functional analysis of a complex CPU. Three representative benchmarks were considered for this analysis. Accelerated simulation techniques (probabilistic calculations, clustering, parallel simulations) have been proposed and evaluated in order to develop an industrial validation environment, able to take into account very complex circuits. The results obtained allowed the development and evaluation of a hypothetical mitigation scenario that aims to significantly improve the reliability of the circuit at the lowest cost.The results obtained show that the error rate, SDC (Silent Data Corruption) and DUE (Detectable Uncorrectable Errors) can be significantly reduced by hardening a small part of the circuit (Selective mitigation).In addition to the main axis of research, some tangential topics were studied in collaboration with other teams. One of these consisted in the study of a technique for the mitigation of flip-flop soft-errors through an optimization of the Temporal De-Rating (TDR) by selectively inserting delay on the input or output of flip-flops.The Methodologies, the algorithms and the CAD tools proposed and validated as part of the work are intended for industrial use and have been included in a commercial CAD framework that offers a complete solution for assessing the reliability of circuits and complex electronic systems.
|
Page generated in 0.089 seconds