491 |
Robustness on resource allocation problemsMuñoz i Solà, Víctor 17 February 2011 (has links)
En problemes d'assignació de recursos, normalment s'han de tenir en compte les incerteses que poden provocar canvis en les dades inicials. Aquests canvis dificulten l'aplicabilitat de les planificacions que s'hagin fet inicialment.Aquesta tesi se centra en l'elaboració de tècniques que consideren la incertesa alhora de cercar solucions robustes, és a dir solucions que puguin continuar essent vàlides encara que hi hagi canvis en l'entorn. Particularment, introduïm el concepte de robustesa basat en reparabilitat, on una solució robusta és una que pot ser reparada fàcilment en cas que hi hagi incidències. La nostra aproximació es basa en lògica proposicional, codificant el problema en una fórmula de satisfactibilitat Booleana, i aplicant tècniques de reformulació per a la generació de solucions robustes. També presentem un mecanisme per a incorporar flexibilitat a les solucions robustes, de manera que es pugui establir fàcilment el grau desitjat entre robustesa i optimalitat de les solucions. / Resource allocation problems usually include uncertainties that can produce changes in the data of the problem. These changes may cause difficulties in the applicability of the solutions.This thesis is focused in the elaboration of techniques that take into account such uncertainties while searching for robust solutions, i.e. solutions that can remain valid even if there are changes in the environment. Particularly, we introduce the concept of robustness based on reparability, where a robust solution is one that can be easily repaired when unexpected events occur. Our approach is based in propositional logic, encoding the problem to a Boolean formula, and applying reformulation techniques in order to generate robust solutions. Additionally, we present a mechanism to incorporate flexibility to the robust solutions, so that one can easily set the desired degree between optimality and robustness.
|
492 |
Combining machine learning and rule-based approaches in Spanish syntactic generationMelero Nogués, Maria Teresa 02 June 2006 (has links)
Aquesta tesi descriu una gramàtica de Generació que combina regles escrites a mà i tècniques d'aprenentatge automàtic. Aquesta gramàtica pertany a un sistema de Traducció Automàtica de qualitat comercial desenvolupat a Microsoft Research. La primera part presenta la gramàtica i les principals estratègies lingüístiques que aquesta gramàtica implementa. Els requeriments de robustesa que reclama l'ús real del sistema de TA, exigeix del Generador un esforç suplementari que es resol afegint un nivell de pre-generació, capaç de garantir la integritat de l'entrada, sense incorporar elements ad-hoc en les regles de la gramàtica. A la segona part, explorem l'ús dels classificadors d'arbres de decisió (DT) per tal d'aprendre automàticament una de les operacions que tenen lloc al mòdul de pre-generació, en concret la selecció lèxica del verb copulatiu en espanyol (ser o estar). Mostrem que és possible inferir a partir d'exemples els contextos per aquest fenòmen lingüístic no trivial, amb gran precisió. / This thesis describes a Spanish Generation grammar which combines hand-written rules and Machine Learning techniques. This grammar belongs to a full-scale commercial quality Machine Translation system developed at Microsoft Research. The first part presents the grammar and the linguistic strategies it embodies. The need for robustness in real-world situations in the everyday use of the MT system requires from the Generator an extra effort which is resolved by adding a Pre-Generation layer which is able to fix the input to Generation, without contaminating the grammar rules. In the second part we explore the use of Decision Tree classifiers (DT) for automatically learning one of the operations that take place in the Pre-Generation component, namely lexical selection of the Spanish copula (i.e. ser and estar). We show that it is possible to infer from examples the contexts for this non-trivial linguistic phenomenon with high accuracy.
|
493 |
Δομική ανάλυση χρονικά εξελισσόμενων γραφημάτων : ιδιότητες, μοντέλα και εφαρμογές / Structural analysis of time evolving graphs : properties, models and applicationsΜαλλιαρός, Φραγκίσκος 07 October 2011 (has links)
Τα τελευταία χρόνια έχει παρατηρηθεί ιδιαίτερο ερευνητικό ενδιαφέρον στη μελέτη δικτύων (γραφημάτων) που προκύπτουν από διάφορες κοινωνικές, τεχνολογικές και επιστημονικές δραστηριότητες. Χαρακτηριστικά παραδείγματα αποτελούν το γράφημα του Διαδικτύου, το γράφημα του Παγκοσμίου Ιστού, κοινωνικά δίκτυα αναπαράστασης της αλληλεπίδρασης των ατόμων στην κοινωνία ή των χρηστών σε υπηρεσίες κοινωνικής δικτύωσης, δίκτυα μοντελοποίησης της συνεργασίας μεταξύ οντοτήτων, βιολογικά δίκτυα, κ.α.. Βασικό χαρακτηριστικό των γραφημάτων αυτών αποτελεί το μεγάλο μέγεθός τους, κάτι που πολλές φορές δυσχαιρένει την ανάλυση και μελέτη τους. Επιπλέον, τα γραφήματα αυτά στις περισσότερες περιπτώσεις δεν είναι στατικά, αλλά εξελίσσονται στο χρόνο με την προσθήκη-διαγραφή κόμβων και ακμών. Έτσι, ορισμένα από τα ερωτήματα που προκύπτουν και έχουν απασχολήσει την ερευνητική κοινότητα είναι πώς μπορούμε να αναλύσουμε τέτοιου είδους γραφήματα και να εξάγουμε ενδιαφέρουσα πληροφορία, ποια είναι η δομή των γραφημάτων αυτών, καθώς και ο τρόπος με τον οποίο δομούνται και εξελίσσονται στο χρόνο.
Ένα σημαντικό θέμα που σχετίζεται με τη δομή των γραφημάτων αυτών, αποτελεί η έννοια της ανθεκτικότητας. Γενικά, ένα γράφημα χαρακτηρίζεται ως ανθεκτικό, αν έχει τη δυνατότητα να διατηρήσει τη δομή του και τις ιδιότητες συνεκτικότητας που κατέχει, ύστερα από την απώλεια ενός μέρους των κόμβων και ακμών του. Η ιδιότητα της ανθεκτικότητας σε πραγματικά γραφήματα είναι άμεσα συνυφασμένη με την έννοια της δομής κοινοτήτων (community structure), δηλαδή της οργάνωσης των κόμβων σε ομάδες με υψηλό πλήθος συνδέσεων μεταξύ κόμβων της ίδιας ομάδας και μικρό πλήθος μεταξύ κόμβων που ανήκουν σε διαφορετικές ομάδες.
Πώς μπορούμε να κάνουμε μια γρήγορη εκτίμηση των ιδιοτήτων ανθεκτικότητας ενός γραφήματος, χωρίς να επιτελέσουμε μια διαδικασία διαγραφής κόμβων και ακμών όπου σε κάθε βήμα υπολογίζεται η συνεκτικότητα; Με άλλα λόγια, υπάρχει κάποιος δείκτης (μετρική) που μπορεί να μας ενημερώσει τόσο για την ανθεκτικότητα όσο και για τις ιδιότητες δομής κοινοτήτων ενός γραφήματος, ο οποίος θα μπορεί να υπολογιστεί αρκετά γρήγορα ακόμα και για γραφήματα με εκατομμύρια κόμβους και ακμές; Επιπλέον, εάν το γράφημα εξελίσσεται στο χρόνο, τι μπορούμε να πούμε για την ανθεκτικότητά του και κατ' επέκταση, για τις ιδιότητες δομής κοινοτήτων που διαθέτει; Υπάρχει κάποια κοινή ιδιότητα (πρότυπο) στα κοινωνικά γραφήματα που σχετίζεται με τη χρονική εξέλιξη των ιδιοτήτων αυτών;
Στα πλαίσια της παρούσας εργασίας προσπαθούμε να απαντήσουμε τα παραπάνω ερωτήματα, μελετώντας τις ιδιότητες επέκτασης κοινωνικών γραφημάτων μεγάλης κλίμακας. Αρχικά παρουσιάζουμε μια μετρική που έχει τη δυνατότητα να χαρακτηρίσει τόσο την ανθεκτικότητα όσο και τις ιδιότητες δομής κοινοτήτων ενός γραφήματος και περιγράφουμε πώς μπορούμε να την υπολογίσουμε αποδοτικά και αποτελεσματικά εκμεταλλευόμενοι ορισμένες ιδιαίτερες φασματικές ιδιότητες των πραγματικών γραφημάτων. Στη συνέχεια, εφαρμόζουμε τη μετρική αυτή σε ένα μεγάλο πλήθος στατικών κοινωνικών γραφημάτων μεγάλης κλίμακας και παρατηρούμε ορισμένες ενδιαφέρουσες ιδιότητες που σχετίζονται με την ανθεκτικότητά του και κατ΄ επέκταση με τις ιδιότητες δομής κοινοτήτων που εμφανίζουν. Μελετάμε πώς οι ιδιότητες αυτές αλλάζουν στον χρόνο, καθώς το γράφημα εξελίσσεται και παρατηρούμε ορισμένα ενδιαφέροντα πρότυπα. Τέλος, παρουσιάζουμε πώς μπορούμε να εντοπίσουμε ανωμαλίες σε γραφήματα που εξελίσσονται στο χρόνο, μελετώντας τις ιδιότητες που σχετίζονται με την ανθεκτικότητά του. / Over the last few years there has been a lot of interest in the study of complex network
structures (or graphs) arising in many diverse settings. Characteristic examples
are networks from the domain of sociology (e.g., social networks), technological and
information networks (e.g., the Internet, the Web, email exchange networks, social
interaction networks over social media applications), biological networks (e.g., protein interactions), collaboration and citation networks (e.g., coauthorship networks), and many more. A basic characteristic of these networks is their large scale (size), which in many cases hinder their study. Moreover, the graphs usually are not static, but they evolve over time with the addition/deletion of nodes and edges. A large amount of research work has been devoted on understanding the structure, the organization and the evolution of these networks, with many interesting results.
One important aspect which is related to the structure of such graphs, is the notion of robustness. Generally, a graph is characterized as robust, if it is capable to retain its structure and its connectivity properties after the loss of a portion of its nodes and edges. The property of robustness in real-world graphs is closely related to the notion of community structure, where the network is organized based on a modular architecture, presenting well-defined clusters with large inter-cluster and small intra-cluster edge density. We expect that the robustness of a network with good community structure will be poor, since it can be easily become disconnected with the removal of
the edges which connect the different clusters.
How can we do this estimation quickly without removing edges and nodes and
measuring the connectivity? In other words, is there a robustness and community
structure index (metric) which can be computed fast enough, even for graphs with
millions of nodes and edges? Moreover, if the network evolves over time, what can we
say about its robustness, and as an extension, about its community structure? Is there a common pattern in social graphs that govern the time evolution of these properties?
In this thesis, we tackle the problem of estimating the robustness properties of a
graph quickly, studying the expansion properties of several real-world
time-evolving social graphs. First, we present a metric which can be used to characterize both the robustness and the community structure properties of a graph. We present how to efficiently and effectively compute this measure, exploiting the special spectral properties
of real-world graphs. Then, we apply this method to several large static social graphs,
and we observe some interesting properties that are related to their robustness. We
study how these properties change over time, while the graph evolves, and we observe
interesting patterns. Finally, we show how to spot outliers and detect anomalies in
graphs that evolve over time, examining the change of the robustness properties of a
graph.
|
494 |
[en] ENHANCEMENT AND CONTINUOUS SPEECH RECOGNITION IN ADVERSE ENVIRONMENTS / [pt] REALCE E RECONHECIMENTO DE VOZ CONTÍNUA EM AMBIENTES ADVERSOSCHRISTIAN DAYAN ARCOS GORDILLO 13 June 2018 (has links)
[pt] Esta tese apresenta e examina contribuições inovadoras no front-end dos sistemas de reconhecimento automático de voz (RAV) para o realce e reconhecimento de voz em ambientes adversos. A primeira proposta consiste em aplicar um filtro de mediana sobre a função de distribuição de probabilidade de cada coeficiente cepstral antes de utilizar uma transformação para um domínio invariante às distorções, com o objetivo de adaptar a voz ruidosa ao ambiente limpo de referência através da modificação de histogramas. Fundamentadas nos resultados de estudos psicofísicos do sistema auditivo humano, que utiliza como princípio o fato de que o som que atinge o ouvido é sujeito a um processo chamado Análise de Cena Auditiva (ASA), o qual examina como o sistema auditivo separa as fontes de som que compõem a entrada acústica, três novas abordagens aplicadas independentemente foram propostas para realce e reconhecimento de voz. A primeira aplica a estimativa de uma nova máscara no domínio espectral usando o conceito da transformada de Fourier de tempo curto (STFT). A máscara proposta aplica a técnica Local Binary Pattern (LBP) à relação sinal ruído (SNR) de cada unidade de tempo-frequência (T-F) para estimar
uma máscara de vizinhança ideal (INM). Continuando com essa abordagem, propõe-se em seguida nesta tese o mascaramento usando as transformadas wavelet com base nos LBP para realçar os espectros temporais dos coeficientes wavelet nas altas frequências. Finalmente, é proposto um novo método de estimação da máscara INM, utilizando um algoritmo de aprendizagem supervisionado das Deep Neural Networks (DNN) com o objetivo de realizar a classificação de unidades T-F obtidas da saída dos bancos de
filtros pertencentes a uma mesma fonte de som (ou predominantemente voz ou predominantemente ruído). O desempenho é comparado com as técnicas de máscara tradicionais IBM e IRM, tanto em termos de qualidade objetiva da voz, como através de taxas de erro de palavra. Os resultados das técnicas
propostas evidenciam as melhoras obtidas em ambientes ruidosos, com diferenças significativamente superiores às abordagens convencionais. / [en] This thesis presents and examines innovative contributions in frontend of the automatic speech recognition systems (ASR) for enhancement and speech recognition in adverse environments. The first proposal applies
a median filter on the probability distribution function of each cepstral coefficient before using a transformation to a distortion-invariant domain, to adapt the corrupted voice to the clean reference environment by modifying histograms. Based on the results of psychophysical studies of the human
auditory system, which uses as a principle the fact that sound reaching the ear is subjected to a process called Auditory Scene Analysis (ASA), which examines how the auditory system separates the sound sources that make up the acoustic input, three new approaches independently applied were proposed for enhancement and speech recognition. The first applies the estimation of a new mask in the spectral domain using the short-time Fourier Transform (STFT) concept. The proposed mask applies the Local Binary Pattern (LBP) technique to the Signal-to-Noise Ratio (SNR) of each time-frequency unit (T-F) to estimate an Ideal Neighborhood Mask (INM). Continuing with this approach, the masking using LBP-based wavelet
transforms to highlight the temporal spectra of wavelet coefficients at high frequencies is proposed in this thesis. Finally, a new method of estimation of the INM mask is proposed, using a supervised learning algorithm of Deep Neural Network (DNN) to classify the T-F units obtained from the output of
the filter banks belonging to a same source of sound (or predominantly voice or predominantly noise). The performance is compared with traditional IBM and IRM mask techniques, both regarding objective voice quality and through word error rates. The results of the proposed methods show the improvements obtained in noisy environments, with differences significantly superior to the conventional approaches.
|
495 |
Analyse de robustesse de systèmes intégrés numériques / Robustness analysis of digital integrated systemsChibani, Kais 10 November 2016 (has links)
Les circuits intégrés ne sont pas à l'abri d'interférences naturelles ou malveillantes qui peuvent provoquer des fautes transitoires conduisant à des erreurs (Soft errors) et potentiellement à un comportement erroné. Ceci doit être maîtrisé surtout dans le cas des systèmes critiques qui imposent des contraintes de sûreté et/ou de sécurité. Pour optimiser les stratégies de protection de tels systèmes, il est fondamental d'identifier les éléments les plus critiques. L'évaluation de la criticité de chaque bloc permet de limiter les protections aux blocs les plus sensibles. Cette thèse a pour objectif de proposer des approches permettant d'analyser, tôt dans le flot de conception, la robustesse d'un système numérique. Le critère clé utilisé est la durée de vie des données stockées dans les registres, pour une application donnée. Dans le cas des systèmes à base de microprocesseur, une approche analytique a été développée et validée autour d'un microprocesseur SparcV8 (LEON3). Celle-ci repose sur une nouvelle méthodologie permettant de raffiner les évaluations de criticité des registres. Ensuite, une approche complémentaire et plus générique a été mise en place pour calculer la criticité des différents points mémoires à partir d'une description synthétisable. L'outil mettant en œuvre cette approche a été éprouvé sur des systèmes significatifs tels que des accélérateurs matériels de chiffrement et un système matériel/logiciel basé sur le processeur LEON3. Des campagnes d'injection de fautes ont permis de valider les deux approches proposées dans cette thèse. En outre, ces approches se caractérisent par leur généralité, leur efficacité en termes de précision et de rapidité, ainsi que leur faible coût de mise en œuvre et leur capacité à ré-exploiter les environnements de validation fonctionnelle. / Integrated circuits are not immune to natural or malicious interferences that may cause transient faults which lead to errors (soft errors) and potentially to wrong behavior. This must be mastered particularly in the case of critical systems which impose safety and/or security constraints. To optimize protection strategies of such systems, it is essential to identify the most critical elements. The assessment of the criticality of each block allows limiting the protection to the most sensitive blocks. This thesis aims at proposing approaches in order to analyze, early in the design flow, the robustness of a digital system. The key criterion used is the lifetime of data stored in the registers for a given application. In the case of microprocessor-based systems, an analytical approach has been developed and validated on a SparcV8 microprocessor (LEON3). This approach is based on a new methodology to refine assessments of registers criticality. Then a more generic and complementary approach was implemented to compute the criticality of all flip-flops from a synthesizable description. The tool implementing this approach was tested on significant systems such as hardware crypto accelerators and a hardware/software system based on the LEON3 processor. Fault injection campaigns have validated the two approaches proposed in this thesis. In addition, these approaches are characterized by their generality, their efficiency in terms of accuracy and speed and a low-cost implementation. Another benefit is also their ability to re-use the functional verification environments.
|
496 |
Vers des protocoles de tolérance aux fautes byzantines efficaces et robustes / Towards efficient and robust byzantine fault tolerance protocolsPerronne, Lucas 08 December 2016 (has links)
Au cours de la dernière décennie, l'informatique en nuage (Cloud Computing) suscita un important changement de paradigme dans de nombreux systèmes d'information. Ce nouveau paradigme s'illustre principalement par la délocalisation de l'infrastructure informatique hors du parc des entreprises, permettant ainsi une utilisation des ressources à la demande. La prise en charge de serveurs locaux s'est donc vue peu à peu remplacée par la location de serveurs distants, auprès de fournisseurs spécialisés tels que Google, Amazon, Microsoft. Afin d'assurer la pérennité d'un tel modèle économique, il apparaît nécessaire de fournir aux utilisateurs diverses garanties relatives à la sécurité, la disponibilité, ou encore la fiabilité des ressources mises à disposition. Ces facteurs de qualité de service (QoS pour Quality of Service) permettent aux fournisseurs et aux utilisateurs de s'accorder sur le niveau de prestation escompté. En pratique, les serveurs mis à disposition des utilisateurs doivent épisodiquement faire face à des fautes arbitraires (ou byzantines). Il s'agit par exemple de ruptures temporaires du réseau, du traitement de messages corrompus, ou encore d’arrêts inopinés. Le contexte d'informatique en nuage s'est vu néanmoins propice à l'émergence de technologies telles que la virtualisation ou la réplication de machines à états. De telles technologies permettent de pallier efficacement à l’occurrence de pannes via l'implémentation de protocoles de tolérance aux pannes.La tolérance aux fautes byzantines (BFT pour Byzantine Fault Tolerance) est un domaine de recherche implémentant les concepts de réplication de machines à états, qui vise à assurer la continuité et la fiabilité des services en présence de comportements arbitraires. Afin de répondre à cette problématique, de nombreux protocoles furent proposés. Ceux-ci se doivent d'être efficaces afin de masquer le surcoût lié à la réplication, mais également robustes afin de maintenir un niveau de performance élevé en présence de fautes. Nous constatons d'abord qu'il est délicat de relever ces deux défis à la fois: les protocoles actuels sont soit conçus pour être efficaces au détriment de leur robustesse, soit pour être robustes au détriment de leur efficacité. Cette thèse se focalise autour de cette problématique, l'objectif étant de fournir les instruments nécessaires à la conception de protocoles à la fois robustes et efficaces.Notre intérêt se porte principalement vers deux types de dénis de service liés à la gestion des requêtes. Le premier de ces dénis de service est causé par la corruption partielle d'une requête lors de son émission par un client. Le deuxième est causé par l'abandon intentionnel d'une requête lors de sa réception par un réplica. Afin de faire face efficacement à ces deux comportements byzantins, plusieurs mécanismes dédiés furent implémentés dans les protocoles de BFT robustes. En pratique, ces mécanismes engendrent d'importants surcoûts, ce qui nous permet d'introduire notre première contribution: la définition de plusieurs principes de conception génériques destinés à réduire ces surcoûts tout en assurant un niveau de robustesse équivalent.La seconde contribution de cette thèse illustre ER-PBFT, un nouveau protocole implémentant ces principes de conception sur PBFT, la référence en matière de tolérance aux fautes byzantines. Nous démontrons l'efficacité de notre nouvelle politique de robustesse, à la fois en présence de comportements byzantins mais également lors de scénarios sans faute.La troisième contribution illustre ER-COP, un nouveau protocole orienté à la fois vers l’efficacité et la robustesse, implémentant nos principes de conception sur COP, le protocole de BFT fournissant les meilleures performances à l'heure actuelle dans un environnement sans faute. Nous évaluons le surcoût engendré par l'intégration de notre politique de robustesse, et nous démontrons la capacité de ER-COP à tolérer l'occurrence de comportements byzantins. / Over the last decade, Cloud computing instigated an important switch of paradigm in numerous information systems. This new paradigm is mainly illustrated by the re-location of the whole IT infrastructures out of companies’ warehouses. The use of local servers has thus being replaced by remote ones, rented from dedicated providers such as Google, Amazon, Microsoft.In order to ensure the sustainability of this economic model, it appears necessary to provide several guarantees to users, related to the security, availability, or even reliability of the proposed resources. Such quality of service (QoS) factors allow providers and users to reach an agreement on the expected level of dependability. Practically, the proposed servers must episodically cope with arbitrary faults (also called byzantine faults), such as incorrect/corrupted messages, servers crashes, or even network failures. Nevertheless, the Cloud computing environment encouraged the emergence of technologies such as virtualization or state machine replication. These technologies allow cloud providers to efficiently face the occurrences of faults through the implementation of fault tolerance protocols.Byzantine Fault Tolerance (BFT) is a research area involving state machine replication concepts, and aiming at ensuring continuity and reliability of hosted services in presence of any kind of arbitrary behaviors. In order to handle such threat, numerous protocols were proposed. These protocols must be efficient in order to counterbalance the extra cost of replication, and robust in order to lower the impact of byzantine behaviors on the system performance. We first noticed that tackling both these concerns at the same time is difficult: current protocols are either designed to be efficient at the expense of their robustness, or robust at the expense of their efficiency. We tackle this specific problem in this thesis, our goal being to provide the required tools to design both efficient and robust BFT protocols.Our focus is mainly dedicated to two types of denial-of-service attacks involving requests management. The first one is caused by the partial corruption of a request transmitted by a client. The second one is caused by the intentional drop of a request upon receipt. In order to face efficiently both these byzantine behaviors, several mechanisms were integrated in robust BFT protocols. In practice, these mecanisms involve high overheads, and thus lead to the significant performance drop of robust protocols compared to efficien ones. This assessment allows us to introduce our first contribution: the definition of several generic design principles, applicable to numerous existing BFT protocols, and aiming at reducing these overheads while maintaining the same level of robustness.The second contribution introduces ER-PBFT, a new protocol implementing these design principles on PBFT, the reference in terms of byzantine fault tolerance. We demonstrate the efficiency of our new robustness policy, both in fault-free scenarios and in presence of byzantine behaviors.The third contribution highlights ER-COP, a new BFT protocol dedicated to both efficiency and robustness, implementing our design principles on COP, the BFT protocol providing for now the best performances in a fault-free environment. We evaluate the additional cost introduced by our robustness policy, and we demonstrate ER-COP's ability to handle byzantine behaviors.
|
497 |
Simulation de fautes pour l'évaluation du test en ligne de systèmes RFID / Test and diagnostic of RFID SystemsFritz, Gilles 10 December 2012 (has links)
Les systèmes RFID – pour RadioFrequency Identification – sont capables d’identifier des objets ou des personnes sans contact ni vision direct. Ainsi, leur utilisation grandit de manière exponentielle dans différents secteurs : nucléaire, aviation, ferroviaire, médical, traçabilité, contrôle d’accès… Mais ce sont surtout des systèmes fortement hétérogènes, composés de matériel analogique ou digital, et de systèmes informatique : le tag, attaché à l’objet à identifier, contenant l’identifiant de ce dernier ; le lecteur, appareil capable de venir lire les informations contenus dans les tags ; et le système informatique gérant l’ensemble des données générées par le système. Ces systèmes sont de plus en plus utilisés dans des domaines critiques ou dans des environnements difficiles, alors qu’ils sont basés uniquement sur des équipements bas coût et peu performant – les tags – ne permettant alors pas de garantir des communications robustes. Tous ces points font que le test en ligne des systèmes RFID est une tâche complexe.Cette thèse s’intéresse donc à la sûreté de fonctionnement des systèmes RFID : comment être certains que le système fonctionne comme il faut au moment où on en à besoin ? En premier, les défaillances et leurs causes ont été étudiées à l’aide d’une méthode classique : AMDE – Analyse des modes de défaillances et de leurs effets. Cette étude a permis d’identifier les points faibles des systèmes RFID. Après cela et grâce à cette analyse, il nous a été possible de définir et d’implémenter un simulateur de systèmes RFID appelé SERFID, pour Simulation et Evaluation des systèmes RFID. Ce simulateur est capable de simuler différents systèmes RFID multi-équipements (HF ou UHF, normes actuellement implémentées : ISO15693 et EPC Classe 1 Génération 2), du tag au lecteur, en passant par le canal de communication permettant aux tags et aux lecteurs de communiquer. SERFID permet aussi de connecter les lecteurs simulés à des middlewares existants ou nouveau afin des les évaluer. Pour permettre l’évaluation de la sûreté de fonctionnement des systèmes RFID, SERFID permet l’injection de fautes dynamiquement au sein des tags, lecteurs ou du canal de communication permettant de simuler différentes défaillances pouvant apparaître : diminution de la qualité de la communication ou de l’alimentation du tag, erreurs au sein de la mémoire du tag, bruit… SERFID a été notamment utilisé pour simuler et observer le comportement de systèmes RFID HF et UHF face à du bruit et des perturbations dans le canal de communication entre le tag et le lecteur. Finalement, cette thèse propose une nouvelle méthode pour détecter les tags fautifs ou vieillissants dans les applications de logistiques. Cette méthode, non intrusive et en ligne, est basée sur l’observation des performances du système au cours de son fonctionnement : le logiciel de gestion analyse les résultats des différentes identifications. A partir du taux d’erreur de lecture par tag, et en le comparant aux taux de lecture par tag précédemment observés, cette méthode est capable de déterminer quel groupe de tags est fautif ou non. Cette méthode a été évaluée par expérimentation et par simulation grâce à SERFID. Cette évaluation a permis de mettre en évidence les points forts et les faiblesses de la méthode. / RFID systems – for RadioFrequency Identification – are able to identify object or person without any contact or direct vision. For this reason, their use grows exponentially in many different fields: nuclear, avionics, railways, medical, warehouse inventories, access control… However they are complex heterogeneous systems, consisting of analog and digital hardware components and software components: the tag, closed on the object to identified, which contains its identifier; the reader which able to read identifiers on tags; and finally the IT infrastructure to manage data. RFID technologies are often used into critical domains or within harsh environments. But as RFID systems are only based on low cost and low-performance equipments, they do not always ensure robust communications. All these points make the on-line testing of RFID systems a very complex task.This thesis focuses on dependability of RFID systems: how to be sure that this system works correctly when we need to use it? Firstly, failures and their causes have been studied using a common method called FMEA – Failure Modes and Effects Analysis – This study allows to identify weakness aspects of RFID systems. After that and thanks to this analysis, a new simulator was designed and implemented. This simulator, called SERFID for Simulation and Evaluation of RFID systems, is able to simulate various RFID systems with many devices (HF or UHF, actually implemented standards: ISO15693 or EPC Class 1 Generation 2), from tag to reader, together with the RF channel between them and the physic aspect which permit to tags and readers to communicate. SERFID also permits to connect an existing or new middleware to simulated reader to evaluate new software approach. To analyze dependability of RFID systems, SERFID allows us to inject fault in tag, channel or readers dynamically, to simulate different failures which can be appear: decrease of quality of communication or tag supply, memory errors in tag, noises… SERFID was in particular use to simulate HF and UHF RFID systems to observe their reaction according noises and disturbances in communication between tag and reader. Finally, a new method to detect faulty or aging tags or readers in traceability application was proposed. This non-intrusive on-line method is based on performance observation of the system during operation: the managing software analyzes results of an identification round. According read error rate per tag of an inventory, and comparing it with previous obtained read error rates per tag, this method is able to determine which group of tags is faulty or not. This method has been analyzed with to method: by experimentations and by simulation using SERFID. This analyze brings out weakness and strength of this method.
|
498 |
Maintaining systems-of-systems fit-for-purpose : a technique exploiting material, energy and information source, sink and bearer analysisHinsley, Steven W. January 2017 (has links)
Across many domains, systems suppliers are challenged by the complexity of their systems and the speed at which their systems must be changed in order to meet the needs of customers or the societies which the systems support. Stakeholder needs are ever more complex: appearing, disappearing, changing and interacting faster than solutions able to address them can be instantiated. Similarly, the systems themselves continually change as a result of both external and internal influences, such as damage, changing environment, upgrades, reconfiguration, replacement, etc. In the event of situations unforeseen at design time, personnel (for example maintainers or operators) close to the point of employment may have to modify systems in response to the evolving situation, and to do this in a timely manner so that the system and/or System-of-Systems (SoS: a set of systems that have to interoperate) can achieve their aims. This research was motivated by the problem of designing-in re-configurability to the constituent systems of a SoS to enable the SoS and its systems to effectively and efficiently counter the effects of unforeseen events that adversely affect fitness-for purpose whilst operational. This research shows that a SoS does not achieve or maintain fitness-for-purpose because it cannot implement the correct, timely and complete transfer of Material, Energy and Information (MEI) between its constituents and with its external environment that is necessary to achieve a desired outcome; i.e. the purpose.
|
499 |
Contribution au développement d’outils analytiques et numériques pour quantifier et qualifier la robustesse des structures / Development of analytical and numerical tools to quantify and qualify the robustness of structureSeck, El Hadji Boubacar 12 July 2018 (has links)
Les notions de robustesse structurale sont intégrées dans les codes de conception européens suite à l'effondrement partiel et progressif de la tour Ronan Point de Canning Town à Londres (Angleterre, 16.05.1968). Le cadre réglementaire des Eurocodes définit la robustesse comme l'aptitude d'une structure à résister à des événements accidentels dits identifiés (incendies, explosions, chocs) ou non identifiés (conséquences d'une erreur humaine, attentats) sans présenter de dégâts disproportionnés par rapport à la cause d'origine. Cette définition incite les ingénieurs à inclure dans les procédures de conception les notions de dommage initial (défaillance locale) et de dommage disproportionné (défaillance globale). L'objectif de ces travaux de thèse est de développer un outil de simulation de la robustesse de structures lorsque des incertitudes de sollicitations (évènement accidentel) et / ou une faute de dimensionnement (conception ou de réalisation) interfèrent avec les dimensionnements réglementaires. La robustesse est évaluée à travers un indice compris entre 0 (structure peu robuste) et 1 (structure très robuste) et calculé à partir des probabilités de défaillance initiale et globale. Cette thèse propose une méthodologie reposant sur la recherche d’arbres complets d'évènements illustrant l'ensemble des cheminements potentiels d'une défaillance initiale localisée jusqu'à la ruine globale. L'approche développée s'applique aux structures hyperstatiques, dans lesquelles la rupture d'un ou plusieurs éléments n'entraine pas systématiquement la ruine de l'ensemble de la structure. En effet, les éléments non endommagés restants peuvent être en mesure de supporter les chargements externes par une redistribution des efforts internes.La procédure est illustrée dans les cas de structures unidimensionnelles hyperstatiques de poutres bi-encastrées et d'un portique référencé dans les normes et classiquement étudié dans la littérature. Le mode local de défaillance de nos simulations est la formation d'une rotule (fragile ou plastique) lorsque le moment sollicitant appliqué atteint la valeur du moment résistant d'une section droite. Deux types de lois probabilistes, Gaussiennes et Log-normales, sont testées par l'approche développée et par des simulations Monte-Carlo. Les variables aléatoires choisies peuvent être indépendantes ou corrélées. Nous présentons les résultats sous forme d’arbres d'évènements comportant l'ensemble des branches exclusives, sans intersection entre branches issues d’un même nœud. Cette spécificité permet de calculer des indices caractérisant la robustesse de la structure selon chaque scénario.L'analyse de l’arbre des évènements et des indices de robustesse permet de mettre en évidence les fragilités potentielles pouvant engendrer une défaillance généralisée d'une structure vis-à-vis d’accidents ou d’actes de malveillance. La méthode développée fournit un outil de simulation et de diagnostic efficace, tant en phase de conception qu'en phase de réhabilitation, permettant d'envisager le renforcement de bâtis existants ou futurs et d'assurer la sécurité des personnes et des ouvrages environnants. / Localized initial failures in constructions can sometimes be followed by disproportionate damage (collapse) spreading to the whole or the major part of a building. Since the partial and progressive collapse of the Ronnan Point tower (London, $1968$) caused by a gas explosion, the concept of robustness has been introduced in standards. Structural robustness is defined as the ability of a structure to withstand unforeseen events causing local damage like fire, explosion or impact, without suffering disproportionate collapse. This definition encourages engineers to include the concepts of initial damage (local failure) and disproportionate damage (global failure) in design procedures. The main objective of this PhD work is to develop a simulation tool in order to highlight the potential weakness in a structure when uncertain sollicitations (accidental events) and/or dimensional fault (design or realization) interfere with the standard predictions. The robustness is evaluated by an index varying from 0 (non-robust structure) to 1 (very robust structure) and is calculated from the initial and global failure probabilities. The proposed methodology is based on an event tree analysis summurizing all the distinct potential scenarios, from the initial damage to the collapse of the structure. The developed approach is applied to statically indeterminate unidimensional structures like beams and frame. The redundancy's consequence is that the break of one or several cross sections will not necessarily lead to the collapse of the whole system: the redistribution of the internal efforts allows the remaining undamaged parts of the structure to support the external (applied) loading. The methodology is illustrated by some examples of clamped-clamped beam and frame, loaded with punctual forces. The cross sections are supposed to have an elastic behaviour until the formation of plastic hinges (local failure). Two types of probabilistic laws, Gaussian and Log-normal, are tested by the developed approach and by Monte-Carlo simulations. The chosen random variables can be either independent or correlated. The resulting complete event tree contains all the exclusive paths from an localised damage to the global failure, without intersection between branches stemming from the same node. This specific property allows to evaluate the robustness indexes of the structure with the ratio between the local and global probabilities, according to each scenario. The analysis of the event tree and of the robustness indexes allows to highlight the potential brittleness which could cause a generalized collapse of the structure with respect to accidents or malicious acts. The developed methodology provides an effective tool of simulation and diagnostic, both in the design phase and in the rehabilitation one, useful to the reinforcement of existing or future buildings and to ensure the safety of people and surrounding structures.
|
500 |
La robustesse en ordonnancement : une activité d’articulation des dimensions économiques et sociales : la commande du personnel de vente à la SNCF / Sustainable performance's dimensions in SNCF : differences in perception, integration and human factorsFlamard, Laetitia 26 March 2018 (has links)
Cette recherche en ergonomie porte sur le travail d’articulation des dimensions sociales et économiques des entreprises sous-tendant la conception d’ordonnancements du personnel robustes dans un contexte social sensible.Le plus souvent considérée comme un levier de flexibilité par les entreprises, les apports croisés de la littérature en GRH et en ergonomie a permis de considérer l’ordonnancement comme une activité de management de ressources « distribué », soulevant ainsi des enjeux liés à la fois aux dimensions économiques et sociales des entreprises (santé, compétences, formation, satisfaction des agents). L’objectif de ce travail de recherche est d’apporter des éléments de compréhension sur ce travail multifacette d’articulation et sur son évaluation, et ce faisant de définir la robustesse des ordonnancements.Pour appréhender cette activité, répartie entre trois niveaux différents (stratégique, tactique, opérationnel), six types de recueils de données ont été réalisés : des entretiens semi-directifs, des observations de l’activité des ordonnanceurs du niveau tactique, des groupes de travail métiers et inter-métiers, ainsi que des entretiens d’auto-confrontation outillés par des plannings réalisés.Les résultats mettent en évidence une construction dynamique de la robustesse, comme étant le résultat des stratégies mises en œuvre par les ordonnanceurs des différents niveaux. A partir de la gestion de contraintes de nature humaine et opérationnelle, les stratégies de construction de la robustesse reposent sur les connaissances qu’ont les ordonnanceurs de la réglementation, du processus, des autres ordonnanceurs et des agents commerciaux. Les ordonnancements robustes prennent différentes formes (stable ou flexible, immédiate ou différée) et doivent permettre de résister aux aléas mais aussi de construire de marges de manœuvre pour le futur.Les retombées de notre recherche portent sur la définition de la robustesse dans le champ de l’ordonnancement du personnel, sur l’activité de conception distribuée inter-métiers et à l’identification des conditions favorables à la conception de tels ordonnancements. / This research in ergonomics focuses on the design of robust personnel schedules in a sensitive social context, based on the articulation work between the social and economic dimensions of companies .it is often seen as a lever for flexibility by companies. Research in ergonomics and human resources management shows that it possible to consider scheduling as a "distributed" resource management activity, which raises issues related to both the economic and social dimensions of companies (health, skills, training, agent satisfaction). Our objectives are to understand how schedulers articulate theses dimensions, evaluate this work, and to define the robustness on scheduling.To understand this activity, divided between three different levels (strategic, tactical, operational), six types of data collection were carried out: semi-directive interviews, observations of the activity of planners at the tactical level, business and inter-business working groups, as well as self-confrontation interviews based on achieved schedules.The robustness is dynamically built from the constraint management strategies of schedulers. These are based on the schedulers’ knowledge : of regulations, of process, of other schedulers and commercial agents. Robustness takes different forms (stable or flexible, immediate or delayed) and must make it possible to resist disruptions but also to build room for manœuvre for the future.The impact of our research is related to the definition of robustness on personnel scheduling, to the joint collective activity and to the identification of the conditions in favour of robustness’ construction.
|
Page generated in 0.0723 seconds