• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 24
  • 7
  • 6
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 139
  • 139
  • 54
  • 33
  • 26
  • 25
  • 24
  • 23
  • 22
  • 21
  • 19
  • 18
  • 18
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Test and Validation of Web Services

Cao, Tien Dung 06 December 2010 (has links)
Nous proposons dans cette thèse les approches de test pour la composition de services web. Nous nous intéressons aux test unitaire et d’intégration d’une orchestration de services web. L’aspect de vérification d’exécution en-ligne est aussi consideré. Nous définissons une plateforme de test unitaire pour l’orchestration de services web qui compose une architecture de test, une relation de conformité et deux approches de test basés sur le modèle de machine à l’états finis étendues temporisés: l’approche offline où les activités de test comme la génération de cas de test temporisé, l’exécution de test et l’assignement de verdict sont appliquées en séquentielle tandis que ces activités sont appliquées en parallèle dans l’approche online. Pour le test d’intégration d’une orchestration, nous combinons deux approches: active et passive.Au debut, l’approche active est utilisée pour activer une nouvelle session d’orchestration par l’envoi d’un message de requête SOAP. Après, tous les messages d’entré et de sortie de l’orchestration sont collectés et analysés par l’approche passive.Pour l’aspect de vérification d’exécution en-ligne, nous nous intéressons à la vérification d’une trace qui respecte un ensemble des constraintes, noté règles, ou pas. Nous avons proposé extendre le langage Nomad en définissant des constraintes sur chaque action atomique et un ensemble de corrélation de données entre les actions pour définir des règles pour le service web. Ce langage nous permet de définir des règles avec le temps futur et passé, et d’utiliser des opérations NOT, AND, OR pour combiner quelque conditions dans le contexte de la règle. Ensuite, nous proposons un algorithme pour vérifier l’exactitude d’une séquence des messages en parallèle avec le moteur de collecte de trace. / In this thesis, we propose the testing approaches for web service composition. We focus on unit, integrated testing of an orchestration of web services and also the runtime verification aspect. We defined an unit testing framework for an orchestration that is composed of a test architecture, a conformance relation and two proposed testing approaches based on Timed Extended Finite State Machine (TEFSM) model: offline which test activities as timed test case generation, test execution and verdict assignment are applied in sequential, and online which test activities are applied in parallel. For integrated testing of an orchestration, we combines of two approaches: active and passive. Firstly, active approach is used to start a new session of the orchestration by sending a SOAP request. Then all communicating messages among services are collected and analyzed by a passive approach. On the runtime verification aspect, we are interested in the correctness of an execution trace with a set of defined constraints, called rules. We have proposed to extend the Nomad language, by defining the constraints on each atomic action (fixed conditions) and a set of data correlations between the actions to define the rules for web services. This language allows us to define a rule with future and past time, and to use the operations: NOT, AND, OR to combines some conditions into a context of the rule. Afterwards, we proposed an algorithm to check correctness of a message sequence in parallel with the trace collection engine. Specifically, this algorithm verifies message by message without storing them.
112

Caractérisation analytique et optimisation de codes source-canal conjoints / Analytical Characterization and Optimization of Joint Source-Channel Codes

Diallo, Amadou Tidiane 01 October 2012 (has links)
Les codes source-canal conjoints sont des codes réalisant simultanément une compression de données et une protection du train binaire généré par rapport à d’éventuelles erreurs de transmission. Ces codes sont non-linéaires, comme la plupart des codes de source. Leur intérêt potentiel est d’offrir de bonnes performances en termes de compression et de correction d’erreur pour des longueurs de codes réduites.La performance d’un code de source se mesure par la différence entre l’entropie de la source à compresser et le nombre moyen de bits nécessaire pour coder un symbole de cette source. La performance d’un code de canal se mesure par la distance minimale entre mots de codes ou entre suite de mots de codes, et plus généralement à l’aide du spectre des distances. Les codes classiques disposent d’outils pour évaluer efficacement ces critères de performance. Par ailleurs, la synthèse de bons codes de source ou de bons codes de canal est un domaine largement exploré depuis les travaux de Shannon. Par contre des outils analogues pour des codes source-canal conjoints, tant pour l’évaluation de performance que pour la synthèse de bons codes restaient à développer, même si certaines propositions ont déjà été faites dans le passé.Cette thèse s’intéresse à la famille des codes source-canal conjoints pouvant être décrits par des automates possédant un nombre fini d’états. Les codes quasi-arithmétiques correcteurs d’erreurs et les codes à longueurs variables correcteurs d’erreurs font partie de cette famille. La manière dont un automate peut être obtenu pour un code donné est rappelée.A partir d’un automate, il est possible de construire un graphe produit permettant de décrire toutes les paires de chemins divergeant d'un même état et convergeant vers un autre état. Nous avons montré que grâce à l’algorithme de Dijkstra, il est alors possible d’évaluer la distance libre d’un code conjoint avec une complexité polynomiale.Pour les codes à longueurs variables correcteurs d’erreurs, nous avons proposé des bornes supplémentaires, faciles à évaluer. Ces bornes constituent des extensions des bornes de Plotkin et de Heller aux codes à longueurs variables. Des bornes peuvent également être déduites du graphe produit associé à un code dont seule une partie des mots de codes a été spécifiée.Ces outils pour borner ou évaluer exactement la distance libre d’un code conjoint permettent de réaliser la synthèse de codes ayant des bonnes propriétés de distance pour une redondance donnée ou minimisant la redondance pour une distance libre donnée.Notre approche consiste à organiser la recherche de bons codes source-canal conjoints à l’aide d’arbres. La racine de l’arbre correspond à un code dont aucun bit n’est spécifié, les feuilles à des codes dont tous les bits sont spécifiés, et les nœuds intermédiaires à des codes partiellement spécifiés. Lors d’un déplacement de la racine vers les feuilles de l’arbre, les bornes supérieures sur la distance libre décroissent, tandis que les bornes inférieures croissent. Ceci permet d’appliquer un algorithme de type branch-and-prune pour trouver le code avec la plus grande distance libre, sans avoir à explorer tout l’arbre contenant les codes. L'approche proposée a permis la construction de codes conjoints pour les lettres de l'alphabet. Comparé à un schéma tandem équivalent (code de source suivi d'un code convolutif), les codes obtenus ont des performances comparables (taux de codage, distance libre) tout en étant moins complexes en termes de nombre d’état du décodeur.Plusieurs extensions de ces travaux sont en cours : 1) synthèse de codes à longueurs variables correcteurs d’erreurs formalisé comme un problème de programmation linéaire mixte sur les entiers ; 2) exploration à l’aide d’un algorithme de type A* de l’espace des codes de à longueurs variables correcteur d’erreurs. / Joint source-channel codes are codes simultaneously providing data compression and protection of the generated bitstream from transmission errors. These codes are non-linear, as most source codes. Their potential is to offer good performance in terms of compression and error-correction for reduced code lengths.The performance of a source code is measured by the difference between the entropy of the source to be compressed and the average number of bits needed to encode a symbol of this source. The performance of a channel code is measured by the minimum distance between codewords or sequences of codewords, and more generally with the distance spectrum. The classic codes have tools to effectively evaluate these performance criteria. Furthermore, the design of good source codes or good channel codes is a largely explored since the work of Shannon. But, similar tools for joint source-channel codes, for performances evaluation or for design good codes remained to develop, although some proposals have been made in the past.This thesis focuses on the family of joint source-channel codes that can be described by automata with a finite number of states. Error-correcting quasi-arithmetic codes and error-correcting variable-length codes are part of this family. The way to construct an automaton for a given code is recalled.From an automaton, it is possible to construct a product graph for describing all pairs of paths diverging from some state and converging to the same or another state. We have shown that, using Dijkstra's algorithm, it is possible to evaluate the free distance of a joint code with polynomial complexity. For errors-correcting variable-length codes, we proposed additional bounds that are easy to evaluate. These bounds are extensions of Plotkin and Heller bounds to variable-length codes. Bounds can also be deduced from the product graph associated to a code, in which only a part of code words is specified.These tools to accurately assess or bound the free distance of a joint code allow the design of codes with good distance properties for a given redundancy or minimizing redundancy for a given free distance. Our approach is to organize the search for good joint source-channel codes with trees. The root of the tree corresponds to a code in which no bit is specified, the leaves of codes in which all bits are specified, and the intermediate nodes to partially specified codes. When moving from the root to the leaves of the tree, the upper bound on the free distance decreases, while the lower bound grows. This allows application of an algorithm such as branch-and-prune for finding the code with the largest free distance, without having to explore the whole tree containing the codes.The proposed approach has allowed the construction of joint codes for the letters of the alphabet. Compared to an equivalent tandem scheme (source code followed by a convolutional code), the codes obtained have comparable performance (rate coding, free distance) while being less complex in terms of the number of states of the decoder. Several extensions of this work are in progress: 1) synthesis of error-correcting variable-length codes formalized as a mixed linear programming problem on integers, 2) Explore the search space of error-correcting variable-length codes using an algorithm such as A* algorithm.
113

Model based testing of service oriented applications / Teste baseado em modelo de aplicações orientadas a serviço

Endo, André Takeshi 19 April 2013 (has links)
SERVICE oriented architecture (SOA) is an architectural style to structure software systems, fostering loose coupling and dynamic integration among the applications. The use of SOA and Web services to develop complex and large business processes demands more formal and systematic testing. In addition, characteristics of this type of software limit the straightforward application of traditional testing techniques. Model-based testing (MBT) is a promising approach to deal with these problems. This dissertation investigates how two modeling techniques, namely Finite State Machine (FSM) and Event Sequence Graph (ESG), can be used to support MBT of service-oriented applications. Both techniques model different aspects and can be applied in a complementary way. Initially, we define an MBT process for service-oriented applications that employs FSMs. Based on previous experience, we propose a model-based approach to test composite services using ESGs. This approach is holistic, once test suites are generated to cover both desired situations (positive testing) and unexpected behaviors (negative testing). Three experimental studies evaluate the proposed approach: (i) a case study, (ii) a cost analysis, and (iii) a study in industry. Testing tools are also presented to support its practical use / A Arquitetura orientada a serviço (SOA) é um estilo arquitetural para estruturar sistemas de software de modo que exista um baixo grau de acoplamento entre as aplicações e essas possam ser facilmente integradas de forma dinâmica. A incorporação de SOA e serviços Web em sistemas que modelam processos de negócios grandes e complexos contribui para a necessidade de testes mais formais e sistemáticos. Além disso, características próprias dessa nova classe de software fazem com que técnicas de teste tradicionais não possam ser diretamente aplicadas. O teste baseado em modelo (TBM) apresenta-se como uma abordagem promissora que busca a resolução desses problemas. Esta tese investiga como duas técnicas de modelagem, Máquina de Estados Finitos (MEF) e Grafo de Sequência de Eventos (GSE), podem ser utilizadas para apoiar o TBM de aplicações orientadas a serviço. Essas técnicas modelam diferentes aspectos e podem ser aplicadas de forma complementar. Inicialmente, é definido um processo de TBM para aplicações orientadas a serviço que emprega MEFs. Com base na experiência adquirida, é proposta uma abordagem baseada em modelo para o teste de serviços compostos usando GSEs. Essa abordagem é holística uma vez que conjuntos de teste são gerados para cobrir tanto situações desejadas (teste positivo) quanto comportamentos inesperados (teste negativo). Três estudos experimentais avaliam a abordagem proposta: (i) um estudo de caso, (ii) uma análise de custo e (ii) um estudo na indústria. Ferramentas de teste também são apresentadas para apoiar o uso prático da abordagem proposta
114

Analyse de programmes malveillants par abstraction de comportements / Malware Analysis by Behavior Abstraction

Beaucamps, Philippe 14 November 2011 (has links)
L’analyse comportementale traditionnelle opère en général au niveau de l’implantation de comportements malveillants. Pourtant, elle s’intéresse surtout à l’identification de fonctionnalités données et elle se situe donc plus naturellement à un niveau fonctionnel. Dans cette thèse, nous définissons une forme d’analyse comportementale de programmes qui opère non pas sur les interactions élémentaires d’un programme avec le système mais sur la fonction que le programme réalise. Cette fonction est extraite des traces d’un pro- gramme, un procédé que nous appelons abstraction. Nous définissons de façon simple, intuitive et formelle les fonctionnalités de base à abstraire et les comportements à détecter, puis nous proposons un mécanisme d’abstraction applicable à un cadre d’analyse statique ou dynamique, avec des algorithmes pratiques à complexité raisonnable, enfin nous décrivons une technique d’analyse comportementale intégrant ce mécanisme d’abstraction. Notre méthode est particulièrement adaptée à l’analyse des programmes dans des langages de haut niveau ou dont le code source est connu, pour lesquels l’analyse statique est facilitée : applications mobiles en .NET ou Java, scripts, extensions de navigateurs, composants off-the-shelf.Le formalisme d’analyse comportementale par abstraction que nous proposons repose sur la théorie de la réécriture de mots et de termes, les langages réguliers de mots et de termes et le model checking. Il permet d’identifier efficacement des fonctionnalités dans des traces et ainsi d’obtenir une représentation des traces à un niveau fonctionnel; il définit les fonctionnalités et les comportements de façon naturelle, à l’aide de formules de logique temporelle, ce qui garantit leur simplicité et leur flexibilité et permet l’utilisation de techniques de model checking pour la détection de ces comportements ; il opère sur un ensemble quelconque de traces d’exécution ; il prend en compte le flux de données dans les traces d’exécution; et il permet, sans perte d’efficacité, de tenir compte de l’incertitude dans l’identification des fonctionnalités. Un cadre d’expérimentation a été mis en place dans un contexte d’analyse dynamique comme statique / Traditional behavior analysis usually operates at the implementation level of malicious behaviors. Yet, it is mostly concerned with the identification of given functionalities and is therefore more naturally defined at a functional level. In this thesis, we define a form of program behavior analysis which operates on the function realized by a program rather than on its elementary interactions with the system. This function is extracted from program traces, a process we call abstraction. We define in a simple, intuitive and formal way the basic functionalities to abstract and the behaviors to detect, then we propose an abstraction mechanism applicable both to a static or to a dynamic analysis setting, with practical algorithms of reasonable complexity, finally we describe a behavior analysis technique integrating this abstraction mechanism. Our method is particularly suited to the analysis of programs written in high level languages or with a known source code, for which static analysis is facilitated: mobile applications for .NET or Java, scripts, browser addons, off-the-shelf components.The formalism we propose for behavior analysis by abstraction relies on the theory of string and terms rewriting, word and tree languages and model checking. It allows an efficient identification of functionalities in traces and thus the construction of a represen- tation of traces at a functional level; it defines functionalities and behaviors in a natural way, using temporal logic formulas, which assure their simplicity and their flexibility and enables the use of model checking techniques for behavior detection; it operates on an unrestricted set of execution traces; it handles the data flow in execution traces; and it allows the consideration of uncertainty in the identification of functionalities, with no complexity overhead. Experiments have been conducted in a dynamic and static analysis setting
115

Quelques développements combinatoires autour des groupes de Coxeter et des partitions d'entiers / Some combinatorial developpements about Coxeter Groups and integer partitions

Pétréolle, Mathias 25 November 2015 (has links)
Cette thèse porte sur l'étude de la combinatoire énumérative, plus particulièrement autour des partitions d'entiers et des groupes de Coxeter. Dans une première partie, à l'instar de Han et de Nekrasov-Okounkov, nous étudions des développements combinatoires des puissances de la fonction êta de Dedekind, en termes de longueurs d'équerres de partitions d'entiers. Notre approche, bijective, utilise notamment les identités de Macdonald en types affines (en particulier le type C), généralisant l'approche de Han en type A. Nous étendons ensuite avec de nouveaux paramètres ces développements, grâce à de nouvelles propriétés de la décomposition de Littlewood vis-à-vis des partitions et statistiques considérées. Cela nous permet de déduire des formules des équerres symplectiques, ainsi qu'une connexion avec la théorie des représentations. Dans une seconde partie, nous étudions les éléments cycliquement pleinement commutatifs dans les groupes de Coxeter introduits par Boothby et al., qui forment une sous famille des éléments pleinement commutatifs. Nous commençons par développer une construction, la clôture cylindrique, donnant un cadre théorique qui est aux éléments CPC ce que les empilements de Viennot sont aux éléments PC. Nous donnons une caractérisation des éléments CPC en terme de clôtures cylindriques pour n'importe quel système de Coxeter. Celle-ci nous permet de déterminer en termes d'expressions réduites les éléments CPC dans tous les groupes de Coxeter finis ou affines, et d'en déduire dans tous ces groupes l'énumération de ces éléments. En utilisant la théorie des automates finis, nous montrons aussi que la série génératrice de ces éléments est une fraction rationnelle / This thesis focuses on enumerative combinatorics, particularly on integer partitions and Coxeter groups. In the first part, like Han and Nekrasov-Okounkov, we study the combinatorial expansion of power of the Dedekind's eta function, in terms of hook lengths of integer partitions. Our approach, bijective, use the Macdonald identities in affine types, generalizing the study of Han in the case of type A. We extend with new parameters the expansions that we obtained through new properties of the Littlewood decomposition. This enables us to deduce symplectic hook length formulas and a connexion with representation theory. In the second part, we study the cyclically fully commutative elements in Coxeter groups, introduced by Boothby et al., which are a sub family of the fully commutative elements. We start by introducing a new construction, the cylindrical closure, which give a theoretical framework for the CPC elements analogous to the Viennot's heaps for fully commutative elements. We give a characterization of CPC elements in terms of cylindrical closures in any Coxeter groups. This allows to deduce a characterization of these elements in terms of reduced decompositions in all finite and affine Coxeter and their enumerations in those groups. By using the theory of finite state automata, we show that the generating function of these elements is always rational, in all Coxeter groups
116

Extension and analysis of hybrid ARQ schemes in the context of cooperative relaying

Vanyan, Anna 10 June 2014 (has links) (PDF)
In the wireless channel, cooperative communications allow one or many relays to assist the communication between the source and the destination. The aim of this thesis is the development of tools for the analysis of cooperative systems, when HARQ techniques are employed to provide cross-layer error protection. The first chapter of the thesis gives background information on network coding in cooperative relay networks, and introduces the motivation for this work. The second chapter is devoted to the analysis of the energetic-fair performance evaluations of FEC, ARQ-STBC and HARQ schemes at the MAC and IP layers. New analytical framework is derived and applied to a point-to-point network scenario. This framework allows to make energetic fair comparisons between the schemes with and without retransmissions. We determine under which channel conditions the cross-layer error protection is energetically more efficient than the simple channel coding. In the third chapter of this thesis we study the cooperative deterministic protocols. The protocols that we consider differ based on the behaviour of the relay(s), source(s), and destination. We consider two major types of cooperative protocols: decode-and forward (DCF), and demodulate-and-forward (DMF). Each of these protocols in its turn is analysed with and without combining mechanisms at the destination. We derive the soft decoders at the destination side for each respective case, and compare the performances of these protocols at the MAC layer. The following quality of service metrics are evaluated: frame error rate, delay, efficiency, goodput. The analysis is done evaluating the steady-state, using finite state Markov chains and a combinatorial approach. The analysis, however, becomes very complex as the number of transmissions and/or nodes in the network increases. The fourth chapter introduces a class of probabilistic communication protocols, where the devices retransmit with a given probability. We prove the existence of an equivalent class of protocols, with the same performances as the deterministic class. Using proofs of concept it is shown that the probabilistic protocol class allows for tractable steady-state analysis, even for many nodes in the network. Based on this, we then derive the QoS metrics and evalute them also by simulations. The derived performance evaluation metrics are then optimized by constraining the frame error rate, and trying to find the most optimal transmissions number and code rates which maximize the goodput. It is furthermore shown, that the equivalent protocol has larger optimal region than the deterministic one.
117

Σύνθεση με δεσμευμένο θέμα στην Αγγλική και τη νέα Ελληνική : θεωρητική ανάλυση και υπολογιστική επεξεργασία

Πετροπούλου, Ευανθία 05 March 2012 (has links)
Η παρούσα διατριβή ασχολείται με τη συγκριτική μελέτη λέξεων στην Αγγλική και τη Νέα Ελληνική που περιέχουν δεσμευμένα μορφολογικά στοιχεία, δηλαδή μορφήματα που δεν απαντώνται ανεξάρτητα στο λόγο. Στην Αγγλική οι λέξεις αυτές είναι γνωστές με τον όρο «νεοκλασικά σύνθετα», καθώς τα δεσμευμένα στοιχεία που περιέχουν έχουν αρχαιοελληνική ή λατινική προέλευση. Στη Νέα Ελληνική πρόκειται για μία κατηγορία ρηματικών συνθέτων, που περιέχουν ένα δεσμευμένο θέμα ρηματικής προέλευσης σε τελική θέση. Σημαντικό χαρακτηριστικό των εν λόγω λέξεων είναι ότι ένα μεγάλο ποσοστό αυτών ανήκει σε ειδικά επιστημονικά και τεχνικά λεξιλόγια. Στόχος της μελέτης είναι ο άμεσος συσχετισμός των λέξεων αυτών στις δύο γλώσσες από μορφολογική άποψη, με απώτερο σκοπό τη βέλτιστη υπολογιστική τους επεξεργασία. Για τις ανάγκες της παρούσας συγκροτήθηκαν δύο σώματα δεσμευμένων θεμάτων που εμφανίζονται σε τελική θέση μέσα σε λέξεις της Αγγλικής και της Νέας Ελληνικής, τα οποία αποτέλεσαν τα κύρια γλωσσικά δεδομένα, τόσο για την θεωρητική ανάλυση, όσο και για την υπολογιστική επεξεργασία των υπό εξέταση λέξεων. Λαμβάνοντας υπόψη τις θεωρητικές απόψεις που έχουν διατυπωθεί, τα δεδομένα που προέκυψαν από την εξέταση των σωμάτων δεσμευμένων στοιχείων, καθώς και την παρουσία των λέξεων με δεσμευμένα στοιχεία κατά τη διάρκεια εξέλιξης της κάθε γλώσσας, πραγματοποιείται η μορφολογική τους ανάλυση, που έχει ως αποτέλεσμα τον άμεσο συσχετισμό τους με την αναγνώριση αντίστοιχων δομών στις εν λόγω λέξεις. Με βάση τα συμπεράσματα της θεωρητικής ανάλυσης επιχειρείται η δημιουργία ενός συστήματος υπολογιστικής μορφολογικής επεξεργασίας των εν λόγω λέξεων, που διέπεται από κοινές αρχές και κοινούς κανόνες για τις δύο γλώσσες, με στόχο την όσο το δυνατόν αποτελεσματικότερη και οικονομικότερη περιγραφή του φαινομένου, για χρήση σε ένα πλήθος εφαρμογών της γλωσσικής επεξεργασίας. Ο φορμαλισμός που χρησιμοποιείται αποτελεί έναν λεξιλογικό μεταγλωττιστή (LEXC) που είναι ιδιαίτερα κατάλληλος για τον ορισμό λεξιλογίων φυσικών γλωσσών και βασίζεται στις μεθόδους πεπερασμένων καταστάσεων. / This PhD thesis deals with the comparative study of words containing bound morphological stems in English and Modern Greek (MG) and their computational processing. A great number of these words, also known as neoclassical compounds, belong to technical and scientific terminologies. The linguistic database used for the theoretical analysis and the computational processing proposed in this study, consists of two corpora, especially built for and appended in the current study, containing bound stems as final elements in words of English and MG. According to the theoretical analysis proposed, compounds with bound stems in the two languages share similar structures. The proposed system for the computational processing of these words, based on the the conclusions of the theoretical analysis, makes use of finite state methods, specifically the Xerox Lexical Compiler (LEXC) and offers an efficient way of implementing the phenomenon of neoclassical compounding in modern languages.
118

Flot de conception pour l'ultra faible consommation : échantillonnage non-uniforme et électronique asynchrone / Design flow for ultra-low power : non-uniform sampling and asynchronous circuits

Simatic, Jean 07 December 2017 (has links)
Les systèmes intégrés sont souvent des systèmes hétérogènes avec des contraintes fortes de consommation électrique. Ils embarquent aujourd'hui des actionneurs, des capteurs et des unités pour le traitement du signal. Afin de limiter l'énergie consommée, ils peuvent tirer profit des techniques évènementielles que sont l'échantillonnage non uniforme et l'électronique asynchrone. En effet, elles permettent de réduire drastiquement la quantité de données échantillonnées pour de nombreuses classes de signaux et de diminuer l'activité. Pour aider les concepteurs à développer rapidement des plateformes exploitant ces deux techniques évènementielles, nous avons élaboré un flot de conception nommé ALPS. Il propose un environnement permettant de déterminer et de simuler au niveau algorithmique le schéma d'échantillonnage et les traitements associés afin de sélectionner les plus efficients en fonction de l'application ciblée. ALPS génère directement le convertisseur analogique/numérique à partir des paramètres d'échantillonnage choisis. L'élaboration de la partie de traitement s'appuie quant à elle sur un outil de synthèse de haut niveau synchrone et une méthode de désynchronisation exploitant des protocoles asynchrones spécifiques, capables d'optimiser la surface et la consommation du circuit. Enfin, des simulations au niveau porteslogiques permettent d'analyser et de valider l'énergie consommée avant de poursuivre par un flot classique de placement et routage. Les évaluations conduites montrent une réduction d'un facteur 3 à 8 de la consommation des circuits automatiquement générés. Le flot ALPS permet à un concepteur non-spécialiste de se concentrer sur l'optimisation de l'échantillonnage et de l'algorithme en fonction de l'application et de potentiellement réduire d'un ou plusieurs ordres de grandeur la consommation du circuit. / Integrated systems are mainly heterogeneous systems with strong powerconsumption constraints. They embed actuators, sensors and signalprocessing units. To limit the energy consumption, they can exploitevent-based techniques, namely non-uniform sampling and asynchronouscircuits. Indeed, they allow cutting drastically the amount of sampleddata for many types of signals and reducing the system activity. To helpdesigners in quickly developing platforms that exploit those event-basedtechniques, we elaborated a design framework called ALPS. It proposes anenvironment to determine and simulate at algorithmic level the samplingscheme and the associated processing in order to select the mostefficient ones depending on the targetted application. ALPS generatesdirectly the analog-to-digital converter based on the chosen samplingparameters. The elaboration of the processing unit uses a synchronoushigh-level synthesis tool and a desynchronization method that exploitsspecific asynchronous protocols to optimize the circuit area and powerconsumption. Finally, gate-level simulations allow analyzing andvalidating the energy consumption before continuing with a standardplacement and routing flow. The conducted evaluations show a reductionfactor of 3 to 8 of the consumption of the automatically generatedcirctuis. The flow ALPS allow non-specialists to concentrate on theoptimization of the sampling and the processing in function of theirapplication and to reduice the circuit power consumptions by one toseveral orders of magnitude.
119

Modelagem e implementação de sistemas de controle supervisório baseados em máquinas de estados com saídas / Modeling and implementation of supervisory control systems based on state machines with outputs

Possan Junior, Moacyr Carlos 15 December 2009 (has links)
Made available in DSpace on 2016-12-12T17:38:37Z (GMT). No. of bitstreams: 1 Moacyr Carlos Possan Junior.pdf: 1940795 bytes, checksum: 58824c0ca3ed2180f9e245d34118e117 (MD5) Previous issue date: 2009-12-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work presents a new methodology for the modeling of supervisory control systems based on state machines with outputs, obtained from the automata which represent the supervisors found with the usage of the Supervisory Control Theory (SCT) of Discrete Event Systems (DES). Procedures like that are useful to create the documentation which represents the control logic for large scale systems and for the code generation, as well as allows that the documentation and program code updates be easier when new requirements to change the control logic in flexible systems appear. Besides, it makes way for the generation of more reliable solutions and also for the possibility of automatic code generation. The proposed technique consists on the obtaining of finite state machines with outputs using as input information the automata of the supervisors obtained by the SCT and the control actions of the system, where the control logic redundancies existing in the model of the automata are eliminated. Methodologies based on either monolithic or local modular approach are proposed, where the obtained machines are further simplified in order to have simpler models which are used as templates for the implementation in Programmable Logic Controller (PLC) using Ladder language. The methodology is shown using a simple manufacturing system as example to help on its understanding. Besides, this work deals with the difficulties found in the migration from the event based theory in the TCS to the signal based practice for the CLPs. After the presentation of this methodology, it is performed the modeling and implementation for a larger system, a manufacturing cell where a comparison with another existing methodology which also has the SCT as base is performed in order to verify the advantages and disadvantages of such methodology. / Este trabalho apresenta uma nova metodologia para a modelagem de sistemas de controle supervisório baseados em máquinas de estados com saídas, obtidas a partir dos autômatos que representam os supervisores encontrados com o uso da Teoria de Controle Supervisório (TCS) de Sistemas a Eventos Discretos (SEDs). Procedimentos como este são úteis para criar a documentação relativa à especificações de sistemas de grande porte e à geração de código, assim como permitem que a atualização da documentação e do código seja facilitada quando surgem novos requisitos para variação da lógica de controle em sistemas flexíveis. Além disso, isso abre espaço para a geração de soluções mais confiáveis e também para a possibilidade de geração automática de código. A técnica proposta consiste em obter máquinas de estados finitos com saídas usando como informação os autômatos dos supervisores obtidos por intermédio da TCS e as ações de controle do sistema, onde redundâncias da lógica de controle presentes no modelo do autômato são eliminadas. São propostas abordagens tanto no contexto monolítico quanto no contexto modular local, onde as máquinas obtidas são reduzidas posteriormente com o intuito de obter modelos mais simples, que servem como referência para a implementação em Controlador Lógico Programável (CLP) usando linguagem Ladder. A metodologia é demonstrada usando um sistema de manufatura simples como exemplo a fim de facilitar sua compreensão. Além disso, este trabalho trata das dificuldades encontradas na migração da teoria baseada em eventos da TCS na prática baseada em sinais dos CLPs. Após a apresentação da metodologia, é feita a modelagem e implementação para um sistema de maior porte, uma célula de manufatura onde é efetuada uma comparação com uma metodologia já existente que também têm como base a TCS, com o intuito de verificar as vantagens e desvantagens dessa metodologia
120

Estima??o param?trica e n?o-param?trica em modelos de markov ocultos

Medeiros, Francisco Mois?s C?ndido de 10 February 2010 (has links)
Made available in DSpace on 2015-03-03T15:22:32Z (GMT). No. of bitstreams: 1 FranciscoMCM.pdf: 1391370 bytes, checksum: 2bdc2511202e3397ea85e69a321f5847 (MD5) Previous issue date: 2010-02-10 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / In this work we study the Hidden Markov Models with finite as well as general state space. In the finite case, the forward and backward algorithms are considered and the probability of a given observed sequence is computed. Next, we use the EM algorithm to estimate the model parameters. In the general case, the kernel estimators are used and to built a sequence of estimators that converge in L1-norm to the density function of the observable process / Neste trabalho estudamos os modelos de Markov ocultos tanto em espa?o de estados finito quanto em espa?o de estados geral. No caso discreto, estudamos os algoritmos para frente e para tr?s para determinar a probabilidade da sequ?ncia observada e, em seguida, estimamos os par?metros do modelo via algoritmo EM. No caso geral, estudamos os estimadores do tipo n?cleo e os utilizamos para conseguir uma sequ?ncia de estimadores que converge na norma L1 para a fun??o densidade do processo observado

Page generated in 0.0845 seconds