• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 7
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 49
  • 49
  • 49
  • 10
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

VERIFICATION AND VALIDATION OF A SAFETY SYSTEM FOR A FUEL-CELL RESEARCH FACILITY: A CASE STUDY

Faria, Daniel C. 24 August 2007 (has links)
No description available.
42

Test and Validation of Web Services

Cao, Tien Dung 06 December 2010 (has links)
Nous proposons dans cette thèse les approches de test pour la composition de services web. Nous nous intéressons aux test unitaire et d’intégration d’une orchestration de services web. L’aspect de vérification d’exécution en-ligne est aussi consideré. Nous définissons une plateforme de test unitaire pour l’orchestration de services web qui compose une architecture de test, une relation de conformité et deux approches de test basés sur le modèle de machine à l’états finis étendues temporisés: l’approche offline où les activités de test comme la génération de cas de test temporisé, l’exécution de test et l’assignement de verdict sont appliquées en séquentielle tandis que ces activités sont appliquées en parallèle dans l’approche online. Pour le test d’intégration d’une orchestration, nous combinons deux approches: active et passive.Au debut, l’approche active est utilisée pour activer une nouvelle session d’orchestration par l’envoi d’un message de requête SOAP. Après, tous les messages d’entré et de sortie de l’orchestration sont collectés et analysés par l’approche passive.Pour l’aspect de vérification d’exécution en-ligne, nous nous intéressons à la vérification d’une trace qui respecte un ensemble des constraintes, noté règles, ou pas. Nous avons proposé extendre le langage Nomad en définissant des constraintes sur chaque action atomique et un ensemble de corrélation de données entre les actions pour définir des règles pour le service web. Ce langage nous permet de définir des règles avec le temps futur et passé, et d’utiliser des opérations NOT, AND, OR pour combiner quelque conditions dans le contexte de la règle. Ensuite, nous proposons un algorithme pour vérifier l’exactitude d’une séquence des messages en parallèle avec le moteur de collecte de trace. / In this thesis, we propose the testing approaches for web service composition. We focus on unit, integrated testing of an orchestration of web services and also the runtime verification aspect. We defined an unit testing framework for an orchestration that is composed of a test architecture, a conformance relation and two proposed testing approaches based on Timed Extended Finite State Machine (TEFSM) model: offline which test activities as timed test case generation, test execution and verdict assignment are applied in sequential, and online which test activities are applied in parallel. For integrated testing of an orchestration, we combines of two approaches: active and passive. Firstly, active approach is used to start a new session of the orchestration by sending a SOAP request. Then all communicating messages among services are collected and analyzed by a passive approach. On the runtime verification aspect, we are interested in the correctness of an execution trace with a set of defined constraints, called rules. We have proposed to extend the Nomad language, by defining the constraints on each atomic action (fixed conditions) and a set of data correlations between the actions to define the rules for web services. This language allows us to define a rule with future and past time, and to use the operations: NOT, AND, OR to combines some conditions into a context of the rule. Afterwards, we proposed an algorithm to check correctness of a message sequence in parallel with the trace collection engine. Specifically, this algorithm verifies message by message without storing them.
43

Flot de conception pour l'ultra faible consommation : échantillonnage non-uniforme et électronique asynchrone / Design flow for ultra-low power : non-uniform sampling and asynchronous circuits

Simatic, Jean 07 December 2017 (has links)
Les systèmes intégrés sont souvent des systèmes hétérogènes avec des contraintes fortes de consommation électrique. Ils embarquent aujourd'hui des actionneurs, des capteurs et des unités pour le traitement du signal. Afin de limiter l'énergie consommée, ils peuvent tirer profit des techniques évènementielles que sont l'échantillonnage non uniforme et l'électronique asynchrone. En effet, elles permettent de réduire drastiquement la quantité de données échantillonnées pour de nombreuses classes de signaux et de diminuer l'activité. Pour aider les concepteurs à développer rapidement des plateformes exploitant ces deux techniques évènementielles, nous avons élaboré un flot de conception nommé ALPS. Il propose un environnement permettant de déterminer et de simuler au niveau algorithmique le schéma d'échantillonnage et les traitements associés afin de sélectionner les plus efficients en fonction de l'application ciblée. ALPS génère directement le convertisseur analogique/numérique à partir des paramètres d'échantillonnage choisis. L'élaboration de la partie de traitement s'appuie quant à elle sur un outil de synthèse de haut niveau synchrone et une méthode de désynchronisation exploitant des protocoles asynchrones spécifiques, capables d'optimiser la surface et la consommation du circuit. Enfin, des simulations au niveau porteslogiques permettent d'analyser et de valider l'énergie consommée avant de poursuivre par un flot classique de placement et routage. Les évaluations conduites montrent une réduction d'un facteur 3 à 8 de la consommation des circuits automatiquement générés. Le flot ALPS permet à un concepteur non-spécialiste de se concentrer sur l'optimisation de l'échantillonnage et de l'algorithme en fonction de l'application et de potentiellement réduire d'un ou plusieurs ordres de grandeur la consommation du circuit. / Integrated systems are mainly heterogeneous systems with strong powerconsumption constraints. They embed actuators, sensors and signalprocessing units. To limit the energy consumption, they can exploitevent-based techniques, namely non-uniform sampling and asynchronouscircuits. Indeed, they allow cutting drastically the amount of sampleddata for many types of signals and reducing the system activity. To helpdesigners in quickly developing platforms that exploit those event-basedtechniques, we elaborated a design framework called ALPS. It proposes anenvironment to determine and simulate at algorithmic level the samplingscheme and the associated processing in order to select the mostefficient ones depending on the targetted application. ALPS generatesdirectly the analog-to-digital converter based on the chosen samplingparameters. The elaboration of the processing unit uses a synchronoushigh-level synthesis tool and a desynchronization method that exploitsspecific asynchronous protocols to optimize the circuit area and powerconsumption. Finally, gate-level simulations allow analyzing andvalidating the energy consumption before continuing with a standardplacement and routing flow. The conducted evaluations show a reductionfactor of 3 to 8 of the consumption of the automatically generatedcirctuis. The flow ALPS allow non-specialists to concentrate on theoptimization of the sampling and the processing in function of theirapplication and to reduice the circuit power consumptions by one toseveral orders of magnitude.
44

Auto-configuration, supervision et contrôle d'entités physiques par l'intermédiaire de réseaux de capteurs et actionneurs / Self-configuration, monitoring and control of physical entities via sensor and actuator networks

Hu, Zheng 22 January 2014 (has links)
Les entités physiques prises en compte par les applications dites M2M dans les télécoms sont aujourd’hui de plus en plus hétérogènes. Le défi adressé par ce travail est donc l’intégration, et la configuration automatiques de toutes ces différentes variétés d’entités physiques d’une façon homogène dans les systèmes M2M, en généralisant les approches de configuration automatique déjà connues et utilisées pour les objets communicants numériques. Cette thèse présente un cadre théorique général et des mécanismes de base pour l’identification de modèles de telles entités physiques dans les systèmes d’information embarqués répartis, en englobant dans une même approche les équipements et les sous-ensembles de l’espace, faisant se rejoindre les points de vue ”internet des objets” et ”environnement interactif” dans une nouvelle vision unifiée de l’intelligence ambiante. Ce travail, motivé initialement par les applications à la gestion d’énergie domestique, cherche à intégrer au réseau local de la maison des entités physiques qui ont un impact énergétique mais ne sont dotés d’aucune connexion réseau, ce qui correspond à une extension qualitative du périmètre de l’Internet des Objets. Cette intégration se fait de manière tout à fait similaire à ce qui est fait classiquement pour des équipements numériques état de l’art, c’est-à-dire par des mécanismes de découverte et configuration spontanés. Ces mécanismes comportent les étapes suivantes : détection de la présence d’une entité physique par analyse de la coïncidence d’évènements significatifs reçus de capteurs ; sélection d’un premier modèle générique représentatif de l’entité physique détectée depuis une ontologie de référence en analysant des données reçues les capteurs ; création d’un composant logiciel représentant l’entité physique détectée, à partir du modèle sélectionné, et associant les capteurs et actionneurs utiles ; supervision et contrôle de l’entité cible par l’intermédiaire de ce composant logiciel ; mise à jour incrémentale du modèle de l’entité identifiée par analyse des données issues des capteurs associés. Ce travail est parti d’applications dans l’environnement de la maison, pour lesquelles il a été validé et mis en œuvre. Mais notre approche a vocation à être généralisée et étendue à des environnements comme les bâtiments ou la ville, en offrant suivant le même principe une infrastructure partagée pour toutes les applications M2M dans ces environnements / The physical entities which are taken into account by Machine to Machine (M2M) telecom applications are more and more heterogeneous. The challenge addressed by our research is the automatic integration and configuration of all these types of physical entities in M2M systems, with a homogeneous solution that generalizes self-configuration approaches used for networked digital devices. This thesis presents a general theoretical framework and basic mechanisms for the identification and configuration of such physical entity models in distributed embedded information systems. Our approach deals jointly with equipment and space entities encompassing the ”Internet of Things” (IoT) and ”interactive environment” viewpoints in a renewed interpretation of ambient intelligence. This work has been motivated initially by home energy management applications, trying to integrate into the Home Area Network all home entities that play a role in energy management, but do not have a networked interface of their own. This corresponds to a qualitative extension of the perimeter of the Home Area Network. This integration is achieved in a way similar to what is done for state of the art digital devices, through a spontaneous discovery and configuration mechanism, with the following stages: detection of the presence of a physical entity by analyzing the coincidence of significant events detected by sensors; selection of the first generic model corresponding to the detected physical entity from a reference ontology, on the basis of received sensors data; creation of a software component representing the detected physical entity, based on the selected model, associated with relevant sensors and actuators; provision of application interface for monitoring and control of the target entity through this intermediate software component; iterative update of the identified entity model on the basis of data from associated sensors. The proposed approach has been validated and implemented in home environments, but it is intended to be generalized and expanded to environments such as buildings or cities, offering a similarly shared infrastructure for all M2M applications in these environments
45

Déploiement auto-adaptatif d'intergiciel sur plate-forme élastique / Self-adaptive deployment for middleware on elastic platform

Faye, Maurice-Djibril 10 November 2015 (has links)
Nous avons étudié durant cette thèse les moyens de rendre le déploiement d'un intergiciel auto-adaptatif. Le type d'intergiciel que nous avons considéré ici est hiérarchique (structure de graphe) et distribué. Chaque sommet du graphe modélise un processus qui peut être déployé sur une machine physique ou virtuelle d'une infrastructure de type grille/cloud, les arêtes modélisent des liens de communications entre processus. Il offre aux clients des services de calcul haute performance. Les infrastructures de grilles/cloud étant élastiques (perte et ajout de nœuds), un déploiement statique n'est pas la solution idéale car en cas de panne on risque de tout reprendre à zéro, ce qui est coûteux. Nous avons donc proposé un algorithme auto-stabilisant pour que l'intergiciel puisse retrouver un état stable sans intervention extérieure, au bout d'un temps fini, lorsqu'il est confronté à certains types de pannes. Les types de pannes que nous avons considérés sont les pannes transitoires (simulé par la perte de nœuds, l'ajout de nouveaux nœuds, la perte de liens entre deux nœuds). Pour évaluer ces algorithmes, nous avons conçu un simulateur. Les résultats des simulations montrent qu'un déploiement, sujet à des pannes transitoires, s'auto-adapte. Avant d'en arriver à la phase de programmation du simulateur, nous avons d'abord proposé un modèle d'infrastructure distribuée (ce modèle permet de décrire des environnements de type grille/cloud), un modèle pour décrire certains types d'intergiciels hiérarchiques et enfin un modèle pouvant décrire un intergiciel en cours d'exécution (processus déployés sur les machines). / We have studied the means to make a middleware deployment self-adaptive. Our use case middleware is hierarchical and distributed and can be modeled by a graph. A vertex models a process and an edge models a communication link between two processes. The middleware provides high performance computing services to the users.Once the middleware is deployed on a computing infrastructure like a grid or cloud, how it adapt the changes in dynamic environment? If the deployment is static, it may be necessary to redo all the deployment process, which is a costly operation. A better solution would be to make the deployment self-adaptive. We have proposed a rules-based self-stabilizing algorithm to manage a faulty deployment. Thus, after the detection of an unstable deployment, caused by some transients faults (joining of new nodes or deletion of existing nodes which may modify the deployment topology), the system will eventually recover a stable state, without external help, but only by executing the algorithm.We have designed an ad hoc discrete events simulator to evaluate the proposed algorithm. The simulation results show that, a deployment, subjected to transients faults which make it unstable, adapts itself. Before the simulator design, we had proposed a model to describe a distributed infrastructure, a model to describe hierarchical middleware and a model to describe a deployment, that is the mapping between the middleware processes and the hardware on which they are running on.
46

Design of a Low-Cost Data Acquisition System for Rotordynamic Data Collection

Pellegrino, Gregory S 01 March 2019 (has links)
A data acquisition system (DAQ) was designed based on the use of a STM32 microcontroller. Its purpose is to provide a transparent and low-cost alternative to commercially available DAQs, providing educators a means to teach students about the process through which data are collected as well as the uses of collected data. The DAQ was designed to collect data from rotating machinery spinning at a speed up to 10,000 RPM and send this data to a computer through a USB 2.0 full-speed connection. Multitasking code was written for the DAQ to allow for data to be simultaneously collected and transferred over USB. Additionally, a console application was created to control the DAQ and read data, and MATLAB code written to analyze the data. The DAQ was compared against a custom assembled National Instruments CompactDAQ system. Using a Bentley-Nevada RK 4 Rotor Kit, data was simultaneously collected using both DAQs. Analysis of this data shows the capabilities and limitations of the low cost DAQ compared to the custom CompactDAQ.
47

Zdroj vysokonapěťových pulzů pro elektroporaci buněk / High Voltage Pulse Generator for Electroporation of Cells

Puczok, Václav January 2016 (has links)
The main goal of this thesis is to design control board for the experimental electroporation device and to develop control firmware. The first chapter of this work focuses on the electroporation phenomenon itself. Behaviour of the cell model in external electrical field is described there as well as simulation and overview of how electroporation affects living tissue. It also explains the main requirements for parameters of the electroporation pulses as well as need for ECG synchronization. Furthermore, some remarks are given about novel high frequency electroporation method, which involves use of nanosecond bipolar high voltage pulse bursts. The second chapter briefly introduces commercial electroporation device called Nanoknife, including control part, power part, and it's limits. The third chapter consists of introduction of the novel experimental electroporation device developed at BUT. Power part of this device is discussed as well. Next chapter focuses on design of the control board for this device and also on description of the particular schematic parts. There is a control algorithm explanation in the fifth chapter of this thesis followed by the brief manual to machine operation.
48

Gewinnung sicherer Lastannahmen aus Simulation und Messung zur Festigkeitsauslegung von Straßen- und Stadtbahnen

Zechel, Gero 21 February 2017 (has links) (PDF)
Die Nutzung historisch solider Lastannahmen, wie sie zum Beispiel die VDV Richtlinie 152 in der Fassung von 1992 festlegt, ist für die Festigkeitsauslegung neuartiger Straßen- und Stadtbahnfahrzeuge unzureichend, da die Annahmen und Methoden der Komplexität und insbesondere der Nichtlinearität moderner Fahrzeugkonzepte keine Rechnung tragen. Diese Arbeit zeigt auf, wie sich entstandene Lücken in den Lastannahmen durch Simulation und Messung von Fahrzeug und Gleis analysieren, verstehen und schließen lassen. Den Kern bildet dabei der Einsatz detaillierterer Simulationsmodelle von Fahrzeug und Gleis, deren Eingangsdaten mit Hilfe von Messungen gewonnen und deren Ausgangsdaten mit ihnen verifiziert und ergänzt werden müssen. Hierfür werden Methoden und Werkzeuge entwickelt, die ein ein vielseitiges Baukastensystem für die Fahrzeuganalyse, Modellvalidierung und Datenbewertung bilden, und zu sicheren Lastannahmen für die Fahrzeugauslegung führen.
49

Gewinnung sicherer Lastannahmen aus Simulation und Messung zur Festigkeitsauslegung von Straßen- und Stadtbahnen

Zechel, Gero 12 July 2016 (has links)
Die Nutzung historisch solider Lastannahmen, wie sie zum Beispiel die VDV Richtlinie 152 in der Fassung von 1992 festlegt, ist für die Festigkeitsauslegung neuartiger Straßen- und Stadtbahnfahrzeuge unzureichend, da die Annahmen und Methoden der Komplexität und insbesondere der Nichtlinearität moderner Fahrzeugkonzepte keine Rechnung tragen. Diese Arbeit zeigt auf, wie sich entstandene Lücken in den Lastannahmen durch Simulation und Messung von Fahrzeug und Gleis analysieren, verstehen und schließen lassen. Den Kern bildet dabei der Einsatz detaillierterer Simulationsmodelle von Fahrzeug und Gleis, deren Eingangsdaten mit Hilfe von Messungen gewonnen und deren Ausgangsdaten mit ihnen verifiziert und ergänzt werden müssen. Hierfür werden Methoden und Werkzeuge entwickelt, die ein ein vielseitiges Baukastensystem für die Fahrzeuganalyse, Modellvalidierung und Datenbewertung bilden, und zu sicheren Lastannahmen für die Fahrzeugauslegung führen.

Page generated in 0.0696 seconds