• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 31
  • 31
  • 14
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Definition, analysis and implementation of a model-checked Space Plug-and-play Architecture adaptation for the Controller Area Network

Brynedal Ignell, Nils January 2014 (has links)
The Virtual Network (VN) protocol is a communications protocol software compatible with the Space Plug-and-play Architecture (SPA). This Master Thesis defines a protocol that extends the Virtual Network protocol to cover communication over the Controller Area Network (CAN). The Virtual Network for the Controller Area Network (VN-CAN) is defined, modelled and verified using UPPAAL as well as implemented and tested while running on actual hardware. The VN-CAN protocol enables components on the CAN network to communicate with other components both inside and outside of the CAN network, which together with the modularity of both the protocol and the implementation enables application level software to be agnostic of their physical position in the network. The implementation enables components to automatically discover routes to other components on the VN network without the need for any prior knowledge about the network topology. A method for direct addressing, i.e. that two components on the CAN network can communicate directly without sending messages via a central router, has been added to the VN-CAN protocol in order to reduce traffic on the CAN network. UPPAAL modelling and verification of the VN-CAN protocol has been done to give a high level of confidence in the correctness of the protocol. Testing on actual hardware has shown that the protocol achieves the goals of address resolution, self addressing and transfer of VN messages over CAN.
12

Mobile Communication in Distributed Environment

Iftikhar, Muhammad Usman, Rauf, Muhammad January 2010 (has links)
The thesis purpose was to develop a framework for coordination of devices over mobile environment. The framework is specially designed for mobile devices due to constraints in mobiles of less memory and resources, enables zero configuration for communication. The purpose of study was to investigate existing tools and technologies for mobile communication. For this purpose UPnP (Universal Plug and Play) architecture is investigated over Prism-MW (Programming in the small and many - middleware) for android platform. We have developed the control point devices communicate with server devices. And also we have developed demonstrator application to show how devices will work.
13

Modélisation de causalité et diagnostic des systèmes complexes de grande dimension / Causality modeling and diagnosis of large-scale complex systems

Faghraoui, Ahmed 11 December 2013 (has links)
Cette thèse s'inscrit dans le cadre du projet européen PAPYRUS (7th FWP (Seventh Framework Program) et concerne le développement de modèles et d'outils permettant l'analyse d'un procédé industriel en interaction avec les indicateurs des performances du système. Ainsi que la synthèse d'algorithmes "Plug & Play" de diagnostic de défauts. Plus précisément, le premier objectif de la thèse est de proposer des modèles et des critères qui permettent, pour un procédé complexe de grande dimension, de savoir si des objectifs, exprimés en termes de performances (coût, de sûreté de fonctionnement, etc.), sont atteignables. Dans le cadre de la modélisation de causalité du système, une méthode, basée sur le transfert entropie, est proposée afin d'identifier le modèle de causalité du système à partir des données. On s'intéressera aussi à l'influence de divers défauts sur cette atteignabilité. Les outils utilisés sont principalement basés sur l'analyse par approche graphique (graphe de causalité) conjointement avec des outils statistiques. Le second objectif concerne la mise en oeuvre d'algorithmes de diagnostic de défauts. Une procédure hiérarchique de diagnostic de défauts s'appuyant sur les modèles de causalité du système est mise en oeuvre. Cette étape a aussi pour objectif de permettre l'évaluation des performances du système. La cible est le procédé d'application du projet PAPYRUS (papeterie Stora Enso d'IMATRA en Finlande) / This thesis is part of the European project PAPYRUS (7th FWP (Seventh Framework Program) and it concern the developments of models and tools for the analysis of an industrial process in interaction with system performance indicators. Thus, the developments of Plug & play algorithms for fault diagnosis. More specifically, the first objective of the thesis is to propose models and criteria, which allow, for large complex systems, whether the objectives expressed in terms of performance (cost, dependability, etc.) are achievable. Within the causality modeling system, a transfer entropy based method is proposed to identify the causality model of a system from data. We also focused on the influence of different faults on system performance reachability. The tools used are mainly based on graphical approach analysis in parallel with statistical tools. The second objective concerns the implementation of algorithms for faults diagnosis. A hierarchical fault diagnosis process based on causality model of the system is implemented. This step also allows the evaluation of the system performance. We applied our methods on the PAPYRUS project plant (board machine Stora Enso IMATRA in Finland)
14

STANDARD USER DATA SERVICES FOR SPACECRAFT APPLICATIONS

Smith, Joseph F., Hwang, Chailan, Fowell, Stuart, Plummer, Chris 10 1900 (has links)
International Telemetering Conference Proceedings / October 20-23, 2003 / Riviera Hotel and Convention Center, Las Vegas, Nevada / The Consultative Committee for Space Data Systems (CCSDS) is an international organization of national space agencies that is branching out to provide new standards to enhanced reuse of spacecraft equipment and software. These Spacecraft Onboard Interface (SOIF) standards will be directed towards a spacecraft architecture, as a distributed system of processors and busses. This paper will review the services that are being proposed for SOIF. These services include a Command and Data Acquisition Service, a Time Distribution Service, a Message Transfer Service, a File Transfer Service, and a CCSDS Packet Service. An Instrument & Subsystem “Plug & Play Service is currently under study, but is included in this paper for completeness.
15

A Rapidly Reconfigurable Robotics Workcell and Its Applictions for Tissue Engineering

Chen, I-Ming 01 1900 (has links)
This article describes the development of a component-based technology robot system that can be rapidly configured to perform a specific manufacturing task. The system is conceived with standard and inter-operable components including actuator modules, rigid link connectors and tools that can be assembled into robots with arbitrary geometry and degrees of freedom. The reconfigurable "plug-and-play" robot kinematic and dynamic modeling algorithms are developed. These algorithms are the basis for the control and simulation of reconfigurable robots. The concept of robot configuration optimization is introduced for the effective use of the rapidly reconfigurable robots. Control and communications of the workcell components are facilitated by a workcell-wide TCP/IP network and device level CAN-bus networks. An object-oriented simulation and visualization software for the reconfigurable robot is developed based on Windows NT. Prototypes of the robot systems configured to perform 3D contour following task and the positioning task are constructed and demonstrated. Applications of such systems for biomedical tissue scaffold fabrication are considered. / Singapore-MIT Alliance (SMA)
16

Contribution à la Modélisation et à la Gestion des Interactions Produit-Processus dans la Chaîne Logistique par l'Approche Produits Communicants

Cea Ramirez, Aldo 18 July 2006 (has links) (PDF)
Dans le domaine de la chaîne logistique, nous constatons des besoins croissants d'information et d'interactions entre produits, processus et clients, et ceci durant le cycle de vie du produit. Cela entraîne le besoin, au niveau du produit, de nouvelles capacités de communication, de gestion de l'information, de perception et d'action avec son environnement physique. Ces besoins ont engendré le concept de produit ou objet communicant. Un produit avec ces nouvelles capacités pourra interagir avec d'autres entités physiques ou informationnelles dans son environnement et apporter des transformations significatives sur la gestion de la chaîne logistique. Le travail présenté dans cette thèse vise à analyser et contribuer à appliquer la notion d'objet communicant aux produits physiques dans le domaine de la chaîne logistique. L'approche proposée considère un produit comme un demandeur ou un fournisseur de services. La méthodologie proposée de gestion des produits communicants s'appuie sur la caractérisation d'une architecture de services ambiants devant permettre de gérer les services d'un produit d'une façon automatique et ubiquiste. Nous avons choisi l'architecture UPnP pour gérer les services des objets communicants. La communication directe avec le produit est supportée par les méthodes d'identification automatique RFID. Nous nous sommes appuyés sur le formalisme standard de modélisation UML afin de modéliser les interactions et les services associés à un produit physique. Comme résultat, nous avons élaboreé des démonstrateurs de laboratoire validant la faisabilité de notre proposition méthodologique de gestion de la chaîne logistique par les objets communicants.
17

Modélisation de causalité et diagnostic des systèmes complexes de grande dimension.

Faghraoui, Ahmed 11 December 2013 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du projet européen PAPYRUS (7th FWP (Seventh Framework Program) et concerne le développement de modèles et d'outils permettant l'analyse d'un procédé industriel en interaction avec les indicateurs des performances du système. Ainsi que la synthèse d'algorithmes "Plug & Play" de diagnostic de défauts. Plus précisément, le premier objectif de la thèse est de proposer des modèles et des critères qui permettent, pour un procédé complexe de grande dimension, de savoir si des objectifs, exprimés en termes de performances (coût, de sûreté de fonctionnement, etc.), sont atteignables. Dans le cadre de la modélisation de causalité du système, une méthode, basée sur le transfert entropie, est proposée afin d'identifier le modèle de causalité du système à partir des données. On s'intéressera aussi à l'influence de divers défauts sur cette atteignabilité. Les outils utilisés sont principalement basés sur l'analyse par approche graphique (graphe de causalité) conjointement avec des outils statistiques. Le second objectif concerne la mise en oeuvre d'algorithmes de diagnostic de défauts. Une procédure hiérarchique de diagnostic de défauts s'appuyant sur les modèles de causalité du système est mise en oeuvre. Cette étape a aussi pour objectif de permettre l'évaluation des performances du système. La cible est le procédé d'application du projet PAPYRUS (papeterie Stora Enso d'IMATRA en Finlande).
18

DECOUPLAGE ET ENCASTREMENT ENTRE PRESTATAIRES LOGISTIQUES ET GRANDE DISTRIBUTION : CAS D'UNE PRATIQUE VOLONTAIRE DE DEVELOPPEMENT DURABLE AU SEIN D'UNE LOGISTIQUE " PLUG AND PLAY "

George, Alain 03 December 2013 (has links) (PDF)
La logistique de la Grande Distribution s'appuie sur une organisation multi-acteurs dont les principes de flexibilité et d'adaptabilité au moindre coût sont les leviers d'une performance fondée sur la substituabilité des Prestataires de Services Logistiques (PSL). Cette organisation entraine une dépendance stratégique des PSL vis à vis de la grande Distribution. Néanmoins, certains prestataires intègrent une démarche de Développement Durable. La problématique de la thèse est donc la suivante : Pourquoi et comment les Prestataires Logistiques intègrent-ils, volontairement, une politique de Développement Durable au sein de la chaîne logistique aval de la Grande Distribution ? Le cadre théorique s'appuie d'abord sur le modèle " Plug and Play " qui permet de caractériser la logistique de la Grande Distribution par la spécificité des actifs et une approche des contrats. Il est complété par la théorie du découplage et de l'encastrement, selon White, ce qui permet d'expliquer le caractère bloquant du modèle " Plug and Play " et celui d'actions possibles des PSL. La méthodologie choisie est une approche exploratoire abductive sous un positionnement constructiviste modéré. Elle s'appuie sur l'étude de cas approfondie d'une chaîne logistique aval d'une enseigne de la Grande Distribution et de ses PSL. Une triangulation des méthodes mobilise essentiellement une démarche qualitative par le biais d'entretiens, mais également une enquête quantitative. Les résultats de la recherche montrent dans le cas étudié que les PSL sont encastrés dans le modèle " Plug and Play " de l'enseigne dont ils sont dépendants. En réaction, certains prestataires tentent de se découpler du " Plug and Play ", en intégrant une démarche de Développement Durable, et de s'encastrer dans un modèle " Plug and Play " où le rapport de force entre PSL et l'enseigne est plus équilibré.
19

An Ontology for Match-Making in Plug and Play Business Software Platform

Mir, Muhammad Salman khan and Muhammad Arif Raza January 2008 (has links)
An innovation is the process of making improvements by introducing new idea in the form of product or service. In recent years, successful societies are shifting their focus towards the realization and acceptance of these new ideas. Plug and Play business software platform is the first step to transform these ideas into reality. The study presented in this thesis introduced that a new business idea contains specific business role and consists of a set of capabilities or needs and any one of them. Plug and play business software platform mainly consists of three major business processes that are required to run this platform those are; business match making process, negotiating process and collaboration process. This study analyzes the process of business match making in detail and introduce an ontology based business match making process which will find new businesses in a hierarchical fashion based on their specific business roles. Match making ontology consists of three processes i.e. information collection process which is used to collect and register information, extraction process which is an optional process to extract set of capabilities and needs if actor/innovator is unable to define its business capabilities and needs in information collection process and finally finding and ranking process which will find a set of potential collaborators and then will rank that set based on ranking parameters collected in information collection process from actor/innovator. This study also presents a technological model which will provide foundation to develop plug and play business software platform. This model identifies business processes of the platform and presents each business process as a separate loosely coupled software module. This model divides the platform into two layers; the upper layer is called PnP layer and consists of PnP Client Service, PnP Community Service, Finding and Ranking Service, Negotiating Service and Collaboration Service; lower layer is called kernel layer and consists of Security management Service, Operational management Services and Communication Service. Finally partially implemented prototype, test data and results will be used to visualize the presented concept.
20

HIGH SPEED IMAGING VIA ADVANCED MODELING

Soumendu Majee (10942896) 04 August 2021 (has links)
<div>There is an increasing need to accurately image objects at a high temporal resolution for different applications in order to analyze the underlying physical, chemical, or biological processes. In this thesis, we use advanced models exploiting the image structure and the measurement process in order to achieve an improved temporal resolution. The thesis is divided into three chapters, each corresponding to a different imaging application.</div><div><br></div><div>In the first chapter, we propose a novel method to localize neurons in fluorescence microscopy images. Accurate localization of neurons enables us to scan only the neuron locations instead of the full brain volume and thus improve the temporal resolution of neuron activity monitoring. We formulate the neuron localization problem as an inverse problem where we reconstruct an image that encodes the location of the neuron centers. The sparsity of the neuron centers serves as a prior model, while the forward model comprises of shape models estimated from training data.</div><div><br></div><div>In the second chapter, we introduce multi-slice fusion, a novel framework to incorporate advanced prior models for inverse problems spanning many dimensions such as 4D computed tomography (CT) reconstruction. State of the art 4D reconstruction methods use model based iterative reconstruction (MBIR), but it depends critically on the quality of the prior modeling. Incorporating deep convolutional neural networks (CNNs) in the 4D reconstruction problem is difficult due to computational difficulties and lack of high-dimensional training data. Multi-Slice Fusion integrates the tomographic forward model with multiple low dimensional CNN denoisers along different planes to produce a 4D regularized reconstruction. The improved regularization in multi-slice fusion allows each time-frame to be reconstructed from fewer measurements, resulting in an improved temporal resolution in the reconstruction. Experimental results on sparse-view and limited-angle CT data demonstrate that Multi-Slice Fusion can substantially improve the quality of reconstructions relative to traditional methods, while also being practical to implement and train.</div><div><br></div><div>In the final chapter, we introduce CodEx, a synergistic combination of coded acquisition and a non-convex Bayesian reconstruction for improving acquisition speed in computed tomography (CT). In an ideal ``step-and-shoot'' tomographic acquisition, the object is rotated to each desired angle, and the view is taken. However, step-and-shoot acquisition is slow and can waste photons, so in practice the object typically rotates continuously in time, leading to views that are blurry. This blur can then result in reconstructions with severe motion artifacts. CodEx works by encoding the acquisition with a known binary code that the reconstruction algorithm then inverts. The CodEx reconstruction method uses the alternating direction method of multipliers (ADMM) to split the inverse problem into iterative deblurring and reconstruction sub-problems, making reconstruction practical. CodEx allows for a fast data acquisition leading to a good temporal resolution in the reconstruction.</div>

Page generated in 0.0415 seconds