• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 6
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 73
  • 73
  • 20
  • 20
  • 14
  • 14
  • 11
  • 10
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Feasibility of Event-Based Sensors to Detect and Track Unresolved, Fast-Moving, and Short-Lived Objects

Tinch, Jonathan Luc 13 July 2022 (has links)
No description available.
62

Проектирование архитектуры и разработка модуля корпоративной платформы с использованием брокера сообщений для организации событийной интеграции между системами : магистерская диссертация / Architecture design and development of an enterprise platform module using a message broker to organize event-based integration between systems

Матвеева, Ю. А., Matveeva, Y. A. January 2022 (has links)
В работе рассматриваются подходы к созданию интеграционной платформы, для цепочки взаимодействия сервисов расположенных в разной доступности сети. Основное внимание сфокусировано на проектировании и разработке сервисной шины предприятия, реализующей событийную интеграцию с помощью брокера сообщений. Как результат представлено готовое решение модуля корпоративной платформы, которое адаптивно под схожие системы. Магистерская диссертация состоит из введения, трех глав и заключения, изложенных на 79 страницах, а также библиографического списка. В работе имеется 18 рисунок. Библиографический список состоит из 36 наименований. / The paper considers approaches to creating an integration platform for the chain of interaction of services located in different network accessibility. The main attention is focused on the design and development of an enterprise service bus that implements event-based integration using a message broker. As a result, a ready-made solution for the corporate platform module is presented, which is adaptive for similar systems. The master's thesis consists of an introduction, three chapters and a conclusion set out on 79 pages, as well as a bibliographic list. There are 18 drawings in the work. The bibliographic list consists of 36 titles.
63

The effect of noise filters on DVS event streams : Examining background activity filters on neuromorphic event streams / Brusreduceringens inverkan på synsensorer : En studie kring brusreduceringens inverkan på händelseströmmar ifrån neuromorfiska synsensorer

Trogadas, Giorgos, Ekonoja, Larissa January 2021 (has links)
Image classification using data from neuromorphic vision sensors is a challenging task that affects the use of dynamic vision sensor cameras in real- world environments. One impeding factor is noise in the neuromorphic event stream, which is often generated by the dynamic vision sensors themselves. This means that effective noise filtration is key to successful use of event- based data streams in real-world applications. In this paper we harness two feature representations of neuromorphic vision data in order to apply conventional frame-based image tools on the neuromorphic event stream. We use a standard noise filter to evaluate the effectiveness of noise filtration using a popular dataset converted to neuromorphic vision data. The two feature representations are the best-of-class standard Histograms of Averaged Time Surfaces (HATS) and a simpler grid matrix representation. To evaluate the effectiveness of the noise filter, we compare classification accuracies using various noise filter windows at different noise levels by adding additional artificially generated Gaussian noise to the dataset. Our performance metrics are reported as classification accuracy. Our results show that the classification accuracy using frames generated with HATS is not significantly improved by a noise filter. However, the classification accuracy of the frames generated with the more traditional grid representation is improved. These results can be refined and tuned for other datasets and may eventually contribute to on- the- fly noise reduction in neuromorphic vision sensors. / Händelsekameror är en ny typ av kamera som registrerar små ljusförändringar i kamerans synfält. Sensorn som kameran bygger på är modellerad efter näthinnan som finns i våra ögon. Näthinnan är uppbyggd av tunna lager av celler som omvandlar ljus till nervsignaler. Eftersom synsensorer efterliknar nervsystemet har de getts namnet neuromorfiska synsensorer. För att registrera små ljusförändringar måste dessa sensorer vara väldigt känsliga vilket även genererar ett elektroniskt brus. Detta brus försämrar kvalitén på signalen vilket blir en förhindrande faktor när dessa synsensorer ska användas i praktiken och ställer stora krav på att hitta effektiva metoder för brusredusering. Denna avhandling undersöker två typer av digitala framställningar som omvandlar signalen ifrån händelsekameror till något som efterliknar vanliga bilder som kan användas med traditionella metoder för bildigenkänning. Vi undersöker brusreduseringens inverkan på den övergripande noggrannhet som uppnås av en artificiell intelligens vid bildigenkänning. För att utmana AIn har vi tillfört ytterligare normalfördelat brus i signalen. De digitala framställningar som används är dels histogram av genomsnittliga tidsytor (eng. histograms of averaged time surfaces) och en matrisrepresentation. Vi visar att HATS är robust och klarar av att generera digitala framställningar som tillåter AIn att bibehålla god noggrannhet även vid höga nivåer av brus, vilket medför att brusreduseringens inverkan var försumbar. Matrisrepresentationen gynnas av brusredusering vid högre nivåer av brus.
64

Data analysis of rainfall event characteristics and derivation of flood frequency distribution equations for urban stormwater management purposes

Hassini, Sonia January 2018 (has links)
further development of the simple and promising analytical probabilistic approach / Urban stormwater management aims at mitigating the adverse impacts of urbanization. Hydrological models are used in support of stormwater management planning and design. There are three main approaches that can be applied for this modeling purpose: (1) continuous simulation approach which is accurate but time-consuming; (2) design storm approach, which is widely used and its accuracy highly depends on the selected antecedent moisture conditions and temporal distribution of design storms; and (3) the analytical probabilistic approach which is recently developed and still not used in practice. Although it is time-effective and it can produce results as accurate as the other two approaches; the analytical probabilistic approach requires further developments in order to make it more reliable and accurate. For this purpose, three subtopics are investigated in this thesis. (1) Rainfall data analysis as required by the analytical probabilistic approach with emphasis on testing the exponentiality of rainfall event duration, volume and interevent time (i.e., time separating it from its preceding rainfall event). A goodness-of-fit testing procedure that is suitable for this kind of data analysis was proposed. (2) Derivation of new analytical probabilistic models for peak discharge rate incorporating trapezoidal and triangular hydrograph shapes in order to include all possible catchment’s responses. And (3) the infiltration process is assumed to continue until the end of the rainfall event; however, the soil may get saturated earlier and the excess amount would contribute to the runoff volume which may have adverse impact if not taken into consideration. Thus, in addition to the infiltration process, the saturation excess runoff is also included and new models for flood frequencies are developed. All the models developed in this thesis are tested and compared to methods used in practice, reasonable results were obtained. / Thesis / Doctor of Philosophy (PhD) / Urban stormwater management aims at mitigating the adverse impacts of urbanization. Hydrological models are used in support of stormwater management planning and design. The analytical probabilistic stormwater management model (APSWM) is a promising tool for planning and design analysis. The purpose of this thesis is to further develop APSWM in order to make it more reliable and accurate. First, a clear procedure for rainfall data analysis as required by APSWM is provided. Second, a new APSWM is derived incorporating other runoff temporal-distribution patterns. Finally, the possibility of soil layer saturation while it is still raining is added to the model. All the models developed in this thesis are tested and compared to methods used in engineering practice, reasonable results were obtained.
65

Design, Implementation and Validation of Resource-Aware and Resilient Wireless Networked Control Systems

Araújo, José January 2014 (has links)
Networked control over wireless networks is of growing importance in many application domains such as industrial control, building automation and transportation systems. Wide deployment however, requires systematic design tools to enable efficient resource usage while guaranteeing close-loop control performance. The control system may be greatly affected by the inherent imperfections and limitations of the wireless medium and malfunction of system components. In this thesis, we make five important contributions that address these issues.  In the first contribution, we consider event- and self-triggered control and investigate how to efficiently tune and execute these paradigms for appropriate control performance. Communication strategies for aperiodic control are devised, where we jointly address the selection of medium-access control and scheduling policies. Experimental results show that the best trade-off is obtained by a hybrid scheme, combining event- and self-triggered control together with contention-based and contention-free medium access control. The second contribution proposes an event-based method to select between fast and slow periodic sampling rates. The approach is based on linear quadratic control and the event condition is a quadratic function of the system state. Numerical and experimental results show that this hybrid controller is able to reduce the average sampling rate in comparison to a traditional periodic controller, while achieving the same closed-loop control performance. In the third contribution, we develop compensation methods for out-of-order communications and time-varying delays using a game-theoretic minimax control framework. We devise a linear temporal coding strategy where the sensor combines the current and previous measurements into a single packet to be transmitted. An experimental evaluation is performed in a multi-hop networked control scenario with a routing layer vulnerability exploited by a malicious application. The experimental and numerical results show the advantages of the proposed compensation schemes. The fourth contribution proposes a distributed reconfiguration method for sensor and actuator networks. We consider systems where sensors and actuators cooperate to recover from faults. Reconfiguration is performed to achieve model-matching, while minimizing the steady-state estimation error covariance and a linear quadratic control cost. The reconfiguration scheme is implemented in a room heating testbed, and experimental results demonstrate the method's ability to automatically reconfigure the faulty system in a distributed and fast manner. The final contribution is a co-simulator, which combines the control system simulator Simulink with the wireless network simulator COOJA. The co-simulator integrates physical plant dynamics with realistic wireless network models and the actual embedded software running on the networked devices. Hence, it allows for the validation of the complete wireless networked control system, including the study of the interactions between software and hardware components. / <p>QC 20140929</p>
66

Event-Driven Motion Compensation in Positron Emission Tomography: Development of a Clinically Applicable Method

Langner, Jens 11 August 2009 (has links) (PDF)
Positron emission tomography (PET) is a well-established functional imaging method used in nuclear medicine. It allows for retrieving information about biochemical and physiological processes in vivo. The currently possible spatial resolution of PET is about 5 mm for brain acquisitions and about 8 mm for whole-body acquisitions, while recent improvements in image reconstruction point to a resolution of 2 mm in the near future. Typical acquisition times range from minutes to hours due to the low signal-to-noise ratio of the measuring principle, as well as due to the monitoring of the metabolism of the patient over a certain time. Therefore, patient motion increasingly limits the possible spatial resolution of PET. In addition, patient immobilisations are only of limited benefit in this context. Thus, patient motion leads to a relevant resolution degradation and incorrect quantification of metabolic parameters. The present work describes the utilisation of a novel motion compensation method for clinical brain PET acquisitions. By using an external motion tracking system, information about the head motion of a patient is continuously acquired during a PET acquisition. Based on the motion information, a newly developed event-based motion compensation algorithm performs spatial transformations of all registered coincidence events, thus utilising the raw data of a PET system - the so-called `list-mode´ data. For routine acquisition of this raw data, methods have been developed which allow for the first time to acquire list-mode data from an ECAT Exact HR+ PET scanner within an acceptable time frame. Furthermore, methods for acquiring the patient motion in clinical routine and methods for an automatic analysis of the registered motion have been developed. For the clinical integration of the aforementioned motion compensation approach, the development of additional methods (e.g. graphical user interfaces) was also part of this work. After development, optimisation and integration of the event-based motion compensation in clinical use, analyses with example data sets have been performed. Noticeable changes could be demonstrated by analysis of the qualitative and quantitative effects after the motion compensation. From a qualitative point of view, image artefacts have been eliminated, while quantitatively, the results of a tracer kinetics analysis of a FDOPA acquisition showed relevant changes in the R0k3 rates of an irreversible reference tissue two compartment model. Thus, it could be shown that an integration of a motion compensation method which is based on the utilisation of the raw data of a PET scanner, as well as the use of an external motion tracking system, is not only reasonable and possible for clinical use, but also shows relevant qualitative and quantitative improvement in PET imaging. / Die Positronen-Emissions-Tomographie (PET) ist ein in der Nuklearmedizin etabliertes funktionelles Schnittbildverfahren, das es erlaubt Informationen über biochemische und physiologische Prozesse in vivo zu erhalten. Die derzeit erreichbare räumliche Auflösung des Verfahrens beträgt etwa 5 mm für Hirnaufnahmen und etwa 8 mm für Ganzkörperaufnahmen, wobei erste verbesserte Bildrekonstruktionsverfahren eine Machbarkeit von 2 mm Auflösung in Zukunft möglich erscheinen lassen. Durch das geringe Signal/Rausch-Verhältnis des Messverfahrens, aber auch durch die Tatsache, dass der Stoffwechsel des Patienten über einen längeren Zeitraum betrachtet wird, betragen typische PET-Aufnahmezeiten mehrere Minuten bis Stunden. Dies hat zur Folge, dass Patientenbewegungen zunehmend die erreichbare räumliche Auflösung dieses Schnittbildverfahrens limitieren. Eine Immobilisierung des Patienten zur Reduzierung dieser Effekte ist hierbei nur bedingt hilfreich. Es kommt daher zu einer relevanten Auflösungsverschlechterung sowie zu einer Verfälschung der quantifizierten Stoffwechselparameter. Die vorliegende Arbeit beschreibt die Nutzbarmachung eines neuartigen Bewegungskorrekturverfahrens für klinische PET-Hirnaufnahmen. Mittels eines externen Bewegungsverfolgungssystems wird während einer PET-Untersuchung kontinuierlich die Kopfbewegung des Patienten registriert. Anhand dieser Bewegungsdaten führt ein neu entwickelter event-basierter Bewegungskorrekturalgorithmus eine räumliche Korrektur aller registrierten Koinzidenzereignisse aus und nutzt somit die als &amp;quot;List-Mode&amp;quot; bekannten Rohdaten eines PET Systems. Für die Akquisition dieser Daten wurden eigens Methoden entwickelt, die es erstmals erlauben, diese Rohdaten von einem ECAT Exact HR+ PET Scanner innerhalb eines akzeptablen Zeitraumes zu erhalten. Des Weiteren wurden Methoden für die klinische Akquisition der Bewegungsdaten sowie für die automatische Auswertung dieser Daten entwickelt. Ebenfalls Teil der Arbeit waren die Entwicklung von Methoden zur Integration in die klinische Routine (z.B. graphische Nutzeroberflächen). Nach der Entwicklung, Optimierung und Integration der event-basierten Bewegungskorrektur für die klinische Nutzung wurden Analysen anhand von Beispieldatensätzen vorgenommen. Es zeigten sich bei der Auswertung sowohl der qualitativen als auch der quantitativen Effekte deutliche Änderungen. In qualitativer Hinsicht wurden Bildartefakte eliminiert; bei der quantitativen Auswertung einer FDOPA Messung zeigte sich eine revelante Änderung der R0k3 Einstromraten eines irreversiblen Zweikompartment-Modells mit Referenzgewebe. Es konnte somit gezeigt werden, dass eine Integration einer Bewegungskorrektur unter Zuhilfenahme der Rohdaten eines PET Systems sowie unter Nutzung eines externen Verfolgungssystems nicht nur sinnvoll und in der klinischen Routine machbar ist, sondern auch zu maßgeblichen qualitativen und quantitativen Verbesserungen in der PET-Bildgebung beitragen kann.
67

Einstellung von PI-Reglern bei Send-on-Delta-Abtastung: Regelkreisoptimierung unter Berücksichtigung von Energieeffizienz, Netzlast und Regelgüte

Hensel, Burkhard 25 October 2017 (has links)
Energieeffizienz hat in Forschung und Alltag eine zentrale Bedeutung. Arbeiten verschiedene elektronische Geräte zusammen, um gemeinsam eine Regelungsaufgabe zu lösen, müssen sie miteinander kommunizieren. Ein Beispiel aus dem Alltag sind Funk-Raumtemperaturregler, bei denen ein batteriebetriebener Temperatursensor und ein Heizungsaktor (Stellantrieb am Heizungsventil) über drahtlose Kommunikation zusammenarbeiten. Diese Kommunikation benötigt oft mehr Energie als der Betrieb der eigentlichen (elektronischen) Funktionalität der Teilsysteme. Energieeffizienter als die in Regelkreisen übliche periodische (äquidistante) Abtastung ist – durch eine Verringerung der Nachrichtenrate – eine ereignisbasierte Abtastung. Send-on-Delta-Abtastung ist die am weitesten verbreitete Art der ereignisbasierten Abtastung. Dabei wird der Wert der Regelgröße (im Beispiel die Raumtemperatur) nicht in konstanten Zeitintervallen übertragen, sondern nur dann, wenn er sich um einen bestimmten Betrag geändert hat. Der mit einem Anteil von über 90 % im Praxiseinsatz am weitesten verbreitete Reglertyp ist der PID-Regler, wobei die meisten als „PID-Regler“ bezeichneten Regler aus verschiedenen Gründen keinen D-Anteil (Differential-Anteil) verwenden und daher als „PI-Regler“ bezeichnet werden können. Die vorliegende Arbeit verfolgt das Ziel, systematisch zu untersuchen, wie man PI-Regler einstellen sollte, um neben dem Erreichen einer hohen Regelgüte auch die Vorteile der Send-on-Delta-Abtastung bezüglich der Netzlastreduktion und Energieeffizienz bestmöglich auszunutzen. Die „Gewichtung“ dieser sich teilweise widersprechenden Kriterien ist anwendungsspezifisch einstellbar. / Energy efficiency is very important both in science and everyday life. If different electronic devices work together, for example for solving a control task together, they have to communicate with each other. An everyday life example are room temperature controllers using radio communication between a battery-powered temperature sensor and a heating actuator. This communication often needs more energy than the operation of the actual (electronic) functionality of the components. More energy-efficient than the commonly used periodic sampling is event-based sampling, due to the reduction of the message rate. Send-on-delta sampling is the most widely-known kind of event-based sampling. In that case, the value of the controlled variable (e.g. the room temperature) is not transmitted equidistantly but only when it has changed by a specific amount. The most successful controller in practice is the PID controller. The most so-called “PID controllers” do not use the D part (differential action) for several reasons and can therefore be called “PI controllers”. This work analyses systematically how the parameters of a PI controller should be tuned to reach besides a high control quality also a good exploitation of the advantages of send-on-delta sampling regarding network load reduction and energy efficiency. The “weighting” of these partially contradicting criteria is application specifically adjustable.
68

Event-Driven Motion Compensation in Positron Emission Tomography: Development of a Clinically Applicable Method

Langner, Jens 28 July 2009 (has links)
Positron emission tomography (PET) is a well-established functional imaging method used in nuclear medicine. It allows for retrieving information about biochemical and physiological processes in vivo. The currently possible spatial resolution of PET is about 5 mm for brain acquisitions and about 8 mm for whole-body acquisitions, while recent improvements in image reconstruction point to a resolution of 2 mm in the near future. Typical acquisition times range from minutes to hours due to the low signal-to-noise ratio of the measuring principle, as well as due to the monitoring of the metabolism of the patient over a certain time. Therefore, patient motion increasingly limits the possible spatial resolution of PET. In addition, patient immobilisations are only of limited benefit in this context. Thus, patient motion leads to a relevant resolution degradation and incorrect quantification of metabolic parameters. The present work describes the utilisation of a novel motion compensation method for clinical brain PET acquisitions. By using an external motion tracking system, information about the head motion of a patient is continuously acquired during a PET acquisition. Based on the motion information, a newly developed event-based motion compensation algorithm performs spatial transformations of all registered coincidence events, thus utilising the raw data of a PET system - the so-called `list-mode´ data. For routine acquisition of this raw data, methods have been developed which allow for the first time to acquire list-mode data from an ECAT Exact HR+ PET scanner within an acceptable time frame. Furthermore, methods for acquiring the patient motion in clinical routine and methods for an automatic analysis of the registered motion have been developed. For the clinical integration of the aforementioned motion compensation approach, the development of additional methods (e.g. graphical user interfaces) was also part of this work. After development, optimisation and integration of the event-based motion compensation in clinical use, analyses with example data sets have been performed. Noticeable changes could be demonstrated by analysis of the qualitative and quantitative effects after the motion compensation. From a qualitative point of view, image artefacts have been eliminated, while quantitatively, the results of a tracer kinetics analysis of a FDOPA acquisition showed relevant changes in the R0k3 rates of an irreversible reference tissue two compartment model. Thus, it could be shown that an integration of a motion compensation method which is based on the utilisation of the raw data of a PET scanner, as well as the use of an external motion tracking system, is not only reasonable and possible for clinical use, but also shows relevant qualitative and quantitative improvement in PET imaging. / Die Positronen-Emissions-Tomographie (PET) ist ein in der Nuklearmedizin etabliertes funktionelles Schnittbildverfahren, das es erlaubt Informationen über biochemische und physiologische Prozesse in vivo zu erhalten. Die derzeit erreichbare räumliche Auflösung des Verfahrens beträgt etwa 5 mm für Hirnaufnahmen und etwa 8 mm für Ganzkörperaufnahmen, wobei erste verbesserte Bildrekonstruktionsverfahren eine Machbarkeit von 2 mm Auflösung in Zukunft möglich erscheinen lassen. Durch das geringe Signal/Rausch-Verhältnis des Messverfahrens, aber auch durch die Tatsache, dass der Stoffwechsel des Patienten über einen längeren Zeitraum betrachtet wird, betragen typische PET-Aufnahmezeiten mehrere Minuten bis Stunden. Dies hat zur Folge, dass Patientenbewegungen zunehmend die erreichbare räumliche Auflösung dieses Schnittbildverfahrens limitieren. Eine Immobilisierung des Patienten zur Reduzierung dieser Effekte ist hierbei nur bedingt hilfreich. Es kommt daher zu einer relevanten Auflösungsverschlechterung sowie zu einer Verfälschung der quantifizierten Stoffwechselparameter. Die vorliegende Arbeit beschreibt die Nutzbarmachung eines neuartigen Bewegungskorrekturverfahrens für klinische PET-Hirnaufnahmen. Mittels eines externen Bewegungsverfolgungssystems wird während einer PET-Untersuchung kontinuierlich die Kopfbewegung des Patienten registriert. Anhand dieser Bewegungsdaten führt ein neu entwickelter event-basierter Bewegungskorrekturalgorithmus eine räumliche Korrektur aller registrierten Koinzidenzereignisse aus und nutzt somit die als &amp;quot;List-Mode&amp;quot; bekannten Rohdaten eines PET Systems. Für die Akquisition dieser Daten wurden eigens Methoden entwickelt, die es erstmals erlauben, diese Rohdaten von einem ECAT Exact HR+ PET Scanner innerhalb eines akzeptablen Zeitraumes zu erhalten. Des Weiteren wurden Methoden für die klinische Akquisition der Bewegungsdaten sowie für die automatische Auswertung dieser Daten entwickelt. Ebenfalls Teil der Arbeit waren die Entwicklung von Methoden zur Integration in die klinische Routine (z.B. graphische Nutzeroberflächen). Nach der Entwicklung, Optimierung und Integration der event-basierten Bewegungskorrektur für die klinische Nutzung wurden Analysen anhand von Beispieldatensätzen vorgenommen. Es zeigten sich bei der Auswertung sowohl der qualitativen als auch der quantitativen Effekte deutliche Änderungen. In qualitativer Hinsicht wurden Bildartefakte eliminiert; bei der quantitativen Auswertung einer FDOPA Messung zeigte sich eine revelante Änderung der R0k3 Einstromraten eines irreversiblen Zweikompartment-Modells mit Referenzgewebe. Es konnte somit gezeigt werden, dass eine Integration einer Bewegungskorrektur unter Zuhilfenahme der Rohdaten eines PET Systems sowie unter Nutzung eines externen Verfolgungssystems nicht nur sinnvoll und in der klinischen Routine machbar ist, sondern auch zu maßgeblichen qualitativen und quantitativen Verbesserungen in der PET-Bildgebung beitragen kann.
69

Using Event-Based and Rule-Based Paradigms to Develop Context-Aware Reactive Applications / Programmation événementielle et programmation à base de règles pour le développement d'applications réactives sensibles au contexte

Le, Truong Giang 30 September 2013 (has links)
Les applications réactives et sensibles au contexte sont des applications intelligentes qui observent l’environnement (ou contexte) dans lequel elles s’exécutent et qui adaptent, si nécessaire, leur comportement en cas de changements dans ce contexte, ou afin de satisfaire les besoins ou d'anticiper les intentions des utilisateurs. La recherche dans ce domaine suscite un intérêt considérable tant de la part des académiques que des industriels. Les domaines d'applications sont nombreux: robots industriels qui peuvent détecter les changements dans l'environnement de travail de l'usine pour adapter leurs opérations; systèmes de contrôle automobiles pour observer d'autres véhicules, détecter les obstacles, ou surveiller le niveau d'essence ou de la qualité de l'air afin d'avertir les conducteurs en cas d'urgence; systèmes embarqués monitorant la puissance énergétique disponible et modifiant la consommation en conséquence. Dans la pratique, le succès de la mise en œuvre et du déploiement de systèmes sensibles au contexte dépend principalement du mécanisme de reconnaissance et de réaction aux variations de l'environnement. En d'autres termes, il est nécessaire d'avoir une approche adaptative bien définie et efficace de sorte que le comportement des systèmes peut être modifié dynamiquement à l'exécution. En outre, la concurrence devrait être exploitée pour améliorer les performances et la réactivité des systèmes. Tous ces exigences, ainsi que les besoins en sécurité et fiabilité constituent un grand défi pour les développeurs.C’est pour permettre une écriture plus intuitive et directe d'applications réactives et sensibles au contexte que nous avons développé dans cette thèse un nouveau langage appelé INI. Pour observer les changements dans le contexte et y réagir, INI s’appuie sur deux paradigmes : la programmation événementielle et la programmation à base de règles. Événements et règles peuvent être définis en INI de manière indépendante ou en combinaison. En outre, les événements peuvent être reconfigurésdynamiquement au cours de l’exécution. Un autre avantage d’INI est qu’il supporte laconcurrence afin de gérer plusieurs tâches en parallèle et ainsi améliorer les performances et la réactivité des programmes. Nous avons utilisé INI dans deux études de cas : une passerelle M2M multimédia et un programme de suivi d’objet pour le robot humanoïde Nao. Enfin, afin d’augmenter la fiabilité des programmes écrits en INI, un système de typage fort a été développé, et la sémantique opérationnelle d’INI a été entièrement définie. Nous avons en outre développé un outil appelé INICheck qui permet de convertir automatiquement un sous-ensemble d’INI vers Promela pour permettre un analyse par model checking à l’aide de l’interpréteur SPIN. / Context-aware pervasive computing has attracted a significant research interest from both academy and industry worldwide. It covers a broad range of applications that support many manufacturing and daily life activities. For instance, industrial robots detect the changes of the working environment in the factory to adapt their operations to the requirements. Automotive control systems may observe other vehicles, detect obstacles, and monitor the essence level or the air quality in order to warn the drivers in case of emergency. Another example is power-aware embedded systems that need to work based on current power/energy availability since power consumption is an important issue. Those kinds of systems can also be considered as smart applications. In practice, successful implementation and deployment of context-aware systems depend on the mechanism to recognize and react to variabilities happening in the environment. In other words, we need a well-defined and efficient adaptation approach so that the systems' behavior can be dynamically customized at runtime. Moreover, concurrency should be exploited to improve the performance and responsiveness of the systems. All those requirements, along with the need for safety, dependability, and reliability pose a big challenge for developers.In this thesis, we propose a novel programming language called INI, which supports both event-based and rule-based programming paradigms and is suitable for building concurrent and context-aware reactive applications. In our language, both events and rules can be defined explicitly, in a stand-alone way or in combination. Events in INI run in parallel (synchronously or asynchronously) in order to handle multiple tasks concurrently and may trigger the actions defined in rules. Besides, events can interact with the execution environment to adjust their behavior if necessary and respond to unpredictable changes. We apply INI in both academic and industrial case studies, namely an object tracking program running on the humanoid robot Nao and a M2M gateway. This demonstrates the soundness of our approach as well as INI's capabilities for constructing context-aware systems. Additionally, since context-aware programs are wide applicable and more complex than regular ones, this poses a higher demand for quality assurance with those kinds of applications. Therefore, we formalize several aspects of INI, including its type system and operational semantics. Furthermore, we develop a tool called INICheck, which can convert a significant subset of INI to Promela, the input modeling language of the model checker SPIN. Hence, SPIN can be applied to verify properties or constraints that need to be satisfied by INI programs. Our tool allows the programmers to have insurance on their code and its behavior.
70

The impact of parsing methods on recurrent neural networks applied to event-based vehicular signal data / Påverkan av parsningsmetoder på återkommande neuronnät applicerade på händelsebaserad signaldata från fordon

Max, Lindblad January 2018 (has links)
This thesis examines two different approaches to parsing event-based vehicular signal data to produce input to a neural network prediction model: event parsing, where the data is kept unevenly spaced over the temporal domain, and slice parsing, where the data is made to be evenly spaced over the temporal domain instead. The dataset used as a basis for these experiments consists of a number of vehicular signal logs taken at Scania AB. Comparisons between the parsing methods have been made by first training long short-term memory (LSTM) recurrent neural networks (RNN) on each of the parsed datasets and then measuring the output error and resource costs of each such model after having validated them on a number of shared validation sets. The results from these tests clearly show that slice parsing compares favourably to event parsing. / Denna avhandling jämför två olika tillvägagångssätt vad gäller parsningen av händelsebaserad signaldata från fordon för att producera indata till en förutsägelsemodell i form av ett neuronnät, nämligen händelseparsning, där datan förblir ojämnt fördelad över tidsdomänen, och skivparsning, där datan är omgjord till att istället vara jämnt fördelad över tidsdomänen. Det dataset som används för dessa experiment är ett antal signalloggar från fordon som kommer från Scania. Jämförelser mellan parsningsmetoderna gjordes genom att först träna ett lång korttidsminne (LSTM) återkommande neuronnät (RNN) på vardera av de skapade dataseten för att sedan mäta utmatningsfelet och resurskostnader för varje modell efter att de validerats på en delad uppsättning av valideringsdata. Resultaten från dessa tester visar tydligt på att skivparsning står sig väl mot händelseparsning.

Page generated in 0.0663 seconds