• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 10
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 71
  • 71
  • 17
  • 17
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Ecoulements de particules dans un milieu poreux

Lominé, Franck 19 October 2007 (has links) (PDF)
Cette thèse a pour objet l'étude expérimentale et numérique de l'écoulement de particules dans un empilement de sphères plus grosses. <br />Un dispositif expérimental a été mis au point pour étudier la dispersion latérale et le temps moyen de séjour d'un paquet de particules dans un milieu poreux. Nous avons en particulier déterminé la dépendance du temps moyen de transit en fonction du nombre de particules en écoulement, de la taille des particules et de la hauteur du milieu poreux. Nous avons également caractérisé la dépendance du coefficient de dispersion latéral vis-à-vis du nombre de particules transitant dans la structure poreuse.<br />Dans un deuxième temps, nous avons développé des modèles de simulations numériques basés sur les méthodes "Event-Driven" et "dynamique moléculaire de sphères molles". Ceux-ci nous ont permis de compléter l'étude expérimentale en analysant l'influence de divers paramètres supplémentaires. L'accès à l'intérieur du milieu poreux a permis une analyse plus fine de la dispersion des particules. <br />Enfin, nous avons abordé la possibilité d'utiliser le phénomène de percolation spontanée pour réaliser un mélangeur. Grâce à l'outil numérique, nous avons réalisé et caractérisé des mélanges de particules de tailles différentes. Nous avons alors montré que ce procédé s'avère être un moyen simple et efficace pour obtenir des mélanges homogènes de particules.
62

模型驅動架構下工作流程模型之分析與設計

楊國源, Yang,Kuo Yuan Unknown Date (has links)
本研究遵循模型驅動架構的概&#63907;,發展一適用於現實商業&#63946;程之工作&#63946;程模型,採用創新的方式對於工作&#63946;程做描述,我們只需要按照固定的步驟,&#63845;可以將真實的商業&#63946;程發展成可用的模型,以&#63965;於後續發展工作&#63946;程系統之用。在發展模型時,我們採用&#63930;IBM的資訊框架(IFW)做為塑模的方式,以及&#63965;用統一塑模語言中的&#63994;態移轉圖和循序圖的概&#63907;&#63789;做為呈現工作&#63946;程模型,解決&#63930;傳統&#63946;程無法表達&#63946;程內部資&#63934;變化所帶&#63789;的影響,除此之外,我們在模型發展後,採用包含事件-驅動概&#63907;的工作&#63946;程引擎&#63789;產生工作&#63946;程系統,我們將商業&#63946;程視為一個個的物件,物件收發事件導致&#63994;態的改變而引發另一個事件的發生,如此循環下去,直到整個&#63946;程完成。
63

Flot de conception pour l'ultra faible consommation : échantillonnage non-uniforme et électronique asynchrone / Design flow for ultra-low power : non-uniform sampling and asynchronous circuits

Simatic, Jean 07 December 2017 (has links)
Les systèmes intégrés sont souvent des systèmes hétérogènes avec des contraintes fortes de consommation électrique. Ils embarquent aujourd'hui des actionneurs, des capteurs et des unités pour le traitement du signal. Afin de limiter l'énergie consommée, ils peuvent tirer profit des techniques évènementielles que sont l'échantillonnage non uniforme et l'électronique asynchrone. En effet, elles permettent de réduire drastiquement la quantité de données échantillonnées pour de nombreuses classes de signaux et de diminuer l'activité. Pour aider les concepteurs à développer rapidement des plateformes exploitant ces deux techniques évènementielles, nous avons élaboré un flot de conception nommé ALPS. Il propose un environnement permettant de déterminer et de simuler au niveau algorithmique le schéma d'échantillonnage et les traitements associés afin de sélectionner les plus efficients en fonction de l'application ciblée. ALPS génère directement le convertisseur analogique/numérique à partir des paramètres d'échantillonnage choisis. L'élaboration de la partie de traitement s'appuie quant à elle sur un outil de synthèse de haut niveau synchrone et une méthode de désynchronisation exploitant des protocoles asynchrones spécifiques, capables d'optimiser la surface et la consommation du circuit. Enfin, des simulations au niveau porteslogiques permettent d'analyser et de valider l'énergie consommée avant de poursuivre par un flot classique de placement et routage. Les évaluations conduites montrent une réduction d'un facteur 3 à 8 de la consommation des circuits automatiquement générés. Le flot ALPS permet à un concepteur non-spécialiste de se concentrer sur l'optimisation de l'échantillonnage et de l'algorithme en fonction de l'application et de potentiellement réduire d'un ou plusieurs ordres de grandeur la consommation du circuit. / Integrated systems are mainly heterogeneous systems with strong powerconsumption constraints. They embed actuators, sensors and signalprocessing units. To limit the energy consumption, they can exploitevent-based techniques, namely non-uniform sampling and asynchronouscircuits. Indeed, they allow cutting drastically the amount of sampleddata for many types of signals and reducing the system activity. To helpdesigners in quickly developing platforms that exploit those event-basedtechniques, we elaborated a design framework called ALPS. It proposes anenvironment to determine and simulate at algorithmic level the samplingscheme and the associated processing in order to select the mostefficient ones depending on the targetted application. ALPS generatesdirectly the analog-to-digital converter based on the chosen samplingparameters. The elaboration of the processing unit uses a synchronoushigh-level synthesis tool and a desynchronization method that exploitsspecific asynchronous protocols to optimize the circuit area and powerconsumption. Finally, gate-level simulations allow analyzing andvalidating the energy consumption before continuing with a standardplacement and routing flow. The conducted evaluations show a reductionfactor of 3 to 8 of the consumption of the automatically generatedcirctuis. The flow ALPS allow non-specialists to concentrate on theoptimization of the sampling and the processing in function of theirapplication and to reduice the circuit power consumptions by one toseveral orders of magnitude.
64

Etude de performances sur processeurs multicoeur : environnement d'exécution événementiel efficace et étude comparative de modèles de programmation / Performance studies on multicore processors : efficient event-driven runtime and programming models comparison

Geneves, Sylvain 05 April 2013 (has links)
Cette thèse traite des performances des serveurs de données en multi-cœur. Plus précisément nous nous intéressons au passage à l'échelle avec le nombre de cœurs. Dans un premier temps, nous étudions le fonctionnement interne d'un support d'exécution événementiel multi-cœur. Nous montrons tout d'abord que le faux-partage ainsi que les mécanismes de communications inter-cœurs dégradent fortement les performances et empêchent le passage à l'échelle des applications. Nous proposons alors plusieurs optimisations pour pallier ces comportements. Dans un second temps, nous comparons les performances en multi-cœur de trois serveurs Web chacun représentatif d'un modèle de programmation. Nous remarquons que les différences de performances observées entre les serveurs varient lorsque le nombre de cœurs augmente. Après une analyse approfondie des performances observées, nous identifions la cause de la limitation du passage à l'échelle des serveurs étudiés. Nous présentons une proposition ainsi qu'un ensemble de pistes pour lever cette limitation. / This thesis studies the performances of data servers on multicores. More precisely, we focus on the scalability with the number of cores. First, we study the internals of an event-driven multicore runtime. We demonstrate that false sharing and inter-core communications hurt performances badly, and prevent applications from scaling. We then propose several optimisations to fix these issues. In a second part, we compare the multicore performances of three Webservers, each reprensentative of a programming model. We observe that the differences between each server's performances vary as the number of cores increases. We are able to pinpoint the cause of the scalability limitation observed. We present one approach and some perspectives to overcome this limit.
65

Implementering av Zero Trust i ett händelsestyrt meddelandesystem / Implementation of Zero Trust in an Event-Driven Messaging System

Wilson, Paul-Stefan Luay, Bahadi, Georges January 2024 (has links)
Denna rapport adresserar den centrala problemställningen kring säkerheten i händelsestyrda meddelandesystem genom att undersöka och implementera Zero Trust-arkitektur. Problemet är av stor relevans på grund av den ökande användningen av sådana system och det växande behovet av robusta säkerhetslösningar för att hantera utmaningar relaterade till asynkron kommunikation och datahantering. Zero Trust-modellen erbjuder en innovativ strategi för att förstärka säkerheten genom att eliminera implicit tillit och istället kontinuerligt verifiera användare och enheter, vilket gör det särskilt lämpligt för dynamiska och distribuerade system. Genom att utforska och analysera egenskaperna hos händelsestyrda meddelandesystem och identifiera de utmaningar som de presenterar för säkerhetsarkitekturen, undersöker rapporten en mängd olika metoder för att genomföra Zero Trust-principen. Genom en noggrann integrering av dessa metoder framhäver rapporten en effektiv och skalbar lösning för att säkra och skydda känsliga resurser och data i händelsestyrda meddelandesystem. Den presenterade lösningen belyser värdet av Zero Trust som en tillförlitlig modell för att hantera säkerhetsrisker och säkerställa en hållbar och robust arkitektur för asynkron kommunikation i moderna IT-system. / This report addresses the central issue of security in event-driven messaging systems by examining and implementing Zero Trust architecture. The problem is highly relevant due to the increasing use of such systems and the growing need for robust security solutions to manage challenges related to asynchronous communication and data handling. The Zero Trust model offers an innovative approach to enhancing security by eliminating implicit trust and instead continuously verifying users and devices, making it particularly suitable for dynamic and distributed systems. By exploring and analyzing the characteristics of event-driven messaging systems and identifying the challenges they present for security architecture, the report investigates various methods for implementing the Zero Trust principle. Through careful integration of these methods, the report highlights an effective and scalable solution for securing and protecting sensitive resources and data in event-driven messaging systems. The presented solution underscores the value of Zero Trust as a reliable model for addressing security risks and ensuring a sustainable and robust architecture for asynchronous communication in modern IT systems.
66

[en] A MULTILANGUAGE PROGRAMMING MODEL FOR GEOGRAPHICALLY DISTRIBUTED APPLICATIONS / [pt] UM MODELO DE PROGRAMAÇÃO MULTILINGUAGEM PARA APLICAÇÕES GEOGRAFICAMENTE DISTRIBUÍDAS

CRISTINA URURAHY DA FONTOURA CERQUEIRA 15 March 2004 (has links)
[pt] Neste trabalho propomos usar o ALua, um mecanismo de comunicação orientado a eventos, baseado na linguagem interpretada Lua, para coordenação e desenvolvimento de aplicações paralelas distribuídas. ALua é um modelo de programação dual para aplicações paralelas distribuídas, que age como elemento de ligação, permitindo que partes pré- compiladas do programa sejam executadas em diferentes máquinas. Novas tecnologias em programação paralela, como computação em grade, e o interesse atual em computação distribuída para redes geográficas demandam novos níveis de flexibilidade, como o uso de estratégias de adaptação e a habilidade para um usuário interferir em uma computação sem a necessidade de interrompê-la. Além disso, devido a sua natureza assíncrona, a programação dirigida a eventos oferece um modelo apropriado para ambiente sujeitos a falhas e retardos, que são freqüentes no contexto de redes geográficas. Neste trabalho, mostramos que o ALua pode trazer a flexibilidade desejada, através de mecanismos de adaptação e monitoramento não só de aplicações, mas do próprio ambiente de execução, e ainda tirar proveito de sua natureza interpretada para permitir a intervenção do usuário na aplicação mesmo durante a sua execução. / [en] In this work we propose the use of Alua, an event-driven communication mechanism for coordinating and developing distributed parallel applications, based on the interpreted language Lua. Alua adopts a multilinguage programming model for distributed parallel applications, acting as a gluing element among precompiled program parts running on different machines. New developments in parallel programming, such as Grid computing, and current interest in wide-area distributed computing demand new levels of flexibility, such as the use of adaptive strategies and the ability for an user to interfer with a computation without having to stop it. Furthermore, because of its asynchronous nature, event-driven programming provides a suitable model for environments subject to failures and delays that are frequent in the context of geographically distributed computing. In this work we show that ALua can achieve the required flexibility through mechanisms for monitoring and adapting not only applications, but also the execution environment, and also exploit its interpretive nature to allow the programmer to modify the behavior of the application during its execution.
67

Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise / Automatic interpretation of heterogeneous data to model collaborative situations : application to crisis management

Fertier, Audrey 29 November 2018 (has links)
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise. / The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers.
68

Event-Driven Motion Compensation in Positron Emission Tomography: Development of a Clinically Applicable Method

Langner, Jens 11 August 2009 (has links) (PDF)
Positron emission tomography (PET) is a well-established functional imaging method used in nuclear medicine. It allows for retrieving information about biochemical and physiological processes in vivo. The currently possible spatial resolution of PET is about 5 mm for brain acquisitions and about 8 mm for whole-body acquisitions, while recent improvements in image reconstruction point to a resolution of 2 mm in the near future. Typical acquisition times range from minutes to hours due to the low signal-to-noise ratio of the measuring principle, as well as due to the monitoring of the metabolism of the patient over a certain time. Therefore, patient motion increasingly limits the possible spatial resolution of PET. In addition, patient immobilisations are only of limited benefit in this context. Thus, patient motion leads to a relevant resolution degradation and incorrect quantification of metabolic parameters. The present work describes the utilisation of a novel motion compensation method for clinical brain PET acquisitions. By using an external motion tracking system, information about the head motion of a patient is continuously acquired during a PET acquisition. Based on the motion information, a newly developed event-based motion compensation algorithm performs spatial transformations of all registered coincidence events, thus utilising the raw data of a PET system - the so-called `list-mode´ data. For routine acquisition of this raw data, methods have been developed which allow for the first time to acquire list-mode data from an ECAT Exact HR+ PET scanner within an acceptable time frame. Furthermore, methods for acquiring the patient motion in clinical routine and methods for an automatic analysis of the registered motion have been developed. For the clinical integration of the aforementioned motion compensation approach, the development of additional methods (e.g. graphical user interfaces) was also part of this work. After development, optimisation and integration of the event-based motion compensation in clinical use, analyses with example data sets have been performed. Noticeable changes could be demonstrated by analysis of the qualitative and quantitative effects after the motion compensation. From a qualitative point of view, image artefacts have been eliminated, while quantitatively, the results of a tracer kinetics analysis of a FDOPA acquisition showed relevant changes in the R0k3 rates of an irreversible reference tissue two compartment model. Thus, it could be shown that an integration of a motion compensation method which is based on the utilisation of the raw data of a PET scanner, as well as the use of an external motion tracking system, is not only reasonable and possible for clinical use, but also shows relevant qualitative and quantitative improvement in PET imaging. / Die Positronen-Emissions-Tomographie (PET) ist ein in der Nuklearmedizin etabliertes funktionelles Schnittbildverfahren, das es erlaubt Informationen über biochemische und physiologische Prozesse in vivo zu erhalten. Die derzeit erreichbare räumliche Auflösung des Verfahrens beträgt etwa 5 mm für Hirnaufnahmen und etwa 8 mm für Ganzkörperaufnahmen, wobei erste verbesserte Bildrekonstruktionsverfahren eine Machbarkeit von 2 mm Auflösung in Zukunft möglich erscheinen lassen. Durch das geringe Signal/Rausch-Verhältnis des Messverfahrens, aber auch durch die Tatsache, dass der Stoffwechsel des Patienten über einen längeren Zeitraum betrachtet wird, betragen typische PET-Aufnahmezeiten mehrere Minuten bis Stunden. Dies hat zur Folge, dass Patientenbewegungen zunehmend die erreichbare räumliche Auflösung dieses Schnittbildverfahrens limitieren. Eine Immobilisierung des Patienten zur Reduzierung dieser Effekte ist hierbei nur bedingt hilfreich. Es kommt daher zu einer relevanten Auflösungsverschlechterung sowie zu einer Verfälschung der quantifizierten Stoffwechselparameter. Die vorliegende Arbeit beschreibt die Nutzbarmachung eines neuartigen Bewegungskorrekturverfahrens für klinische PET-Hirnaufnahmen. Mittels eines externen Bewegungsverfolgungssystems wird während einer PET-Untersuchung kontinuierlich die Kopfbewegung des Patienten registriert. Anhand dieser Bewegungsdaten führt ein neu entwickelter event-basierter Bewegungskorrekturalgorithmus eine räumliche Korrektur aller registrierten Koinzidenzereignisse aus und nutzt somit die als &amp;quot;List-Mode&amp;quot; bekannten Rohdaten eines PET Systems. Für die Akquisition dieser Daten wurden eigens Methoden entwickelt, die es erstmals erlauben, diese Rohdaten von einem ECAT Exact HR+ PET Scanner innerhalb eines akzeptablen Zeitraumes zu erhalten. Des Weiteren wurden Methoden für die klinische Akquisition der Bewegungsdaten sowie für die automatische Auswertung dieser Daten entwickelt. Ebenfalls Teil der Arbeit waren die Entwicklung von Methoden zur Integration in die klinische Routine (z.B. graphische Nutzeroberflächen). Nach der Entwicklung, Optimierung und Integration der event-basierten Bewegungskorrektur für die klinische Nutzung wurden Analysen anhand von Beispieldatensätzen vorgenommen. Es zeigten sich bei der Auswertung sowohl der qualitativen als auch der quantitativen Effekte deutliche Änderungen. In qualitativer Hinsicht wurden Bildartefakte eliminiert; bei der quantitativen Auswertung einer FDOPA Messung zeigte sich eine revelante Änderung der R0k3 Einstromraten eines irreversiblen Zweikompartment-Modells mit Referenzgewebe. Es konnte somit gezeigt werden, dass eine Integration einer Bewegungskorrektur unter Zuhilfenahme der Rohdaten eines PET Systems sowie unter Nutzung eines externen Verfolgungssystems nicht nur sinnvoll und in der klinischen Routine machbar ist, sondern auch zu maßgeblichen qualitativen und quantitativen Verbesserungen in der PET-Bildgebung beitragen kann.
69

Event-Driven Motion Compensation in Positron Emission Tomography: Development of a Clinically Applicable Method

Langner, Jens 28 July 2009 (has links)
Positron emission tomography (PET) is a well-established functional imaging method used in nuclear medicine. It allows for retrieving information about biochemical and physiological processes in vivo. The currently possible spatial resolution of PET is about 5 mm for brain acquisitions and about 8 mm for whole-body acquisitions, while recent improvements in image reconstruction point to a resolution of 2 mm in the near future. Typical acquisition times range from minutes to hours due to the low signal-to-noise ratio of the measuring principle, as well as due to the monitoring of the metabolism of the patient over a certain time. Therefore, patient motion increasingly limits the possible spatial resolution of PET. In addition, patient immobilisations are only of limited benefit in this context. Thus, patient motion leads to a relevant resolution degradation and incorrect quantification of metabolic parameters. The present work describes the utilisation of a novel motion compensation method for clinical brain PET acquisitions. By using an external motion tracking system, information about the head motion of a patient is continuously acquired during a PET acquisition. Based on the motion information, a newly developed event-based motion compensation algorithm performs spatial transformations of all registered coincidence events, thus utilising the raw data of a PET system - the so-called `list-mode´ data. For routine acquisition of this raw data, methods have been developed which allow for the first time to acquire list-mode data from an ECAT Exact HR+ PET scanner within an acceptable time frame. Furthermore, methods for acquiring the patient motion in clinical routine and methods for an automatic analysis of the registered motion have been developed. For the clinical integration of the aforementioned motion compensation approach, the development of additional methods (e.g. graphical user interfaces) was also part of this work. After development, optimisation and integration of the event-based motion compensation in clinical use, analyses with example data sets have been performed. Noticeable changes could be demonstrated by analysis of the qualitative and quantitative effects after the motion compensation. From a qualitative point of view, image artefacts have been eliminated, while quantitatively, the results of a tracer kinetics analysis of a FDOPA acquisition showed relevant changes in the R0k3 rates of an irreversible reference tissue two compartment model. Thus, it could be shown that an integration of a motion compensation method which is based on the utilisation of the raw data of a PET scanner, as well as the use of an external motion tracking system, is not only reasonable and possible for clinical use, but also shows relevant qualitative and quantitative improvement in PET imaging. / Die Positronen-Emissions-Tomographie (PET) ist ein in der Nuklearmedizin etabliertes funktionelles Schnittbildverfahren, das es erlaubt Informationen über biochemische und physiologische Prozesse in vivo zu erhalten. Die derzeit erreichbare räumliche Auflösung des Verfahrens beträgt etwa 5 mm für Hirnaufnahmen und etwa 8 mm für Ganzkörperaufnahmen, wobei erste verbesserte Bildrekonstruktionsverfahren eine Machbarkeit von 2 mm Auflösung in Zukunft möglich erscheinen lassen. Durch das geringe Signal/Rausch-Verhältnis des Messverfahrens, aber auch durch die Tatsache, dass der Stoffwechsel des Patienten über einen längeren Zeitraum betrachtet wird, betragen typische PET-Aufnahmezeiten mehrere Minuten bis Stunden. Dies hat zur Folge, dass Patientenbewegungen zunehmend die erreichbare räumliche Auflösung dieses Schnittbildverfahrens limitieren. Eine Immobilisierung des Patienten zur Reduzierung dieser Effekte ist hierbei nur bedingt hilfreich. Es kommt daher zu einer relevanten Auflösungsverschlechterung sowie zu einer Verfälschung der quantifizierten Stoffwechselparameter. Die vorliegende Arbeit beschreibt die Nutzbarmachung eines neuartigen Bewegungskorrekturverfahrens für klinische PET-Hirnaufnahmen. Mittels eines externen Bewegungsverfolgungssystems wird während einer PET-Untersuchung kontinuierlich die Kopfbewegung des Patienten registriert. Anhand dieser Bewegungsdaten führt ein neu entwickelter event-basierter Bewegungskorrekturalgorithmus eine räumliche Korrektur aller registrierten Koinzidenzereignisse aus und nutzt somit die als &amp;quot;List-Mode&amp;quot; bekannten Rohdaten eines PET Systems. Für die Akquisition dieser Daten wurden eigens Methoden entwickelt, die es erstmals erlauben, diese Rohdaten von einem ECAT Exact HR+ PET Scanner innerhalb eines akzeptablen Zeitraumes zu erhalten. Des Weiteren wurden Methoden für die klinische Akquisition der Bewegungsdaten sowie für die automatische Auswertung dieser Daten entwickelt. Ebenfalls Teil der Arbeit waren die Entwicklung von Methoden zur Integration in die klinische Routine (z.B. graphische Nutzeroberflächen). Nach der Entwicklung, Optimierung und Integration der event-basierten Bewegungskorrektur für die klinische Nutzung wurden Analysen anhand von Beispieldatensätzen vorgenommen. Es zeigten sich bei der Auswertung sowohl der qualitativen als auch der quantitativen Effekte deutliche Änderungen. In qualitativer Hinsicht wurden Bildartefakte eliminiert; bei der quantitativen Auswertung einer FDOPA Messung zeigte sich eine revelante Änderung der R0k3 Einstromraten eines irreversiblen Zweikompartment-Modells mit Referenzgewebe. Es konnte somit gezeigt werden, dass eine Integration einer Bewegungskorrektur unter Zuhilfenahme der Rohdaten eines PET Systems sowie unter Nutzung eines externen Verfolgungssystems nicht nur sinnvoll und in der klinischen Routine machbar ist, sondern auch zu maßgeblichen qualitativen und quantitativen Verbesserungen in der PET-Bildgebung beitragen kann.
70

Data Transfer and Management through the IKAROS framework : Adopting an asynchronous non-blocking event driven approach to implement the Elastic-Transfer's IMAP client-server connection

Gkikas, Nikolaos January 2015 (has links)
Given the current state of input/output (I/O) and storage devices in petascale systems, incremental solutions would be ineffective when implemented in exascale environments. According to the "The International Exascale Software Roadmap", by Dongarra, et al. existing I/O architectures are not sufficiently scalable, especially because current shared file systems have limitations when used in large-scale environments. These limitations are: Bandwidth does not scale economically to large-scale systems, I/O traffic on the high speed network can impact on and be influenced by other unrelated jobs, and I/O traffic on the storage server can impact on and be influenced by other unrelated jobs. Future applications on exascale computers will require I/O bandwidth proportional to their computational capabilities. To avoid these limitations C. Filippidis, C. Markou, and Y. Cotronis proposed the IKAROS framework. In this thesis project, the capabilities of the publicly available elastic-transfer (eT) module which was directly derived from the IKAROS, will be expanded. The eT uses Google’s Gmail service as an utility for efficient meta-data management. Gmail is based on the IMAP protocol, and the existing version of the eT framework implements the Internet Message Access Protocol (IMAP) client-server connection through the ‘‘Inbox’’ module from the Node Package Manager (NPM) of the Node.js programming language. This module was used as a proof of concept, but in a production environment this implementation undermines the system’s scalability and there is an inefficient allocation of the system’s resources when a large number of concurrent requests arrive at the eT′s meta-data server (MDS) at the same time. This thesis solves this problem by adopting an asynchronous non-blocking event driven approach to implement the IMAP client-server connection. This was done by integrating and modifying the ‘‘Imap’’ NPM module from the NPM repository to suit the eT framework. Additionally, since the JavaScript Object Notation (JSON) format has become one of the most widespread data-interchange formats, eT′s meta-data scheme is appropriately modified to make the system’s meta-data easily parsed as JSON objects. This feature creates a framework with wider compatibility and interoperability with external systems. The evaluation and operational behavior of the new module was tested through a set of data transfer experiments over a wide area network environment. These experiments were performed to ensure that the changes in the system’s architecture did not affected its performance. / Givet det nuvarande läget för input/output (I/O) och lagringsenheter för system i peta-skala, skulle inkrementella lösningar bli ineffektiva om de implementerades i exa-skalamiljöer. Enligt ”The International Exascale Software Roadmap”, av Dongarra et al., är nuvarande I/O-arkitekturer inte tillräckligt skalbara, särskilt eftersom nuvarande delade filsystem har begränsningar när de används i storskaliga miljöer. Dessa begränsningar är: Bandbredd skalar inte på ett ekonomiskt sätt i storskaliga system, I/O-trafik på höghastighetsnätverk kan ha påverkan på och blir påverkad av andra orelaterade jobb, och I/O-trafik på lagringsservern kan ha påverkan på och bli påverkad av andra orelaterade jobb. Framtida applikationer på exa-skaladatorer kommer kräva I/O-bandbredd proportionellt till deras beräkningskapacitet. För att undvika dessa begränsningar föreslog C. Filippidis, C. Markou och Y. Cotronis ramverket IKAROS. I detta examensarbete utökas funktionaliteten hos den publikt tillgängliga modulen elastic-transfer (eT) som framtagits utifrån IKAROS. Den befintliga versionen av eT-ramverket implementerar Internet Message Access Protocol (IMAP) klient-serverkommunikation genom modulen ”Inbox” från Node Package Manager (NPM) ur Node.js programmeringsspråk. Denna modul användes som ett koncepttest, men i en verklig miljö så underminerar denna implementation systemets skalbarhet när ett stort antal värdar ansluter till systemet. Varje klient begär individuellt information relaterad till systemets metadata från IMAP-servern, vilket leder till en ineffektiv allokering av systemets resurser när ett stort antal värdar är samtidigt anslutna till eT-ramverket. Denna uppsats löser problemet genom att använda ett asynkront, icke-blockerande och händelsedrivet tillvägagångssätt för att implementera en IMAP klient-serveranslutning. Detta görs genom att integrera och modifiera NPM:s ”Imap”-modul, tagen från NPM:s katalog, så att den passar eT-ramverket. Eftersom formatet JavaScript Object Notation (JSON) har blivit ett av de mest spridda formaten för datautbyte så modifieras även eT:s metadata-struktur för att göra systemets metadata enkelt att omvandla till JSON-objekt. Denna funktionalitet ger ett bredare kompatibilitet och interoperabilitet med externa system. Utvärdering och tester av den nya modulens operationella beteende utfördes genom en serie dataöverföringsexperiment i en wide area network-miljö. Dessa experiment genomfördes för att få bekräftat att förändringarna i systemets arkitektur inte påverkade dess prestanda.

Page generated in 0.0747 seconds