• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 21
  • 7
  • 4
  • 1
  • Tagged with
  • 62
  • 43
  • 37
  • 28
  • 24
  • 24
  • 24
  • 13
  • 11
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Partitionierungsalgorithmen für Modelldatenstrukturen zur parallelen compilergesteuerten Logiksimulation (Projekt)

Hering, Klaus 08 July 2019 (has links)
Die enorme Komplexität in naher Zukunft absehbarer VLSI-Schaltkreisentwicklungen bedingt auf allen Entwurfsebenen sehr zeitintensive Simulationsprozesse. Eine Antwort auf diese Herausforderung besteht in der Parallelisierung dieser Prozesse. Es wird ein Forschungsvorhaben vorgestellt, welches auf eine effektive Partitionierung von Modelldatenstrukturen im Vorfeld compilergesteuerter Logiksimulationen auf Parallelrechnern mit lose gekoppelten Prozessoren gerichtet ist. Im Rahmen dieses Projekts sollen ausgehend von einem Graphen-Modell Partitionierungsalgorithmen entwickelt, theoretisch untersucht sowie Kriterien für ihren Einsatz in Abhängigkeit von anwendungstypischen Modelleigenschaften abgeleitet werden. Zur experimentellen Unterstützung ist die Entwicklung einer parallel arbeitenden Testumgebung für die Analyse relevanter Modelldatenstrukturen vorgesehen. Eine Erweiterung dieser Umgebung zu einer Softwarekomponente, welche im Ergebnis eines Präprocessing von Modelldatenstrukturen Partitionierungsalgorithmen auswählt und realisiert, soll schließich in ein System zur Logiksimulation auf der Basis parallel arbeitender Instanzen eines der führenden heute kommerziell verfügbaren funktionellen Logiksimulatoren eingebunden werden.
12

Wechselwirkungen in einem Zellularen Beobachtungsgebiet - dargestellt am Beispiel einer Neuronenpopulation

Schulze, Rainer W. 12 November 2012 (has links)
Vorgestellt wird ein Ansatz zur mathematischen Beschreibung der Erregungsausbreitung in einer Neuronenpopulation. Beschrieben werden im Detail die Einzugsgebiete der Erregungsausbreitung und die Intensität von Wechselwirkungen innerhalb solcher Einzugsgebiete. Als schwierig erweist sich dabei die Trennung von Ursache und Reaktion. In einer natürlichen Neuronenpopulationen sind Transmittermoleküle, die Botenstoffe zwischen den Neuronen, sowohl Erregung als auch Reaktion. Sie verursachen, angelagert auf der Membranoberfläche eines Neurons, dessen Erregung in Form einer Depolarisation; sie sind gleichermaßen aber auch Reaktion eines Neurons auf eine stattgefundene Erregung, wenn sie aus den Vesikeln des synaptischen Endknopfes in den synaptischen Spalt ausgeschüttet werden. Zur Überwindung dieser Dualität wird der Begriff Wirkstoff definiert. Ein Wirkstoff bewirkt etwas, er besitzt unter diesem Gesichtspunkt ein bestimmtes Potential. Die Ausbreitung von Wirkstoffen, nämlich die Wirkungsübertragung, ereignet sich extrazellulär in Raum und Zeit. Im Detail wird dargelegt, wie aus dem punktuellen Ausbreitungsverhaltens einer Erregung über das unvollständig globale Ausbreitungsverhalten auf das vollständig globale Ausbreitungsverhalten einer Erregung in einer Neuronenpopulation geschlußfolgert werden kann. Das Ziel besteht darin, einen Ansatz zur analytischen Beschreibung der Erregungsausbreitung in natürlichen Neuronenpopulationen vorzubereiten und in seiner Sinnfälligkeit zu plausibilisieren. Sinnfällig erscheinen solche Betrachtungen im Hinblick auf den Entwurf STOCHASTISCH MASSIV PARALLELER SYSTEME. Darunter werden technische Systeme verstanden, die sowohl in ihrem technischen Konzept als auch in ihrer Wirkungsweise Korrespondenzen zu natürlichen Neuronenpopulationen aufweisen. Ausgehend von der Struktur und dem Erregungsmechanismus eines Neurons soll in der Perspektive ein analytisches Entwurfswerkzeug für STOCHASTISCH MASSIV PARALLELE SYSTEME entwickelt werden.
13

Paralleles konturbasiertes Connected-Component-Labeling für 2D-Bilddaten mit OpenCL und Cuda

Wenke, Henning 09 October 2015 (has links)
Connected-Component-Labeling (CCL) für 2D-Bilddaten ist ein bekanntes Problem im Bereich der Bildverarbeitung. Ziel ist es, zusammenhängende Pixelgruppen mit gleichen Eigenschaften zu erkennen und mit einem eindeutigen Label zu versehen. Zur Lösung von CCL-Problemen für 2D-Bilddaten werden sowohl sequentielle als auch parallele Algorithmen untersucht. Unter den bekannten Algorithmen gibt es solche, die asymptotisch optimale Eigenschaften besitzen. Speziell für den Bereich der Bildverarbeitung interessant sind außerdem auf Konturierung basierende Algorithmen. Die zusätzlich extrahierten Konturen können z.B. für die Buchstabenerkennung genutzt werden. Seit der jüngeren Vergangenheit werden Grafikprozessoren (GPUs) mit großem Erfolg für allgemeines Computing eingesetzt. So existieren auch mehrere Implementationen von Connected-Component-Labeling-Algorithmen für GPUs, welche im Vergleich mit Varianten für CPUs oft deutlich schneller sind. Diese GPU-basierten Ansätze verarbeiten typischerweise das Pixelgitter direkt. Im Rahmen der vorliegenden Arbeit werden mehrere neue parallele CCL-Algorithmen vorgeschlagen, welche auf Konturen basieren und sowohl für GPUs als auch für Multicore-CPUs geeignet sind. Diese werden experimentell mit Implementationen aus der Literatur unter Verwendung aktueller GPUs und CPUs verglichen. Dabei erreichen in vielen Fällen die vorgeschlagenen Techniken ein besseres Laufzeitverhalten. Das ist auf GPUs insbesondere dann besonders deutlich, wenn sich die evaluierten Datensätze durch einen geringen Anteil von Konturen im Vergleich zur Fläche der Connected-Components auszeichnen.
14

Droplet-based Microfluidic Platform for Quantitative Microbiology / Plate-forme de microfluidique pour la mesure de la croissance bactérienne en gouttes

Guermonprez, Cyprien 13 December 2016 (has links)
Développement d'une plateforme microfluidique pour la microbiologie quantitative. La plateforme permet la culture de milliers de colonies en parallèle dans des micro-gouttes. L'utilisation de tableau statique pour stocker les gouttes permet non seulement leur observation dans le temps pour des analyses dynamiques mais également la récupération de n'importe quelle goutte pour des études complémentaires. Nous avons également développé un outil permettant de soumettre les gouttes à des gradients chimiques directement sur la plateforme dont nous présentons les mécanismes physiques. Nous avons développé un software d'analyse des données générées par la plateforme pour l'étude de modèles de croissance bactérienne ainsi que l'impact des antibiotiques sur leur prolifération. / Development of a microfluidic chip for quantitative microbiology. The chip allow for parallel culture of thousands bacterial colonies in micro-droplets stored in static array. The 2D-array enable not only the visualisation of each colonies in timelapse experiment but also the extraction of any of them out of the chip at any time for further analysis (PCR, re-culture,...). The platform is adaptable to a concentration gradient producer, for which we present the physical understanding of working mechanism, that can apply different chemical environments to each colony. We developed in parallel a software that perform the analysis of the data generated by the platform to adress bacteria growth studies as well as the impact of antibiotics on bacteria proliferation.
15

ParObj : un noyau de système parallèle à objets

Menneteau, Francois 21 October 1993 (has links) (PDF)
Le travail presente dans cette these consiste a definir les fonctionnalites d'une machine virtuelle ParObj, supportant la notion d'objets concurrents et adaptee aux exigences du parallelisme massifs. Cette these s'inscrit dans le cadre du projet PARX de l'equipe "SYstemes Massivement PAralleles" du LGI qui vise a specifier et a realiser un systeme d'exploitation pour machines paralleles. A travers l'analyse de quelques Systemes Distribues a Objets connus, nous degageons les mecanismes de base que doit supporter ParObj. Nous avons arrete notre etude sur les aspects suivants : structures des entites, gestion des entites, gestion des interactions entre entites, et gestion des ressources. Dans notre approche, nous offrons dans ParObj un support parallele pour des objets passifs et actifs qui peuvent etre a la fois a gros grains (fichier, processus, etc.), et a grains intermediaires (liste chainee, thread, etc.). Pour une gestion encore plus fine du parallelisme, nous supportons aussi la notion d'objet fragmente. Un objet fragmente est un objet qui est decoupe en plusieurs sous-objets independants (fragments de l'objet) de taille quelconque, et qui peuvent etre accedes individuellement, de maniere concurrente.En revanche, nous avons decide de laisser aux compilateurs le soin de gerer les objets a grains fins. De plus, pour eliminer les conflits d'acces aux donnees, nous offrons un mecanisme de synchronisation des objets. L'architecture generale de ParObj est basee sur le modele original a trois niveaux de processus de PARX : le thread (qui est un flot de controle sequentiel a l'interieur d'une tache), la tache (qui est un contexte d'execution), et la Ptache (qui represente un programme parallele a l'execution). Une Ptache definit un domaine de communication et de protection, et assure la correction semantique du programme parallele (synchronisation des taches, controle des protocoles d'echanges, etc.). Au sein d'une Ptache, la protection des objets est assuree grace a des capacites. La localisation d'une entite (qui depend de sa visibilite et de sa reference) est realise grace a un mecanisme original de designation. Les experimentations que nous avons realisees montrent que ce mecanisme est parfaitement adapte a la gestion du parallelisme massif.
16

The limits of parallel processing

Göthe, Katrin January 2009 (has links)
Trying to do two things at once decreases performance of one or both tasks in many cases compared to the situation when one performs each task by itself. The present thesis deals with the question why and in which cases these dual-task costs emerge and moreover, whether there are cases in which people are able to process two cognitive tasks at the same time without costs. In four experiments the influence of stimulus-response (S-R) compatibility, S-R modality pairings, interindividual differences, and practice on parallel processing ability of two tasks are examined. Results show that parallel processing is possible. Nevertheless, dual-task costs emerge when: the personal processing strategy is serial, the two tasks have not been practiced together, S-R compatibility of both tasks is low (e.g. when a left target has to be responded with a right key press and in the other task an auditorily presented “A” has to be responded by saying “B”), and modality pairings of both tasks are Non Standard (i.e., visual-spatial stimuli are responded vocally whereas auditory-verbal stimuli are responded manually). Results are explained with respect to executive-based (S-R compatibility) and content-based crosstalk (S-R modality pairings) between tasks. Finally, an alternative information processing account with respect to the central stage of response selection (i.e., the translation of the stimulus to the response) is presented. / Versucht man zwei Aufgaben zur gleichen Zeit zu erledigen, so verschlechtert sich die Leistung einer oder beider Aufgabe(n) im Vergleich zur Situation, in der man beide Aufgaben einzeln erledigt. Die vorliegende Dissertation beschäftigt sich mit der Frage, warum und unter welchen Umständen diese Doppelaufgabenkosten entstehen. Darüber hinaus geht sie der Frage nach, ob es Aufgabenkombinationen gibt, für die parallele Verarbeitung ohne Kosten gezeigt werden kann. In vier Experimenten wurde der Einfluss von Stimulus-Reaktion (S-R) Kompatibilität, S-R Modalitätspaarungen, interindividueller Unterschiede und Training auf das Parallelverarbeitungspotential zweier Aufgaben untersucht. Die Ergebnisse zeigen, dass parallele Verarbeitung generell möglich ist. Dennoch entstehen Doppelaufgabenkosten, wenn die persönliche Verarbeitungsstrategie seriell ist, die beiden Aufgaben nicht genügend zusammen trainiert wurden, die S-R Kompatibilität beider Aufgaben gering ist (z.B. wenn ein linker Zielreiz mit einem Druck auf die rechten Taste beantwortet und in der anderen Aufgabe ein auditiv präsentiertes „A“ mit der Aussprache eines „Bs“ beantwortet werden muss) und die Modalitätspaarungen beider Aufgaben Nicht-Standard sind (d.h. visuell-räumliche Stimuli mit vokalen und auditiv-verbale Stimuli mit manuellen Reaktionen beantwortet werden müssen). Die gewonnenen Ergebnisse werden durch „Crosstalk“ der exekutiven Signale (S-R Kompatibilität) und durch inhaltsbasierten „Crosstalk“ (S-R Modalitätspaarungen) erklärt. Weiterhin wird ein alternatives Modell der Informationsverarbeitung mit Hinblick auf die zentrale Phase der Antwortauswahl (d.h. die Phase in der die Stimulusinformation in eine Antwort übersetzt wird) vorgestellt.
17

Speculation in Parallel and Distributed Event Processing Systems

Brito, Andrey 09 August 2010 (has links) (PDF)
Event stream processing (ESP) applications enable the real-time processing of continuous flows of data. Algorithmic trading, network monitoring, and processing data from sensor networks are good examples of applications that traditionally rely upon ESP systems. In addition, technological advances are resulting in an increasing number of devices that are network enabled, producing information that can be automatically collected and processed. This increasing availability of on-line data motivates the development of new and more sophisticated applications that require low-latency processing of large volumes of data. ESP applications are composed of an acyclic graph of operators that is traversed by the data. Inside each operator, the events can be transformed, aggregated, enriched, or filtered out. Some of these operations depend only on the current input events, such operations are called stateless. Other operations, however, depend not only on the current event, but also on a state built during the processing of previous events. Such operations are, therefore, named stateful. As the number of ESP applications grows, there are increasingly strong requirements, which are often difficult to satisfy. In this dissertation, we address two challenges created by the use of stateful operations in a ESP application: (i) stateful operators can be bottlenecks because they are sensitive to the order of events and cannot be trivially parallelized by replication; and (ii), if failures are to be tolerated, the accumulated state of an stateful operator needs to be saved, saving this state traditionally imposes considerable performance costs. Our approach is to evaluate the use of speculation to address these two issues. For handling ordering and parallelization issues in a stateful operator, we propose a speculative approach that both reduces latency when the operator must wait for the correct ordering of the events and improves throughput when the operation in hand is parallelizable. In addition, our approach does not require that user understand concurrent programming or that he or she needs to consider out-of-order execution when writing the operations. For fault-tolerant applications, traditional approaches have imposed prohibitive performance costs due to pessimistic schemes. We extend such approaches, using speculation to mask the cost of fault tolerance.
18

On-Board Memory Extension on Reconfigurable Integrated Circuits using External DDR3 Memory

Lodaya, Bhaveen 08 February 2018 (has links) (PDF)
User-programmable, integrated circuits (ICs) e.g. Field Programmable Gate Arrays (FPGAs) are increasingly popular for embedded, high-performance data exploitation. They combine the parallelization capability and processing power of application specific integrated circuits (ASICs) with the exibility, scalability and adaptability of software-based processing solutions. FPGAs provide powerful processing resources due to an optimal adaptation to the target application and a well-balanced ratio of performance, efficiency and parallelization. One drawback of FPGA-based data exploitation is the limited memory capacity of reconfigurable integrated circuits. Large-scale Digital Signal Processor (DSP) FPGAs provide approximately 4MB on-board random access memory (RAM) which is not sufficient to buffer the broadband sensor and result data. Hence, additional external memory is connected to the FPGA to increase on-board storage capacities. External memory devices like double data rate three synchronous dynamic random access memories (DDR3-SDRAM) provide very fast and wide bandwidth interfaces that represent a bottleneck when used in highly parallelized processing architectures. Independent processing modules are demanding concurrent read and write access. Within the master thesis, a concept for the integration of an external DDR3- SDRAM into an FPGA-based parallelized processing architecture is developed and implemented. The solution realizes time division multiple access (TDMA) to the external memory and virtual, low-latency memory extension to the on-board buffer capabilities. The integration of the external RAM does not change the way how on-board buffers are used (control, data-fow).
19

Ablaufszenarien fuer Client-Server Anwendungen mit CORBA 2.0

Falk, Edelmann 12 November 1997 (has links)
Die Common Object Request Broker Architecture (CORBA) der Object Management Group (OMG) bietet die Chance, nicht nur eine Plattform fuer neue verteilte Anwendungen zu sein, sondern erlaubt es auch, bestehende Anwendungen und Altsoftware hersteller- und systemuebergreifend zu integrieren. Diese Eigenschaft hebt CORBA von anderen Programmierplattformen ab und gibt CORBA das Potential, eine aussichtsreiche Basis fuer kuenftige Anwendungssysteme zu sein. Das Ziel dieser Studienarbeit besteht darin, die Umsetzbarkeit verschiedener Interaktionsarten in CORBA zu untersuchen und an Beispielen praktisch auszuprobieren. Moegliche Ablaufformen aus der Literatur, aus den Systemen DCE und MPI und anhand eigener Ueberlegungen werden im ersten Teil dieser Arbeit systematisch zusammengefasst. Danach folgt eine ausfuerliche Behandlung der Architektur von CORBA und der hier moeglichen Ablaufformen und Interaktionsszenarien. Abschliessend werden acht verschiedene Versionen eines einfachen verteilten Woerterbuches vorgestellt, um einige der in CORBA realisierten Konzepte am praktischen Beispiel zu verdeutlichen. Als CORBA-Plattform stand Orbix-MT 2.0.1 (multi-threaded) der Firma IONA Technologies Ltd. unter Solaris 2.x zur Verfuegung.
20

Towards Implicit Parallel Programming for Systems

Ertel, Sebastian 30 December 2019 (has links)
Multi-core processors require a program to be decomposable into independent parts that can execute in parallel in order to scale performance with the number of cores. But parallel programming is hard especially when the program requires state, which many system programs use for optimization, such as for example a cache to reduce disk I/O. Most prevalent parallel programming models do not support a notion of state and require the programmer to synchronize state access manually, i.e., outside the realms of an associated optimizing compiler. This prevents the compiler to introduce parallelism automatically and requires the programmer to optimize the program manually. In this dissertation, we propose a programming language/compiler co-design to provide a new programming model for implicit parallel programming with state and a compiler that can optimize the program for a parallel execution. We define the notion of a stateful function along with their composition and control structures. An example implementation of a highly scalable server shows that stateful functions smoothly integrate into existing programming language concepts, such as object-oriented programming and programming with structs. Our programming model is also highly practical and allows to gradually adapt existing code bases. As a case study, we implemented a new data processing core for the Hadoop Map/Reduce system to overcome existing performance bottlenecks. Our lambda-calculus-based compiler automatically extracts parallelism without changing the program's semantics. We added further domain-specific semantic-preserving transformations that reduce I/O calls for microservice programs. The runtime format of a program is a dataflow graph that can be executed in parallel, performs concurrent I/O and allows for non-blocking live updates.

Page generated in 0.0637 seconds