Spelling suggestions: "subject:"paralleller""
41 |
Mitteilungen des URZ 1/1994Dippmann,, Fischer,, Richter,, Riedel,, Trapp,, Wagner,, Wegener,, Winkler, 30 August 1995 (has links)
WWW in Chemnitz
Tcl/Tk
Software -- kurz vorgestellt:
Mathematica, NAG,
Maple, MuPAD
UNIRAS, PV-WAVE,
Pro/ENGINEER
SNIFF+, SPARCworks
SYBASE
PVM, EXPRESS
SPSS
XVision, PC/TCP
FrameMaker, IslandPresents
Parallelrechner des URZ
|
42 |
Mitteilungen des URZ 1/2/1996Riedel, Ursula, Richter, Frank, Huebner, Uwe, Wunderlich, Jan, Trapp, Holger, Clauss , Matthias, Baensch, Karsten, Plichta, Christa, Riedel, Wolfgang, Dippmann , D., Winkler, Jürgen 20 August 1996 (has links)
Neuer WWW-Server
Metacomputing - neue Aufgabenverteilung im Netz
Harvest
Secure Shell
Nutzung der WS-Pools
SW-Umgebung Parsytec
URZ auf der CeBit
Software-News
Dienste des URZ - Ueberblick
|
43 |
Mappingstrategien für KommunikatorenErmer, Thomas 12 September 2005 (has links) (PDF)
Es werden Fragen der effektiven Kommunikation in parallelen FEM-Systemen behandelt. Durch geschickte Partitionierung des betrachteten Gebietes und Verteilung auf die vorhandenen Prozessoren kann man versuchen, die Kommunikationslast zu minimieren, z. B. mit dem Programmsystem chaco. Ein möglichst paralleler Datenaustausch wird durch Anordnung der Kommunikationsschritte in so genannten Linkleveln versucht. In der vorliegenden Arbeit wird ausgehend von der MPI-basierten Koppelrandkommunikation ein Split-Algorithmus vorgestellt, der versucht, die Koppelranddaten großer Kommunikatoren auf die kleinerer Sub-Kommunikatoren abzubilden und damit die Anzahl der zu übertragenden Datenpakete zu minimieren.
|
44 |
Solving Large-Scale Generalized Algebraic Bernoulli Equations via the Matrix Sign FunctionBarrachina, Sergio, Benner, Peter, Quintana-Ortí, Enrique S. 11 September 2006 (has links) (PDF)
We investigate the solution of large-scale generalized algebraic Bernoulli equations as those arising in control and systems theory in the context of stabilization of linear dynamical systems, coprime factorization of rational matrix-valued functions, and model reduction. The algorithms we propose, based on a generalization of the Newton iteration for the matrix sign function, are easy to parallelize, yielding an efficient numerical tool to solve large-scale problems. Both the accuracy and the parallel performance of our implementations on a cluster of Intel Xeon processors are reported.
|
45 |
Erarbeitung einer grafischen Benutzerschnittstelle fuer das Intensive ComputingSchumann, Merten 21 June 1995 (has links)
Entwicklung einer grafischen Nutzerschnittstelle auf der
Basis von WWW, um Jobs fuer das Batchsystem DQS zu
aktivieren.
|
46 |
ANNarchy: a code generation approach to neural simulations on parallel hardwareVitay, Julien, Dinkelbach, Helge Ülo, Hamker, Fred Henrik 07 October 2015 (has links) (PDF)
Many modern neural simulators focus on the simulation of networks of spiking neurons on parallel hardware. Another important framework in computational neuroscience, rate-coded neural networks, is mostly difficult or impossible to implement using these simulators. We present here the ANNarchy (Artificial Neural Networks architect) neural simulator, which allows to easily define and simulate rate-coded and spiking networks, as well as combinations of both. The interface in Python has been designed to be close to the PyNN interface, while the definition of neuron and synapse models can be specified using an equation-oriented mathematical description similar to the Brian neural simulator. This information is used to generate C++ code that will efficiently perform the simulation on the chosen parallel hardware (multi-core system or graphical processing unit). Several numerical methods are available to transform ordinary differential equations into an efficient C++code. We compare the parallel performance of the simulator to existing solutions.
|
47 |
ANNarchy: a code generation approach to neural simulations on parallel hardwareVitay, Julien, Dinkelbach, Helge Ülo, Hamker, Fred Henrik 07 October 2015 (has links)
Many modern neural simulators focus on the simulation of networks of spiking neurons on parallel hardware. Another important framework in computational neuroscience, rate-coded neural networks, is mostly difficult or impossible to implement using these simulators. We present here the ANNarchy (Artificial Neural Networks architect) neural simulator, which allows to easily define and simulate rate-coded and spiking networks, as well as combinations of both. The interface in Python has been designed to be close to the PyNN interface, while the definition of neuron and synapse models can be specified using an equation-oriented mathematical description similar to the Brian neural simulator. This information is used to generate C++ code that will efficiently perform the simulation on the chosen parallel hardware (multi-core system or graphical processing unit). Several numerical methods are available to transform ordinary differential equations into an efficient C++code. We compare the parallel performance of the simulator to existing solutions.
|
48 |
Architecture synthesis for adaptive multiprocessor systems on chipIshebabi, Harold January 2010 (has links)
This thesis presents methods for automated synthesis of flexible chip multiprocessor systems from parallel programs targeted at FPGAs to exploit both task-level parallelism and architecture customization. Automated synthesis is necessitated by the complexity of the design space. A detailed description of the design space is provided in order to determine which parameters should be modeled to facilitate automated synthesis by optimizing a cost function, the emphasis being placed on inclusive modeling of parameters from application, architectural and physical subspaces, as well as their joint coverage in order to avoid pre-constraining the design space. Given a parallel program and a set of an IP library, the automated synthesis problem is to simultaneously (i) select processors (ii) map and schedule tasks to them, and (iii) select one or several networks for inter-task communications such that design constraints and optimization objectives are met. The research objective in this thesis is to find a suitable model for automated synthesis, and to evaluate methods of using the model for architectural optimizations. Our contributions are a holistic approach for the design of such systems, corresponding models to facilitate automated synthesis, evaluation of optimization methods using state of the art integer linear and answer set programming, as well as the development of synthesis heuristics to solve runtime challenges. / Aktuelle Technologien erlauben es komplexe Multiprozessorsysteme auf einem Chip mit Milliarden von Transistoren zu realisieren. Der Entwurf solcher Systeme ist jedoch zeitaufwendig und schwierig. Diese Arbeit befasst sich mit der Frage, wie On-Chip Multiprozessorsysteme ausgehend von parallelen Programmen automatisch synthetisiert werden können. Die Implementierung der Multiprozessorsysteme auf rekonfigurierbaren Chips erlaubt es die gesamte Architektur an die Struktur eines vorliegenden parallelen Programms anzupassen. Auf diese Weise ist es möglich die aktuellen technologischen Unzulänglichkeiten zu umgehen, insbesondere die nicht weitersteigende Taktfrequenzen sowie den langsamen Zugriff auf Datenspeicher.
Eine Automatisierung des Entwurfs von Multiprozessorsystemen ist notwendig, da der Entwurfsraum von Multiprozessorsystemen zu groß ist, um vom Menschen überschaut zu werden.
In einem ersten Ansatz wurde das Syntheseproblem mittels linearer Gleichungen modelliert, die dann durch lineare Programmierungswerkzeuge gelöst werden können. Ausgehend von diesem Ansatz wurde untersucht, wie die typischerweise langen Rechenzeiten solcher Optimierungsmethoden durch neuere Methode aus dem Gebiet der Erfüllbarkeitsprobleme der Aussagenlogik minimiert werden können. Dabei wurde die Werkzeugskette Potassco verwendet, in der lineare Programme direkt in Logikprogramme übersetzt werden können. Es wurde gezeigt, dass dieser zweite Ansatz die Optimierungszeit um bis zu drei Größenordnungen beschleunigt. Allerdings lassen sich große Syntheseprobleme auf diese weise wegen Speicherbegrenzungen nicht lösen.
Ein weiterer Ansatz zur schnellen automatischen Synthese bietet die Verwendung von Heuristiken. Es wurden im Rahmen diese Arbeit drei Heuristiken entwickelt, die die Struktur des vorliegenden Syntheseproblems ausnutzen, um die Optimierungszeit zu minimieren. Diese Heuristiken wurden unter Berücksichtigung theoretischer Ergebnisse entwickelt, deren Ursprung in der mathematische Struktur des Syntheseproblems liegt. Dadurch lassen sich optimale Architekturen in kurzer Zeit ermitteln.
Die durch diese Dissertation offen gewordene Forschungsarbeiten sind u. a. die Berücksichtigung der zeitlichen Reihenfolge des Datenaustauschs zwischen parallelen Tasks, die Optimierung des logik-basierten Ansatzes, die Integration von Prozessor- und Netzwerksimulatoren zur funktionalen Verifikation synthetisierter Architekturen, sowie die Entwicklung geeigneter Architekturkomponenten.
|
49 |
Mitteilungen des URZ 3/4/1994Richter, Frank, Riedel, Wolfgang, Schier, Thomas, Schoeniger, Frank, Wagner, Jens, Ziegler, Christoph 22 August 1995 (has links)
Supercomputer in Betrieb
Chemnitzer Studentennetz eingeweiht
Neue Compute-Server
Neuer Dienst: PC-Integration
TeX -Service des URZ
Software-News
Advent, Advent - Geschichtenzeit
|
50 |
Solving Large-Scale Generalized Algebraic Bernoulli Equations via the Matrix Sign FunctionBarrachina, Sergio, Benner, Peter, Quintana-Ortí, Enrique S. 11 September 2006 (has links)
We investigate the solution of large-scale generalized algebraic Bernoulli equations as those arising in control and systems theory in the context of stabilization of linear dynamical systems, coprime factorization of rational matrix-valued functions, and model reduction. The algorithms we propose, based on a generalization of the Newton iteration for the matrix sign function, are easy to parallelize, yielding an efficient numerical tool to solve large-scale problems. Both the accuracy and the parallel performance of our implementations on a cluster of Intel Xeon processors are reported.
|
Page generated in 0.0436 seconds