• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 10
  • 3
  • 1
  • Tagged with
  • 28
  • 28
  • 24
  • 16
  • 15
  • 13
  • 13
  • 13
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Genetic Algorithm Based Automatic Data Partitioning Scheme For HPF On A Linux Cluster

Anand, Sunil Kumar 12 1900 (has links) (PDF)
No description available.
12

Mitteilungen des URZ 3/2005

Ehrig, Matthias, Grunewald, Dietmar, Pöhnitzsch, Thomas, Richter, Frank, Riedel, Wolfgang, Schmidt, Ronald, Wegener, Edwin, Ziegler, Christoph 17 August 2005 (has links)
Informationen des Universitätsrechenzentrums:Aktualisierung der Antivirensoftware an der TUC WXPADM und WXPI Tipps zur Bereitstellung von Lehrmaterialien im Campusnetz Was gibt es Neues am CLiC? Campusnetzzugang für Gäste der TUC (Gast-Logins) Phishing: Versuchter Datenklau per E-Mail Kurzinformationen
13

A Descriptive Performance Model of Small, Low Cost, Diskless Beowulf Clusters

Nielson, Curtis R. 16 September 2003 (has links) (PDF)
Commodity supercomputing clusters known as Beowulf clusters, have become a low cost alternative to traditional supercomputers. Beowulf clusters combine inexpensive computers and specialized software to achieve supercomputing power. The processing nodes in a diskless Beowulf cluster do not have a local hard disk unlike the nodes in most commodity clusters. Research has provided performance information for diskless clusters built with expensive, high performance equipment. Beowulf clusters use commodity off-the-shell hardware, and little information is available about their performance. This research includes the construction of several diskless Beowulf clusters. Using the NAS Parallel Benchmarks, the performance of these clusters was measured. Through analysis of these measurements, a descriptive performance model of diskless Beowulf clusters was produced.
14

Mitteilungen des URZ 4/1999

Becher,, Clauß,, Heide,, Richter,, Riedel, 17 January 2000 (has links)
Inhalt:Übersicht neu beschaffter Hardware, Neuer Mailbox-Server mailbox.hrz.tu-chemnitz.de, Login-Server login.hrz.tu-chemnitz.de, E-Mail per WWW: WebMail mit IMP, CLICK - Chemnitzer Linux Cluster Konzept, Was ist ein Beowulf? GNOME - ein neuer Desktop unter Linux, Linux-Anwendungssoftware, X Gnuplot Front End (XGFE)
15

Mitteilungen des URZ 3/1999

Clauß, Dippmann, Heik, Hübsch, Kempe, Müller, Seeger, Ziegler 14 September 1999 (has links)
Inhalt: Neuregelungen zur Inanspruchnahme kostenpflichtiger URZ-Dienste; Administrationsdienst für Windows NT und RedHat Linux; Aufbau eines Linux-Clusters am Institut für Physik; Neue AFS-Version verfügbar; Neues von MONARCH; Recherchieren von Datenbanken im Uni-Netz; ¨Zertifikat Internet-Nutzung¨ der TU Chemnitz
16

Mitteilungen des URZ 4/1999

Becher, Clauß, Heide, Richter, Riedel 17 January 2000 (has links)
Inhalt:Übersicht neu beschaffter Hardware, Neuer Mailbox-Server mailbox.hrz.tu-chemnitz.de, Login-Server login.hrz.tu-chemnitz.de, E-Mail per WWW: WebMail mit IMP, CLICK - Chemnitzer Linux Cluster Konzept, Was ist ein Beowulf? GNOME - ein neuer Desktop unter Linux, Linux-Anwendungssoftware, X Gnuplot Front End (XGFE)
17

Mitteilungen des URZ 4/2002

Becher, Fischer, Grunewald, Junghänel, Müller, Richter, Riedel 17 December 2002 (has links)
Mitteilungen des URZ 4/2002
18

Profillinie 6: Modellierung, Simulation, Hochleistungsrechnen:

Rehm, Wolfgang, Hofmann, Bernd, Meyer, Arnd, Steinhorst, Peter, Weinelt, Wilfried, Rünger, Gudula, Platzer, Bernd, Urbaneck, Thorsten, Lorenz, Mario, Thießen, Friedrich, Kroha, Petr, Benner, Peter, Radons, Günter, Seeger, Steffen, Auer, Alexander A., Schreiber, Michael, John, Klaus Dieter, Radehaus, Christian, Farschtschi, Abbas, Baumgartl, Robert, Mehlan, Torsten, Heinrich, Bernd 11 November 2005 (has links)
An der TU Chemnitz haben sich seit über zwei Jahrzehnten die Gebiete der rechnergestützten Wissenschaften (Computational Science) sowie des parallelen und verteilten Hochleistungsrechnens mit zunehmender Verzahnung entwickelt. Die Koordinierung und Bündelung entsprechender Forschungsarbeiten in der Profillinie 6 “Modellierung, Simulation, Hochleistungsrechnen” wird es ermöglichen, im internationalen Wettbewerb des Wissens mitzuhalten.
19

Mitteilungen des URZ 4/2005

Heik, Andreas, Müller, Thomas, Richter, Frank, Riedel, Wolfgang, Schmidt, Ronald, Trapp, Holger 21 November 2005 (has links)
Informationen des Universitätsrechenzentrums:Zentrale Ausbildungspools und UB-Computerarbeitsplätze: neue Hardware und Linux-Distribution Web-Trust-Center: Single Sign On für Web-Anwendungen Neuer Webmail-Zugang: IMP Version 4 Windows-Paket-Management Neues in der UB Software-News Personalia
20

Monitoring of large-scale Cluster Computers

Worm, Stefan 13 April 2007 (has links) (PDF)
The constant monitoring of a computer is one of the essentials to be up-to-date about its state. This may seem trivial if one is sitting right in front of it but when monitoring a computer from a certain distance it is not as simple anymore. It gets even more difficult if a large number of computers need to be monitored. Because the process of monitoring always causes some load on the network and the monitored computer itself, it is important to keep these influences as low as possible. Especially for a high-performance cluster that was built from a lot of computers, it is necessary that the monitoring approach works as efficiently as possible and does not influence the actual operations of the supercomputer. Thus, the main goals of this work were, first of all, analyses to ensure the scalability of the monitoring solution for a large computer cluster as well as to prove the functionality of it in practise. To achieve this, a classification of monitoring activities in terms of the overall operation of a large computer system was accomplished first. Thereafter, methods and solutions were presented which are suitable for a general scenario to execute the process of monitoring as efficient and scalable as possible. During the course of this work, conclusions from the operation of an existing cluster for the operation of a new, more powerful system were drawn to ensure its functionality as good as possible. Consequently, a selection of applications from an existing pool of solutions was made to find one that is most suitable for the monitoring of the new cluster. The selection took place considering the special situation of the system like the usage of InfiniBand as the network interconnect. Further on, an additional software was developed which can read and process the different status information of the InfiniBand ports, unaffected by the vendor of the hardware. This functionality, which so far had not been available in free monitoring applications, was exemplarily realised for the chosen monitoring software. Finally, the influence of monitoring activities on the actual tasks of the cluster was of interest. To examine the influence on the CPU and the network, the self-developed plugin as well as a selection of typical monitoring values were used exemplarily. It could be proven that no impact on the productive application for typical monitoring intervals can be expected and only for atypically short intervals a minor influence could be determined. / Die ständige Überwachung eines Computers gehört zu den essentiellen Dingen, die zu tun sind um immer auf dem Laufenden zu sein, wie der aktuelle Zustand des Rechners ist. Dies ist trivial, wenn man direkt davor sitzt, aber wenn man einen Computer aus der Ferne beobachten soll ist dies schon nicht mehr so einfach möglich. Schwieriger wird es dann, wenn es eine große Anzahl an Rechnern zu überwachen gilt. Da der Vorgang der Überwachung auch immer etwas Netzwerklast und Last auf dem zu überwachenden Rechner selber verursacht, ist es wichtig diese Einflüsse so gering wie möglich zu halten. Gerade dann, wenn man viele Computer zu einem leistungsfähigen Cluster zusammen geschalten hat ist es notwendig, dass diese Überwachungslösung möglichst effizient funktioniert und die eigentliche Arbeit des Supercomputers nicht stört. Die Hauptziele dieser Arbeit sind deshalb Analysen zur Sicherstellung der Skalierbarkeit der Überwachungslösung für einen großen Computer Cluster, sowie der praktische Nachweis der Funktionalität dieser. Dazu wurde zuerst eine Einordnung des Monitorings in den Gesamtbetrieb eines großen Computersystems vorgenommen. Danach wurden Methoden und Lösungen aufgezeigt, welche in einem allgemeinen Szenario geeignet sind, um den ganzheitlichen Vorgang der Überwachung möglichst effizient und skalierbar durchzuführen. Im weiteren Verlauf wurde darauf eingegangen welche Lehren aus dem Betrieb eines vorhandenen Clusters für den Betrieb eines neuen, leistungsfähigeren Systems gezogen werden können um dessen Funktion möglichst gut gewährleisten zu können. Darauf aufbauend wurde eine Auswahl getroffen, welche Anwendung aus einer Menge existierende Lösungen heraus, zur Überwachung des neuen Clusters besonders geeignet ist. Dies fand unter Berücksichtigung der spezielle Situation, zum Beispiel der Verwendung von InfiniBand als Verbindungsnetzwerk, statt. Im Zuge dessen wurde eine zusätzliche Software entwickelt, welche die verschiedensten Statusinformationen der InfiniBand Anschlüsse auslesen und verarbeiten kann, unabhängig vom Hersteller der Hardware. Diese Funktionalität, welche im Bereich der freien Überwachungsanwendungen bisher ansonsten noch nicht verfügbar war, wurde beispielhaft für die gewählte Monitoring Software umgesetzt. Letztlich war der Einfluss der Überwachungsaktivitäten auf die eigentlichen Anwendungen des Clusters von Interesse. Dazu wurden exemplarisch das selbst entwickelte Plugin sowie eine Auswahl an typischen Überwachungswerten benutzt, um den Einfluss auf die CPU und das Netzwerk zu untersuchen. Dabei wurde gezeigt, dass für typische Überwachungsintervalle keine Einschränkungen der eigentlichen Anwendung zu erwarten sind und dass überhaupt nur für untypisch kurze Intervalle ein geringer Einfluss festzustellen war.

Page generated in 0.0761 seconds