• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 10
  • 4
  • 1
  • Tagged with
  • 49
  • 14
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Prospektive Qualitätssicherung bei der technischen Saccharosegewinnung

Sixt, Andrea. Unknown Date (has links) (PDF)
Techn. Universiẗat, Diss., 2005--Berlin.
42

Advanced Analytics in Operations Management and Information Systems: Methods and Applications / Advanced Analytics im Operations Management und Information Systems: Methoden und Anwendungen

Stein, Nikolai Werner January 2019 (has links) (PDF)
Die digitale Transformation der Gesellschaft birgt enorme Potenziale für Unternehmen aus allen Sektoren. Diese verfügen aufgrund neuer Datenquellen, wachsender Rechenleistung und verbesserter Konnektivität über rasant steigende Datenmengen. Um im digitalen Wandel zu bestehen und Wettbewerbsvorteile in Bezug auf Effizienz und Effektivität heben zu können müssen Unternehmen die verfügbaren Daten nutzen und datengetriebene Entscheidungsprozesse etablieren. Dennoch verwendet die Mehrheit der Firmen lediglich Tools aus dem Bereich „descriptive analytics“ und nur ein kleiner Teil der Unternehmen macht bereits heute von den Möglichkeiten der „predictive analytics“ und „prescriptive analytics“ Gebrauch. Ziel dieser Dissertation, die aus vier inhaltlich abgeschlossenen Teilen besteht, ist es, Einsatzmöglichkeiten von „prescriptive analytics“ zu identifizieren. Da prädiktive Modelle eine wesentliche Voraussetzung für „prescriptive analytics“ sind, thematisieren die ersten beiden Teile dieser Arbeit Verfahren aus dem Bereich „predictive analytics.“ Ausgehend von Verfahren des maschinellen Lernens wird zunächst die Entwicklung eines prädiktiven Modells am Beispiel der Kapazitäts- und Personalplanung bei einem IT-Beratungsunternehmen veranschaulicht. Im Anschluss wird eine Toolbox für Data Science Anwendungen entwickelt. Diese stellt Entscheidungsträgern Richtlinien und bewährte Verfahren für die Modellierung, das Feature Engineering und die Modellinterpretation zur Verfügung. Der Einsatz der Toolbox wird am Beispiel von Daten eines großen deutschen Industrieunternehmens veranschaulicht. Verbesserten Prognosen, die von leistungsfähigen Vorhersagemodellen bereitgestellt werden, erlauben es Entscheidungsträgern in einigen Situationen bessere Entscheidungen zu treffen und auf diese Weise einen Mehrwert zu generieren. In vielen komplexen Entscheidungssituationen ist die Ableitungen von besseren Politiken aus zur Verfügung stehenden Prognosen jedoch oft nicht trivial und erfordert die Entwicklung neuer Planungsalgorithmen. Aus diesem Grund fokussieren sich die letzten beiden Teile dieser Arbeit auf Verfahren aus dem Bereich „prescriptive analytics“. Hierzu wird zunächst analysiert, wie die Vorhersagen prädiktiver Modelle in präskriptive Politiken zur Lösung eines „Optimal Searcher Path Problem“ übersetzt werden können. Trotz beeindruckender Fortschritte in der Forschung im Bereich künstlicher Intelligenz sind die Vorhersagen prädiktiver Modelle auch heute noch mit einer gewissen Unsicherheit behaftet. Der letzte Teil dieser Arbeit schlägt einen präskriptiven Ansatz vor, der diese Unsicherheit berücksichtigt. Insbesondere wird ein datengetriebenes Verfahren für die Einsatzplanung im Außendienst entwickelt. Dieser Ansatz integriert Vorhersagen bezüglich der Erfolgswahrscheinlichkeiten und die Modellqualität des entsprechenden Vorhersagemodells in ein „Team Orienteering Problem.“ / The digital transformation of business and society presents enormous potentials for companies across all sectors. Fueled by massive advances in data generation, computing power, and connectivity, modern organizations have access to gigantic amounts of data. Companies seek to establish data-driven decision cultures to leverage competitive advantages in terms of efficiency and effectiveness. While most companies focus on descriptive tools such as reporting, dashboards, and advanced visualization, only a small fraction already leverages advanced analytics (i.e., predictive and prescriptive analytics) to foster data-driven decision-making today. Therefore, this thesis set out to investigate potential opportunities to leverage prescriptive analytics in four different independent parts. As predictive models are an essential prerequisite for prescriptive analytics, the first two parts of this work focus on predictive analytics. Building on state-of-the-art machine learning techniques, we showcase the development of a predictive model in the context of capacity planning and staffing at an IT consulting company. Subsequently, we focus on predictive analytics applications in the manufacturing sector. More specifically, we present a data science toolbox providing guidelines and best practices for modeling, feature engineering, and model interpretation to manufacturing decision-makers. We showcase the application of this toolbox on a large data-set from a German manufacturing company. Merely using the improved forecasts provided by powerful predictive models enables decision-makers to generate additional business value in some situations. However, many complex tasks require elaborate operational planning procedures. Here, transforming additional information into valuable actions requires new planning algorithms. Therefore, the latter two parts of this thesis focus on prescriptive analytics. To this end, we analyze how prescriptive analytics can be utilized to determine policies for an optimal searcher path problem based on predictive models. While rapid advances in artificial intelligence research boost the predictive power of machine learning models, a model uncertainty remains in most settings. The last part of this work proposes a prescriptive approach that accounts for the fact that predictions are imperfect and that the arising uncertainty needs to be considered. More specifically, it presents a data-driven approach to sales-force scheduling. Based on a large data set, a model to predictive the benefit of additional sales effort is trained. Subsequently, the predictions, as well as the prediction quality, are embedded into the underlying team orienteering problem to determine optimized schedules.
43

The development of integrated management information systems for agricultural extension institutions of developing countries : the case of Oromia Agricultural Development Bureau of Ethiopia /

Gebre-Selassie, Samuel. January 2001 (has links)
Thesis (doctoral)--Universität, Bonn, 2001. / Includes bibliographical references (p. 148-153).
44

Automatisierung unscharfer Bewertungsverfahren - Modellierung und prototypische Umsetzung am Beispiel von Virtual Reality Projekten

Zilker, Michael 05 May 2002 (has links) (PDF)
Die Konfrontation mit innovativen IT-Technologien und deren Beurteilung gehört heute zu den Kernaufgaben des Informationsmanagements. Es muss permanent entscheiden, ob neue IT-Technolgien im Unternehmen nutzenstiftend eingesetzt werden können. Zur Beurteilung von IT-Projekten liefert die Teildisziplin des IT-Controllings, die Elemente der Wirtschaftsinformatik und des Controllings vereint, diverse Methoden und Ansätze. Diese Ansätze bilden die Basis für die vorliegende Arbeit, in der insbesondere der Aspekt der Nutzenbewertung von IT-Innovationen diskutiert wird. Bei der Bewertung von IT-Innovationen treten spezifische Probleme auf, denen der Autor mit der Fortentwicklung der vorhandenen Instrumente begegnet. Der Einsatz von unscharfen Methoden (Fuzzy Logik) führt zu einer adäquaten Darstellung von vagen Größen in Form von Zugehörigkeitsfunktionen. Durch den Einsatz von Regelbasen wird ein Expertenwissen repräsentiert, das die Analysemethode nach außen hin vereinfacht und somit zu einer effizienteren Nutzenbetrachtung führt. Die Auswahl und Initiierung von innovativen IT-Projekten wird durch ein Vorgehensmodell gestützt, das bei der fundamentalen Fragestellung nach Schwachstellen und Verbesserungspotentialen im Unternehmen ansetzt. Für diese Analyse wird auf die Erfolgsfaktorenanalyse zurückgegriffen, die durch individuelle Faktoren angepasst wird. Aus den analysierten Schwachstellen werden innovative IT-Projekte abgeleitet und definiert. Die Aufstellung der Nutzenkriterien erfolgt aus einem allgemeinen Nutzenkatalog, der mit den analysierten Erfolgsfaktoren korrespondiert. Die konkrete Bewertung der Projekte erfolgt durch die fuzzybasierte Nutzenbewertung und liefert prägnante Empfehlungen zu den einzelnen Projekten. Die Integration des Vorgehensmodells in das IT-Controlling erfordert eine automatisierte Form, die aufgrund der UML Notation generiert werden kann. Die prototypische Umsetzung und Verwendung der unscharfen Nutzenanalyse haben gezeigt, dass die Methodik für den praktischen Einsatz tauglich ist.
45

Quantifizierung von Synergiepotentialen bei der Bewertung von Bankenzusammenschlüssen /

Frank, Regina. January 2005 (has links)
Univ., Diss. u.d.T.: Regina Frank "Quantifizierung von Synergiepotentialen im Rahmen der Bewertung von Zusammenschlüssen von Universalbanken"--Bremen, 2002. / Literaturverz. S. 281 - 329.
46

Monitoring of large-scale Cluster Computers

Worm, Stefan. Mehlan, Torsten. January 2007 (has links)
Chemnitz, Techn. Univ., Diplomarb., 2007.
47

Automatisierung unscharfer Bewertungsverfahren - Modellierung und prototypische Umsetzung am Beispiel von Virtual Reality Projekten

Zilker, Michael 15 November 2001 (has links)
Die Konfrontation mit innovativen IT-Technologien und deren Beurteilung gehört heute zu den Kernaufgaben des Informationsmanagements. Es muss permanent entscheiden, ob neue IT-Technolgien im Unternehmen nutzenstiftend eingesetzt werden können. Zur Beurteilung von IT-Projekten liefert die Teildisziplin des IT-Controllings, die Elemente der Wirtschaftsinformatik und des Controllings vereint, diverse Methoden und Ansätze. Diese Ansätze bilden die Basis für die vorliegende Arbeit, in der insbesondere der Aspekt der Nutzenbewertung von IT-Innovationen diskutiert wird. Bei der Bewertung von IT-Innovationen treten spezifische Probleme auf, denen der Autor mit der Fortentwicklung der vorhandenen Instrumente begegnet. Der Einsatz von unscharfen Methoden (Fuzzy Logik) führt zu einer adäquaten Darstellung von vagen Größen in Form von Zugehörigkeitsfunktionen. Durch den Einsatz von Regelbasen wird ein Expertenwissen repräsentiert, das die Analysemethode nach außen hin vereinfacht und somit zu einer effizienteren Nutzenbetrachtung führt. Die Auswahl und Initiierung von innovativen IT-Projekten wird durch ein Vorgehensmodell gestützt, das bei der fundamentalen Fragestellung nach Schwachstellen und Verbesserungspotentialen im Unternehmen ansetzt. Für diese Analyse wird auf die Erfolgsfaktorenanalyse zurückgegriffen, die durch individuelle Faktoren angepasst wird. Aus den analysierten Schwachstellen werden innovative IT-Projekte abgeleitet und definiert. Die Aufstellung der Nutzenkriterien erfolgt aus einem allgemeinen Nutzenkatalog, der mit den analysierten Erfolgsfaktoren korrespondiert. Die konkrete Bewertung der Projekte erfolgt durch die fuzzybasierte Nutzenbewertung und liefert prägnante Empfehlungen zu den einzelnen Projekten. Die Integration des Vorgehensmodells in das IT-Controlling erfordert eine automatisierte Form, die aufgrund der UML Notation generiert werden kann. Die prototypische Umsetzung und Verwendung der unscharfen Nutzenanalyse haben gezeigt, dass die Methodik für den praktischen Einsatz tauglich ist.
48

Monitoring of large-scale Cluster Computers

Worm, Stefan 13 April 2007 (has links) (PDF)
The constant monitoring of a computer is one of the essentials to be up-to-date about its state. This may seem trivial if one is sitting right in front of it but when monitoring a computer from a certain distance it is not as simple anymore. It gets even more difficult if a large number of computers need to be monitored. Because the process of monitoring always causes some load on the network and the monitored computer itself, it is important to keep these influences as low as possible. Especially for a high-performance cluster that was built from a lot of computers, it is necessary that the monitoring approach works as efficiently as possible and does not influence the actual operations of the supercomputer. Thus, the main goals of this work were, first of all, analyses to ensure the scalability of the monitoring solution for a large computer cluster as well as to prove the functionality of it in practise. To achieve this, a classification of monitoring activities in terms of the overall operation of a large computer system was accomplished first. Thereafter, methods and solutions were presented which are suitable for a general scenario to execute the process of monitoring as efficient and scalable as possible. During the course of this work, conclusions from the operation of an existing cluster for the operation of a new, more powerful system were drawn to ensure its functionality as good as possible. Consequently, a selection of applications from an existing pool of solutions was made to find one that is most suitable for the monitoring of the new cluster. The selection took place considering the special situation of the system like the usage of InfiniBand as the network interconnect. Further on, an additional software was developed which can read and process the different status information of the InfiniBand ports, unaffected by the vendor of the hardware. This functionality, which so far had not been available in free monitoring applications, was exemplarily realised for the chosen monitoring software. Finally, the influence of monitoring activities on the actual tasks of the cluster was of interest. To examine the influence on the CPU and the network, the self-developed plugin as well as a selection of typical monitoring values were used exemplarily. It could be proven that no impact on the productive application for typical monitoring intervals can be expected and only for atypically short intervals a minor influence could be determined. / Die ständige Überwachung eines Computers gehört zu den essentiellen Dingen, die zu tun sind um immer auf dem Laufenden zu sein, wie der aktuelle Zustand des Rechners ist. Dies ist trivial, wenn man direkt davor sitzt, aber wenn man einen Computer aus der Ferne beobachten soll ist dies schon nicht mehr so einfach möglich. Schwieriger wird es dann, wenn es eine große Anzahl an Rechnern zu überwachen gilt. Da der Vorgang der Überwachung auch immer etwas Netzwerklast und Last auf dem zu überwachenden Rechner selber verursacht, ist es wichtig diese Einflüsse so gering wie möglich zu halten. Gerade dann, wenn man viele Computer zu einem leistungsfähigen Cluster zusammen geschalten hat ist es notwendig, dass diese Überwachungslösung möglichst effizient funktioniert und die eigentliche Arbeit des Supercomputers nicht stört. Die Hauptziele dieser Arbeit sind deshalb Analysen zur Sicherstellung der Skalierbarkeit der Überwachungslösung für einen großen Computer Cluster, sowie der praktische Nachweis der Funktionalität dieser. Dazu wurde zuerst eine Einordnung des Monitorings in den Gesamtbetrieb eines großen Computersystems vorgenommen. Danach wurden Methoden und Lösungen aufgezeigt, welche in einem allgemeinen Szenario geeignet sind, um den ganzheitlichen Vorgang der Überwachung möglichst effizient und skalierbar durchzuführen. Im weiteren Verlauf wurde darauf eingegangen welche Lehren aus dem Betrieb eines vorhandenen Clusters für den Betrieb eines neuen, leistungsfähigeren Systems gezogen werden können um dessen Funktion möglichst gut gewährleisten zu können. Darauf aufbauend wurde eine Auswahl getroffen, welche Anwendung aus einer Menge existierende Lösungen heraus, zur Überwachung des neuen Clusters besonders geeignet ist. Dies fand unter Berücksichtigung der spezielle Situation, zum Beispiel der Verwendung von InfiniBand als Verbindungsnetzwerk, statt. Im Zuge dessen wurde eine zusätzliche Software entwickelt, welche die verschiedensten Statusinformationen der InfiniBand Anschlüsse auslesen und verarbeiten kann, unabhängig vom Hersteller der Hardware. Diese Funktionalität, welche im Bereich der freien Überwachungsanwendungen bisher ansonsten noch nicht verfügbar war, wurde beispielhaft für die gewählte Monitoring Software umgesetzt. Letztlich war der Einfluss der Überwachungsaktivitäten auf die eigentlichen Anwendungen des Clusters von Interesse. Dazu wurden exemplarisch das selbst entwickelte Plugin sowie eine Auswahl an typischen Überwachungswerten benutzt, um den Einfluss auf die CPU und das Netzwerk zu untersuchen. Dabei wurde gezeigt, dass für typische Überwachungsintervalle keine Einschränkungen der eigentlichen Anwendung zu erwarten sind und dass überhaupt nur für untypisch kurze Intervalle ein geringer Einfluss festzustellen war.
49

Monitoring of large-scale Cluster Computers

Worm, Stefan 12 February 2007 (has links)
The constant monitoring of a computer is one of the essentials to be up-to-date about its state. This may seem trivial if one is sitting right in front of it but when monitoring a computer from a certain distance it is not as simple anymore. It gets even more difficult if a large number of computers need to be monitored. Because the process of monitoring always causes some load on the network and the monitored computer itself, it is important to keep these influences as low as possible. Especially for a high-performance cluster that was built from a lot of computers, it is necessary that the monitoring approach works as efficiently as possible and does not influence the actual operations of the supercomputer. Thus, the main goals of this work were, first of all, analyses to ensure the scalability of the monitoring solution for a large computer cluster as well as to prove the functionality of it in practise. To achieve this, a classification of monitoring activities in terms of the overall operation of a large computer system was accomplished first. Thereafter, methods and solutions were presented which are suitable for a general scenario to execute the process of monitoring as efficient and scalable as possible. During the course of this work, conclusions from the operation of an existing cluster for the operation of a new, more powerful system were drawn to ensure its functionality as good as possible. Consequently, a selection of applications from an existing pool of solutions was made to find one that is most suitable for the monitoring of the new cluster. The selection took place considering the special situation of the system like the usage of InfiniBand as the network interconnect. Further on, an additional software was developed which can read and process the different status information of the InfiniBand ports, unaffected by the vendor of the hardware. This functionality, which so far had not been available in free monitoring applications, was exemplarily realised for the chosen monitoring software. Finally, the influence of monitoring activities on the actual tasks of the cluster was of interest. To examine the influence on the CPU and the network, the self-developed plugin as well as a selection of typical monitoring values were used exemplarily. It could be proven that no impact on the productive application for typical monitoring intervals can be expected and only for atypically short intervals a minor influence could be determined. / Die ständige Überwachung eines Computers gehört zu den essentiellen Dingen, die zu tun sind um immer auf dem Laufenden zu sein, wie der aktuelle Zustand des Rechners ist. Dies ist trivial, wenn man direkt davor sitzt, aber wenn man einen Computer aus der Ferne beobachten soll ist dies schon nicht mehr so einfach möglich. Schwieriger wird es dann, wenn es eine große Anzahl an Rechnern zu überwachen gilt. Da der Vorgang der Überwachung auch immer etwas Netzwerklast und Last auf dem zu überwachenden Rechner selber verursacht, ist es wichtig diese Einflüsse so gering wie möglich zu halten. Gerade dann, wenn man viele Computer zu einem leistungsfähigen Cluster zusammen geschalten hat ist es notwendig, dass diese Überwachungslösung möglichst effizient funktioniert und die eigentliche Arbeit des Supercomputers nicht stört. Die Hauptziele dieser Arbeit sind deshalb Analysen zur Sicherstellung der Skalierbarkeit der Überwachungslösung für einen großen Computer Cluster, sowie der praktische Nachweis der Funktionalität dieser. Dazu wurde zuerst eine Einordnung des Monitorings in den Gesamtbetrieb eines großen Computersystems vorgenommen. Danach wurden Methoden und Lösungen aufgezeigt, welche in einem allgemeinen Szenario geeignet sind, um den ganzheitlichen Vorgang der Überwachung möglichst effizient und skalierbar durchzuführen. Im weiteren Verlauf wurde darauf eingegangen welche Lehren aus dem Betrieb eines vorhandenen Clusters für den Betrieb eines neuen, leistungsfähigeren Systems gezogen werden können um dessen Funktion möglichst gut gewährleisten zu können. Darauf aufbauend wurde eine Auswahl getroffen, welche Anwendung aus einer Menge existierende Lösungen heraus, zur Überwachung des neuen Clusters besonders geeignet ist. Dies fand unter Berücksichtigung der spezielle Situation, zum Beispiel der Verwendung von InfiniBand als Verbindungsnetzwerk, statt. Im Zuge dessen wurde eine zusätzliche Software entwickelt, welche die verschiedensten Statusinformationen der InfiniBand Anschlüsse auslesen und verarbeiten kann, unabhängig vom Hersteller der Hardware. Diese Funktionalität, welche im Bereich der freien Überwachungsanwendungen bisher ansonsten noch nicht verfügbar war, wurde beispielhaft für die gewählte Monitoring Software umgesetzt. Letztlich war der Einfluss der Überwachungsaktivitäten auf die eigentlichen Anwendungen des Clusters von Interesse. Dazu wurden exemplarisch das selbst entwickelte Plugin sowie eine Auswahl an typischen Überwachungswerten benutzt, um den Einfluss auf die CPU und das Netzwerk zu untersuchen. Dabei wurde gezeigt, dass für typische Überwachungsintervalle keine Einschränkungen der eigentlichen Anwendung zu erwarten sind und dass überhaupt nur für untypisch kurze Intervalle ein geringer Einfluss festzustellen war.

Page generated in 0.1491 seconds