Spelling suggestions: "subject:"entscheidungsunterstützungssystem"" "subject:"entscheidungsunterstützungssysteme""
1 |
Situative Entscheidung in Produktionsbetrieben durch integrierte Planung / Integrated Business Planning - Decision-Making in Industry CompaniesHeinrich, Christian January 2013 (has links) (PDF)
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen. / There are many different terms in the field of enterprise software as well as in planning and decision-making in value networks. Technologically-driven issues such as real-time enterprise management, Big Data, Business Intelligence, Corporate Performance Management and the accompanying software are used in various application contexts. In companies, however, the traditional tasks such as business, sales and production planning are carried out purely methodical and functional. An interdepartmental process consideration can not be taken for granted. The combination of technological progress-step connected by standard application software with innovative data storage and information processing methods and organizational structures in globally-acting production companies, are causing an unprecedented increase in complexity. Consequently, the business processes and information systems must converge in the sense of integration to reduce coordination difficulties in cross-divisional working.
Increasing automation within and between operational planning processes and the increase in information sources for future business decisions has a large amount of data as consequence. To use the indisputable added value of proper information on right place at the right time and implement the derived decisions in business, a precise description of the relevant business processes and the specific information is needed. Therefore, the planning and decision-making processes change significantly by the consolidation of modern information technology. For this purpose, an innovative and field-proven approach is developed:
Integrated Planning and Decision-Making (IPD) comprises the standardization of decentralized decision-making involving all relevant information in sales, production and financial planning processes. Base is the central information administration.
The author developed a procedure model for the standardization of integrated planning and decision-making process, which combines all the essential functions and departments of industrial companies. The relevant information is identified and embedded in a holistic IPD framework. This points to the interplay of the general information technology and organizational requirements with the related objectives in the planning and tactical decision-making process. The model solves the planning problem in the application of a multinational company.
Practicioners get an applicable guideline for the implemenation of standardized planning and decision-making processes. The model can be implemeneted also from companies with heterogeneous information systems. In addition, the IPE model can provide a starting point for further development of standard application software in the tactical management area for software companies.
|
2 |
SymptomCheck - ein Programm zur Symptom-orientierten Ableitung eines Diagnosevorschlags / SymptomCheck - a program for the symptom-oriented derivation of a proposal of diagnosisPietrowski, Finn January 2019 (has links) (PDF)
Das Thema dieser Dissertation lautet „SymptomCheck - ein Programm zur Symptom-orientierten Ableitung eines Diagnosevorschlags“. Der Rahmen dieser Dissertation umfasst die ausführliche, eigenständige Konzeption von SymptomCheck, dessen Untersuchung auf Benutzerfreundlichkeit und eine Überprüfung auf allgemeine Validität bezüglich der Verdachtsgenerierung. Hierbei wurde die Entwicklung der Wissensbasis mit dem dafür eigens konzipierten Bewertungsschema entwickelt. Desweiteren wurde eine alltagstaugliche Benutzeroberfläche generiert, die ein breites Personenspektrum adressiert. In einer Pilotstudie I wurde das Programm auf die oben erwähnten Aspekte hin untersucht und dessen Mängel überarbeitet. Die endgültige Version von SymptomCheck wurde sodann sowohl in einer Online-Evaluation wie auch einer weiteren klinischen Anwendung getestet (Pilotstudie II). Während bei der Online-Evaluation der Fokus auf der Untersuchung der Benutzungsqualität lag, wurde in der Pilotstudie II mit stationären Patienten vor allem die Präzision der Verdachtsgenerierung untersucht.
Die vorliegende Arbeit ist demnach vermutlich die erste, die ein selbstentwickeltes Online-Programm im Rahmen einer Online-Evaluation an Probanden und im Rahmen einer klinischen Studie an echten Patienten testete. SymptomCheck ist somit der erste vielversprechende Schritt, ein für den Alltagsgebrauch entwickeltes, breit gefächertes Selbstdiagnoseprogramm klinisch zu validieren. / The topic of this dissertation is "SymptomCheck - a program for the symptom-oriented derivation of a proposal of diagnosis". The scope of this dissertation includes the detailed, self-contained conception of SymptomCheck, its investigation on usability and a review for general validity regarding the generation of suspicion. The development of the knowledge base was developed with a specially designed evaluation scheme. Furthermore, an everyday user interface was generated that addresses a wide range of people. In a pilot study I, the program was examined for the above-mentioned aspects and its shortcomings revised. The final version of SymptomCheck was then tested in an online evaluation and in another clinical setting (Pilot Study II). While the focus of the online evaluation was on the analysis of the usability, the precision of the generation of suspicion was examined in particular with hospitalized patients in pilot study II.
This dissertation is therefore probably the first to test a self-developed online program as part of an online evaluation on volunteers and as part of a clinical study on real patients. SymptomCheck is thus the first promising step to clinically validate a wide-ranging self-diagnostic program developed for everyday use.
|
3 |
Konzeption und Evaluation eines webbasierten Patienteninformationsprogrammes zur Überprüfung internistischer Verdachtsdiagnosen / Conception and evaluation of a web-based patient information program for verification of internal suspected diagnosesAzar, Isabel January 2020 (has links) (PDF)
Das Thema dieser Dissertation lautet „Konzeption und Evaluation eines webbasierten Patienteninformationsprogrammes zur Überprüfung internistischer Verdachtsdiagnosen“. Zusammen mit dem Institut für Informatik wurde das wissensbasierte second-opinion-System SymptomCheck entwickelt. Das Programm dient zur Überprüfung von Verdachtsdiagnosen. Es wurden Wissensbasen erstellt, in denen Symptome, Befunde und Untersuchungen nach einem Bewertungsschema beurteilt werden. Folgend wurde eine online erreichbare Startseite erstellt, auf der Nutzer vornehmlich internistische Verdachtsdiagnosen überprüfen können. Das Programm wurde in zwei Studien bezüglich seiner Sensitivität und Spezifität sowie der Benutzerfreundlichkeit getestet. In der ersten Studie wurden die Verdachtsdiagnosen ambulanter Patienten mit den ärztlich gestellten Diagnosen verglichen, eine zweite an die Allgemeinbevölkerung gerichtete Onlinestudie galt vor allem der Bewertung der Benutzerfreundlichkeit. Soweit bekannt ist dies die erste Studie in der ein selbst entwickeltes Programm selbstständig an echten Patienten getestet wurde. / The topic of this dissertation is "Conception and evaluation of a web-based patient information program for verification of internal suspected diagnoses”. The second opinion system SymptomCheck was developed in cooperation with the Institute of Computer Science. The program is used to verify suspected diagnoses. Knowledge bases were created to evaluate symptoms, medical findings and examination based on an evaluation scheme. Following this an online homepage was built which allows users to verify suspected diagnoses, primarily of internal medicine. The program was tested in two studies regarding its sensitivity and specificity as well as its usability. In the first study the suspected diagnoses were compared to the medical diagnoses of ambulatory patients, a second study was directed to the general population to evaluate its usability. As far as is known this is the first study to independently evaluate a self-developed program on real patients.
|
4 |
Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems / Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten EntscheidungsunterstützungssystemenHerm, Lukas-Valentin January 2023 (has links) (PDF)
Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance.
Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques.
For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario.
From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. / Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen.
Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt.
Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält.
Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei:
Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht.
Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern.
|
5 |
Artificial Intelligence for Human Decision-Makers: Systematization, Perception, and Adoption of Intelligent Decision Support Systems in Industry 4.0 / Künstliche Intelligenz für menschliche Entscheidungsträger: Systematisierung, Wahrnehmung und Akzeptanz von intelligenten Entscheidungsunterstützungssystemen im Kontext der Industrie 4.0Wanner, Jonas Paul January 2022 (has links) (PDF)
Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine’s suggestions and, if necessary, (physically) executes them.
Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system’s suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable.
This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development. / Durch innovative Möglichkeiten der Datenerhebung, Vernetzung und Auswertung werden Potenziale für die Produktion freigesetzt, die bisher ungenutzt sind. Dies bedingt jedoch eine Veränderung der Arbeitsweise. Neben einer erweiterten Automatisierung wird die Mensch-Maschinen-Kooperation wichtiger: Die Maschine erreicht durch Künstliche Intelligenz eine Komplexitätsreduktion für den Menschen. In Sekundenbruchteilen werden Vorschläge aus großen Datenmengen von hoher Entscheidungsqualität geboten, während der Mensch i.d.R. die Entscheidung trifft und diese ggf. (physisch) ausführt.
Beide Instanzen sind stark voneinander abhängig, um eine bestmögliche Aufgabenbewältigung zu erreichen. Es scheint daher insbesondere wichtig zu verstehen, inwiefern eine solche Kooperation effektiv werden kann. Aktuelle Entwicklungen auf dem Gebiet der Künstlichen Intelligenz zeigen, dass die Forschung hierzu insbesondere auf Ansätze Neuronaler Netze fokussiert ist. Diese gelten als hoch leistungsfähig, haben aber den Nachteil einer fehlenden Nachvollziehbarkeit. Ihre inhärenten Berechnungsvorgänge und die jeweilige Ergebnisfindung bleiben für den Menschen undurchsichtig. Einige Forscher gehen davon aus, dass menschliche Nutzer daher die Systemvorschläge ablehnen könnten. Die Forschungsdomäne erklärbare Künstlichen Intelligenz (XAI) nimmt sich der Problemstellung an und versucht Methoden zu entwickeln, um Systeme zu realisieren die hoch-leistungsfähig und erklärbar sind.
Diese Arbeit soll weitere Erkenntnisse für das definierte Ziel der XAI liefern. Dafür werden Artefakte entwickelt, welche Forschungsleistungen hinsichtlich der Systematisierung, Wahrnehmung und Adoption künstlich intelligenter Entscheidungsunterstützungssysteme aus Anwendersicht darstellen. Der Fokus liegt auf sozio-technischen Erkenntnissen. Es soll besser verstanden werden, welche Faktoren für eine effektive Mensch-Maschinen-Kooperation wichtig sind. Die Erarbeitungen repräsentieren überwiegend erweiterte Grundlagenforschung. Damit implizieren die Artefakte eine Erweiterung des Wissens, um darauf aufbauend effektive XAI-Methoden und -Techniken zu entwickeln und/ oder zu erproben. Als Kontext der eigenen Erarbeitung wird die Industrie 4.0 mit Schwerpunkt Instandhaltung genutzt.
|
6 |
Weißeritz-Info - ein internetgestütztes Informations- und Entscheidungsunterstützungssystem für das Flussgebiet der WeißeritzWalz, Ulrich 28 February 2013 (has links) (PDF)
In diesem Beitrag wird das am Leibniz-Institut für ökologische Raumentwicklung eV. (IÖR) entwickelte Informations- und Entscheidungsunterstützungssystem „Weißeritz-Info“ vorgestellt, das der Aufbereitung und Bereitstellung von Informationen zum Hochwasserrisikomanagement für das Einzugsgebiet der Weißeritz dient. Zielgruppen sind sowohl Bürger und Landnutzer als auch Entscheidungsträger in Kommunen, Behörden und Verbänden. Erstellt wurde das WebGIS-basierte System für die Initiative „Weißeritz-Regio“, einem Verbund von 26 Institutionen, die seit Ende 2003 auf informeller Basis zusammenarbeiten, um die Hochwasservorsorge im Flussgebiet zu verbessern.
|
7 |
Ökobilanzen als ControllinginstrumentSchill, Oliver 22 June 2003 (has links) (PDF)
Ziel der Arbeit ist es, ein aus theoretischer Sicht anwendbares Konzept zu Ökobilanzierung für Unternehmen aufzuzeigen und gleichzeitig zu untersuchen, inwieweit eine solche Ökobilanz einen Controllingprozess zur Steuerung von Umwelteinwirkungen unterstützen kann. Dementsprechend lassen sich zwei wesentliche Erkenntnisse dieser Arbeit festhalten: Die derzeit anwendbare Ökobilanz basiert auf einer Sachbilanz, die sich inhaltlich am IÖW-Konzept orientiert, ergänzt um verbindliche Bilanzierungsregeln. Die Bewertungsproblematik wird mit der relativ-abstufenden Bewertung bewältigt. Die praktische Umsetzung beschränkt sich mangels verfügbarer Daten auf die unternehmensbezogene Betrachtung. Diese Ökobilanz ist an sich nur ein informationsversorgendes Instrument, das den gesamten Controllingprozess begleitet. Die Informationen müssen jedoch insbesondere für die Planungs- und Entscheidungsphase durch weitere Controllinginstrumente (Methoden und Modelle) aufbereitet werden, bedingt durch die mangelnde Aggregierbarkeit der qualitativ bewerteten Stoff- und Energieflüsse. Aus den beiden Ergebnissen leiten sich zugleich zwei Forderungen für die zukünftige Entwicklung ab: Zum einen ist die Einführung von Ökobilanzen auch von politischer Seite zu unterstützen, um die Datengrundlage für unternehmensübergreifende Untersuchungen zu verbessern. Hier sind speziell die Interessengruppen der Wirtschaft und die Umweltinitiativen zum gemeinsamen Handeln aufgerufen. Zum anderen ist ein homogener Grenzwertsatz eigens für die Ökobilanzierung zu entwickeln, um quantitative Bewertungsverfahren zur Erleichterung der Entscheidungsfindung im operativen Bereich einsetzen zu können. Dadurch ließe sich auch eine kombinierte Anwendung von quantitativer und qualitativer Bewertung realisieren.
|
8 |
Groundwater vulnerability in Vietnam and innovative solutions for sustainable exploitation / Sự thương tổn nước ngầm ở Việt Nam và giải pháp mới để khai thác bền vữngStefan, Catalin 25 August 2015 (has links) (PDF)
With an abundant average precipitation rate, Vietnam could be considered water-reach country. Unfortunately, the non-uniform spatial and temporal distribution of rainfall, coupled with a demographic and industrial development polarized on the two major river deltas, it makes the water resources extremely vulnerable. As consequence, severe depletions of groundwater table are reported all over the country, often in the range of 1-2 m per year and more. The subsequent land subsidence is just one of the drawbacks, another being the increasing salinity of coastal aquifers as sea water level continues to rise. Under these conditions, the natural groundwater replenishment alone is not anymore able to provide for a safe water supply, different studies indicating that the groundwater exploitation in major urban agglomerations like Hanoi or Ho Chi Minh City already passed the sustainability level. The solution presented in this paper implies making use of engineered methods for enhancing the natural groundwater recharge rates by enabling better percolation rates of surface water into subsurface and thus optimizing the regional water cycle. The method known as ‘managed aquifer recharge’ (MAR) is introduced, together with general guidelines and tools for planning of MAR schemes, such as the newly web-based decision support system INOWAS_DSS. / Với tốc độ lượng mưa trung bình dồi dào, Việt Nam có thể được coi là quốc gia có nguồn nước trong tầm tay. Thật không may, sự phân bố không gian và thời gian không đồng đều của lượng mưa, cùng với sự phát triển dân số và công nghiệp phân cực trên hai vùng châu thổ sông lớn làm cho các nguồn nước rất dễ bị tổn thương. Vì vậy, sự suy giảm nước ngầm nghiêm trọng được báo cáo trên khắp đất nước, thường mỗi năm giảm 1-2 m và nhiều hơn nữa. Hiện tượng sụt lún đất xảy ra sau đó chỉ là một trong những hạn chế, mặt khác là độ mặn ngày càng tăng của các tầng chứa nước ven biển do mực nước biển tiếp tục tăng. Dưới những điều kiện này, việc bổ sung nước ngầm tự nhiên đơn thuần không còn có thể cung ứng cho một nguồn cấp nước sạch an toàn. Các nghiên cứu khác nhau cho thấy rằng việc khai thác nước ngầm tại các đô thị lớn như Hà Nội hay thành phố Hồ Chí Minh đã vượt qua mức độ bền vững. Giải pháp được trình bày trong bài báo này gợi ý việc sử dụng các phương pháp thiết kế để nâng cao tỷ lệ tái nạp nước ngầm tự nhiên bằng cách cho phép tỷ lệ thẩm thấu tốt hơn nước mặt vào dưới bề mặt và do đó tối ưu hóa chu trình nước trong khu vực. Phương pháp được gọi là 'tái nạp nước ngầm có quản lý (MAR) được giới thiệu, cùng với các hướng dẫn chung và các công cụ để lập kế hoạch đề án MAR, ví dụ như hệ thống mớihỗ trợ quyết định dựa trên kết nối mạng INOWAS_DSS.
|
9 |
Ökobilanzen als ControllinginstrumentSchill, Oliver 22 June 2003 (has links)
Ziel der Arbeit ist es, ein aus theoretischer Sicht anwendbares Konzept zu Ökobilanzierung für Unternehmen aufzuzeigen und gleichzeitig zu untersuchen, inwieweit eine solche Ökobilanz einen Controllingprozess zur Steuerung von Umwelteinwirkungen unterstützen kann. Dementsprechend lassen sich zwei wesentliche Erkenntnisse dieser Arbeit festhalten: Die derzeit anwendbare Ökobilanz basiert auf einer Sachbilanz, die sich inhaltlich am IÖW-Konzept orientiert, ergänzt um verbindliche Bilanzierungsregeln. Die Bewertungsproblematik wird mit der relativ-abstufenden Bewertung bewältigt. Die praktische Umsetzung beschränkt sich mangels verfügbarer Daten auf die unternehmensbezogene Betrachtung. Diese Ökobilanz ist an sich nur ein informationsversorgendes Instrument, das den gesamten Controllingprozess begleitet. Die Informationen müssen jedoch insbesondere für die Planungs- und Entscheidungsphase durch weitere Controllinginstrumente (Methoden und Modelle) aufbereitet werden, bedingt durch die mangelnde Aggregierbarkeit der qualitativ bewerteten Stoff- und Energieflüsse. Aus den beiden Ergebnissen leiten sich zugleich zwei Forderungen für die zukünftige Entwicklung ab: Zum einen ist die Einführung von Ökobilanzen auch von politischer Seite zu unterstützen, um die Datengrundlage für unternehmensübergreifende Untersuchungen zu verbessern. Hier sind speziell die Interessengruppen der Wirtschaft und die Umweltinitiativen zum gemeinsamen Handeln aufgerufen. Zum anderen ist ein homogener Grenzwertsatz eigens für die Ökobilanzierung zu entwickeln, um quantitative Bewertungsverfahren zur Erleichterung der Entscheidungsfindung im operativen Bereich einsetzen zu können. Dadurch ließe sich auch eine kombinierte Anwendung von quantitativer und qualitativer Bewertung realisieren.
|
10 |
Advanced Analytics in Operations Management and Information Systems: Methods and Applications / Advanced Analytics im Operations Management und Information Systems: Methoden und AnwendungenStein, Nikolai Werner January 2019 (has links) (PDF)
Die digitale Transformation der Gesellschaft birgt enorme Potenziale für Unternehmen aus allen Sektoren.
Diese verfügen aufgrund neuer Datenquellen, wachsender Rechenleistung und verbesserter Konnektivität über rasant steigende Datenmengen. Um im digitalen Wandel zu bestehen und Wettbewerbsvorteile in Bezug auf Effizienz und Effektivität heben zu können müssen Unternehmen die verfügbaren Daten nutzen und datengetriebene Entscheidungsprozesse etablieren. Dennoch verwendet die Mehrheit der Firmen lediglich Tools aus dem Bereich „descriptive analytics“ und nur ein kleiner Teil der Unternehmen macht bereits heute von den Möglichkeiten der „predictive analytics“ und „prescriptive analytics“ Gebrauch. Ziel dieser Dissertation, die aus vier inhaltlich abgeschlossenen Teilen besteht, ist es, Einsatzmöglichkeiten von „prescriptive analytics“ zu identifizieren.
Da prädiktive Modelle eine wesentliche Voraussetzung für „prescriptive analytics“ sind, thematisieren die ersten beiden Teile dieser Arbeit Verfahren aus dem Bereich „predictive analytics.“ Ausgehend von Verfahren des maschinellen Lernens wird zunächst die Entwicklung eines prädiktiven Modells am Beispiel der Kapazitäts- und Personalplanung bei einem IT-Beratungsunternehmen veranschaulicht. Im Anschluss wird eine Toolbox für Data Science Anwendungen entwickelt. Diese stellt Entscheidungsträgern Richtlinien und bewährte Verfahren für die Modellierung, das Feature Engineering und die Modellinterpretation zur Verfügung. Der Einsatz der Toolbox wird am Beispiel von Daten eines großen deutschen Industrieunternehmens veranschaulicht.
Verbesserten Prognosen, die von leistungsfähigen Vorhersagemodellen bereitgestellt werden, erlauben es Entscheidungsträgern in einigen Situationen bessere Entscheidungen zu treffen und auf diese Weise einen Mehrwert zu generieren. In vielen komplexen Entscheidungssituationen ist die Ableitungen von besseren Politiken aus zur Verfügung stehenden Prognosen jedoch oft nicht trivial und erfordert die Entwicklung neuer Planungsalgorithmen. Aus diesem Grund fokussieren sich die letzten beiden Teile dieser Arbeit auf Verfahren aus dem Bereich „prescriptive analytics“. Hierzu wird zunächst analysiert, wie die Vorhersagen prädiktiver Modelle in präskriptive Politiken zur Lösung eines „Optimal Searcher Path Problem“ übersetzt werden können. Trotz beeindruckender Fortschritte in der Forschung im Bereich künstlicher Intelligenz sind die Vorhersagen prädiktiver Modelle auch heute noch mit einer gewissen Unsicherheit behaftet. Der letzte Teil dieser Arbeit schlägt einen präskriptiven Ansatz vor, der diese Unsicherheit berücksichtigt. Insbesondere wird ein datengetriebenes Verfahren für die Einsatzplanung im Außendienst entwickelt. Dieser Ansatz integriert Vorhersagen bezüglich der Erfolgswahrscheinlichkeiten und die Modellqualität des entsprechenden Vorhersagemodells in ein „Team Orienteering Problem.“ / The digital transformation of business and society presents enormous potentials for companies across all sectors. Fueled by massive advances in data generation, computing power, and connectivity, modern organizations have access to gigantic amounts of data. Companies seek to establish data-driven decision cultures to leverage competitive advantages in terms of efficiency and effectiveness. While most companies focus on descriptive tools such as reporting, dashboards, and advanced visualization, only a small fraction already leverages advanced analytics (i.e., predictive and prescriptive analytics) to foster data-driven decision-making today. Therefore, this thesis set out to investigate potential opportunities to leverage prescriptive analytics in four different independent parts.
As predictive models are an essential prerequisite for prescriptive analytics, the first two parts of this work focus on predictive analytics. Building on state-of-the-art machine learning techniques, we showcase the development of a predictive model in the context of capacity planning and staffing at an IT consulting company. Subsequently, we focus on predictive analytics applications in the manufacturing sector. More specifically, we present a data science toolbox providing guidelines and best practices for modeling, feature engineering, and model interpretation to manufacturing decision-makers. We showcase the application of this toolbox on a large data-set from a German manufacturing company.
Merely using the improved forecasts provided by powerful predictive models enables decision-makers to generate additional business value in some situations. However, many complex tasks require elaborate operational planning procedures. Here, transforming additional information into valuable actions requires new planning algorithms. Therefore, the latter two parts of this thesis focus on prescriptive analytics. To this end, we analyze how prescriptive analytics can be utilized to determine policies for an optimal searcher path problem based on predictive models. While rapid advances in artificial intelligence research boost the predictive power of machine learning models, a model uncertainty remains in most settings. The last part of this work proposes a prescriptive approach that accounts for the fact that predictions are imperfect and that the arising uncertainty needs to be considered. More specifically, it presents a data-driven approach to sales-force scheduling. Based on a large data set, a model to predictive the benefit of additional sales effort is trained. Subsequently, the predictions, as well as the prediction quality, are embedded into the underlying team orienteering problem to determine optimized schedules.
|
Page generated in 0.1554 seconds