• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 277
  • 189
  • 50
  • 48
  • 29
  • 24
  • 19
  • 16
  • 13
  • 11
  • 10
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 779
  • 197
  • 131
  • 118
  • 107
  • 93
  • 91
  • 88
  • 82
  • 81
  • 79
  • 77
  • 76
  • 70
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
711

Cloud Based Dynamic Workflow with QOS For Mass Spectrometry Data Analysis

Nagavaram, Ashish 19 December 2011 (has links)
No description available.
712

Evaluation of using knowledge retention practices in a DevOps workflow / Utvärdering av ett DevOps arbetssätt för att minska kunskapsföslust

Jakobsson, Simon, Ivansson, Linnéa January 2023 (has links)
This thesis explores applying DevOps practices to mitigate knowledge loss in project-based environments. In the context of high developer turnover, the study aims to implement a standardised DevOps workflow using automation and knowledge management. The research questions of the thesis are answered by following a method consisting of interviews, requirements gathering, implementation of a DevOps workflow focusing on knowledge management practices and evaluation using a DevOps maturity model. The study finds that explicit knowledge practices, including issue tracking, code reviews, and knowledge repositories, are complemented by developers’ tacit knowledge. Additional practices including testing standards, coding standards, and containerisation also contribute to knowledge retention. Integrating these practices into a DevOps workflow involves automation, tool integration, and continuous workflow through a CI/CD pipeline. The research evaluates the organisation’s initial maturity level at level 1 ("Initial") in technology and process areas. However, implementing the proposed DevOps workflow increases the maturity level to level 3 ("Defined"). This, in turn, indicates that knowledge management practices can be integrated into a DevOps workflow to mitigate knowledge loss further.
713

Risk and Vulnerability Analysis Management for Increased Crisis Preparedness and Resilience : A Qualitative Case Study on the Importance of a Systematized Workflow within the Swedish Healthcare / Hantering av risk- och sårbarhetsanalyser för ökad krisberedskap och resiliens

CARLSSON, FANNY, MELANDER, GUSTAV January 2021 (has links)
Risk and vulnerability analysis (RVA) is a widely used method to assess an organization's threat situation. Certain actors are obliged by law to perform the analysis to contribute to a national threat assessment. Among these are actors in the healthcare system. This study aims to understand how a systematized workflow for RVA can increase crisis preparedness and resilience within Swedish healthcare. In this context, a systematized workflow is defined as a systematic and uniform method within a designated digital tool to facilitate the analysis.  To understand how a systematized workflow could increase crisis preparedness and resilience, four semi-structured interviews were held with knowledgeable people within the area from different levels of the national risk and vulnerability chain. Further recurring meetings with people directly involved in such improvemenet work from AFRY were held, along with a review of existing literature. The result shows several challenges regarding RVA-related work; it is time-consuming, complex, resource-intensive, and lacks proper guidance in how it should be done. It shows a need for a better process, both in how they are performed and how the results are analyzed. It is concluded that a systematized workflow for risk and vulnerability analysis could increase crisis preparedness and resilience within Swedish healthcare. Having a designated tool with a set process, clear instructions, definitions, and guidelines would make RVAs easier to conduct and generate better outcomes regarding several aspects. Identifying essential dependencies would be facilitated for actors within the healthcare sector, which forms the basis to sustain those dependencies if a crisis occurs. Further, uniformly structured results would facilitate the analysis of results to make a nationwide risk assessment. In turn, this would probably increase crisis preparedness and resilience within the healthcare sector and several others. / Risk och sårbarhetsanalyser (RSA) är en utbredd metod för att värdera en organisations hotbild. Vissa aktörer är skyldiga enligt lag att genomföra analysen för att bidra till en nationell sammanställning av landets risker, varav skjukhussystemet är en av dessa. Denna studie ämnar att förstå hur ett systematiskt arbetsflöde för RSA kan bidra till ökad krisberedskap och resiliens inom svensk sjukvård. Genom denna rapport definieras ett systematiskt arbetssätt som en systematiserad och enhetlig metod i ett dedikerat digitalt verktyg för att underlätta analysen. För att förstå hur ett systematiserat arbetssätt kan öka krisberedskap och resiliens har fyra semistrukturerade intervjuer hållits med sakkunniga personer inom området. Dessa har varit från olika nivåer inom den nationella risk- och sårbarbetsanalyskedjan. Vidare har återkommande möten genomförts med människor som varit direkt involverade i denna typ av förbättringsarbeten från AFRY, tillika en granskning av befintlig litteratur. Resultaten från studien visar på flera svårigheter rörande RSA-arbete - det är tidskrävande, komplext, resursintensivt, och saknar tydlig vägledning i hur arbetet ska utföras. Dessutom visar resultaten ett behov av bättre arbetsprocesser, både rörande hur analyserna ska genomföras samt hur resultaten ska analyseras. De slutsatser som har kunnat dras är att ett systematiserat arbetssätt för risk- och sårbarhetsanalyser skulle kunna bidra till en ökad krisberedskap och resiliens inom svensk sjukvård. Genom att ha ett dedikerat verktyg med en satt process, tydliga instruktioner, definitioner och riktlinjer hade genomförandet av en RSA underlättats samt gett bättre resultat inom ytterligare områden. Att identifiera kritiska beroenden hade förenklats för aktörer inom sjukvården, vilket formar grunden till att upprätthålla dem vid en kris. Vidare hade enhetligt strukturerade resultat underlättat analysen av resultaten för att göra ett nationell riskbedömning. Detta i sin tur hade trolien lett till ökad krisberedskap och resiliens inte endast inom sjukvården, utan även inom andra sektorer.
714

Design und Management von Experimentier-Workflows

Kühnlenz, Frank 27 November 2014 (has links)
Experimentieren in der vorliegenden Arbeit bedeutet, Experimente auf der Basis von computerbasierten Modellen durchzuführen, wobei diese Modelle Struktur, Verhalten und Umgebung eines Systems abstrahiert beschreiben. Aus verschiedenen Gründen untersucht man stellvertretend für das System ein Modell dieses Systems. Systematisches Experimentieren bei Variation der Modelleingabeparameterbelegung führt in der Regel zu sehr vielen, potentiell lang andauernden Experimenten, die geplant, dokumentiert, automatisiert ausgeführt, überwacht und ausgewertet werden müssen. Häufig besteht dabei das Problem, dass dem Experimentator (der üblicherweise kein Informatiker ist) adäquate Ausdrucksmittel fehlen, um seine Experimentier-Prozesse formal zu beschreiben, so dass sie von einem Computersystem automatisiert ausgeführt werden können. Dabei müssen Verständlichkeit, Nachnutzbarkeit und Reproduzierbarkeit gewahrt werden. Der neue Ansatz besteht darin, generelle Experimentier-Workflow-Konzepte als Spezialisierung von Scientific-Workflows zu identifizieren und diese als eine metamodellbasierte Domain-Specific-Language (DSL) zu formalisieren, die hier als Experimentation-Language (ExpL) bezeichnet wird. ExpL beinhaltet allgemeine Workflow-Konzepte und erlaubt das Modellieren von Experimentier-Workflows auf einer frameworkunabhängigen, konzeptuellen Ebene. Dadurch werden die Nachnutzbarkeit und das Publizieren von Experimentier-Workflows nicht mehr durch die Gebundenheit an ein spezielles Framework behindert. ExpL wird immer in einer konkreten Experimentierdomäne benutzt, die spezifische Anforderungen an Konfigurations- und Auswertemethoden aufweist. Um mit dieser Domänenspezifik umzugehen, wird in dieser Arbeit gezeigt, diese beiden Aspekte separat in zwei weiteren, abhängigen Domain-Specific-Languages (DSLs) zu behandeln: für Konfiguration und Auswertung. / Experimentation in my work means performing experiments based on computer-based models, which describe system structure and behaviour abstractly. Instead of the system itself models of the system will be explored due to several reasons. Systematic experimentation using model input parameter variation assignments leads to lots of possibly long-running experiments that must be planned, documented, automated executed, monitored and evaluated. The problem is, that experimenters (who are usually not computer scientists) miss the proper means of expressions (e. g., to express variations of parameter assignments) to describe experimentation processes formally in a way, that allows their automatic execution by a computer system while preserving reproducibility, re-usability and comprehension. My approach is to identify general experimentation workflow concepts as a specialization of a scientific workflow and formalize them as a meta-model-based domain-specific language (DSL) that I call experimentation language (ExpL). experimentation language (ExpL) includes general workflow concepts like control flow and the composition of activities, and some new declarative language elements. It allows modeling of experimentation workflows on a framework-independent, conceptional level. Hence, re-using and sharing the experimentation workflow with other scientists is not limited to a particular framework anymore. ExpL is always being used in a specific experimentation domain that has certain specifics in configuration and evaluation methods. Addressing this, I propose to separate the concerns and use two other, dependent domain-specific languages (DSLs) additionally for configuration and evaluation.
715

MINESTIS, the route to resource estimates

Wagner, Laurent 03 November 2015 (has links) (PDF)
Minestis software allows geological domain modeling and resource estimation through an efficient and simplified geostatistics-based workflow. It has been designed for all those, geologists, mining engineers or auditors, for whom quick production of quality models is at the heart of their concerns.
716

Evolution von Distanzmaßen für chirurgische Prozesse

Schumann, Sandra 14 May 2014 (has links) (PDF)
Der Operationssaal ist ein hochkomplexes System mit dem Ziel patientenindividuelle Therapien zum Erfolg zu führen. Schwerpunkt dieser Arbeit ist der Arbeitsablauf des Chirurgen. Ein chirurgischer Prozess beinhaltet die durchgeführten Arbeitsschritte des Operateurs während eines Eingriffffs. Der protokollierte chirurgische Prozess ist Ausgangspunkt der Untersuchungen. Es wurde eine Methodik entwickelt, die mit statistischen und standardisierten Verfahren Unterschiede zwischen dem Ablauf verschiedener chirurgischer Prozesse messen kann. Dazu wurden die vier Distanzmaße Jaccard, Levenshtein, Adjazenz und Graphmatching auf chirurgische Prozesse angewandt. Eine Evaluation anhand von Daten einer Trainingsstudie zur Untersuchung laparoskopischer Instrumente in der minimalinvasiven Chirurgie bildet die Grundlage zur Bestimmung von Levenshteindistanz und Adjazenzdistanz als die Maße, die optimal geeignet sind Unterschiede zwischen chirurgen Prozessen zu messen. Die Retrospektivität der Distanzanalyse wird aufgehoben indem folgende Hypothese untersucht wird: Es gibt einen Zusammenhang zwischen der Distanz zur Laufzeit eines chirurgischen Eingriffs mit der Distanz nach kompletten Ablauf des Eingriffs. Die Hypothese konnte bestätigt werden. Der Zusammenhang zwischen Prozessablauf und Qualität des Prozessergebnisses wird mit folgender Hypothese untersucht: Je größer die Distanz eines chirurgischen Prozesses zum Best Practice, desto schlechter ist das Prozessergebnis. In der Chirurgie ist der Best Practice der chirurgische Prozess, der als die beste Prozedur angesehen wird, um das angestrebte Therapieziel zu erreichen. Auch diese Hypothese konnte bestätigt werden. Die Anwendung der Distanzmaße in der klinischen Praxis erfolgte beispielhaft an Eingriffffen aus der Neurochirurgie (zervikale Diskektomie) und der HNO (Neck Dissection). Insgesamt wurde mit der in dieser Arbeit dargelegten grundlegenden Methodik der Distanzmaße bei der Analyse chirurgischer Prozesse ein Grundstein für vielfältige weitere Untersuchungen gelegt.
717

Multiscale modeling and event tracking wireless technologies to improve efficiency and safety of the surgical flow in an OR suite / Modélisation multi-échelle assistée d’un système de détection d’événements : optimisation du fonctionnement et de la sécurité au sein des blocs opératoires

Joerger, Guillaume 16 June 2017 (has links)
Améliorer la gestion et l’organisation des blocs opératoires est une tâche critique dans les hôpitaux modernes, principalement à cause de la diversité et l’urgence des activités impliquées. Contrairement à l’aviation civile, qui a su optimiser organisation et sécurité, le management de bloc opératoire est plus délicat. Le travail ici présenté abouti au développement et à l’installation de nouvelles technologies assistées par ordinateur résolvant les problèmes quotidiens des blocs opératoires. La plupart des systèmes existants modélisent le flux chirurgical et sont utilisés seulement pour planifier. Ils sont basés sur des procédés stochastiques, n’ayant pas accès à des données sûres. Nous proposons une structure utilisant un modèle multi-agent qui comprend tous les éléments indispensables à une gestion efficace et au maintien de la sécurité dans les blocs opératoires, allant des compétences communicationnelles du staff, au temps nécessaire à la mise en place du service de nettoyage. Nous pensons que la multiplicité des ressources humaines engagées dans cette structure cause des difficultés dans les blocs opératoires et doit être prise en compte dans le modèle. En parallèle, nous avons construit un modèle mathématique de flux d’air entre les blocs opératoires pour suivre et simuler la qualité de l’environnement de travail. Trois points sont nécessaires pour la construction et le bon fonctionnement d’un ensemble de bloc opératoire : 1) avoir accès au statut du système en temps réel grâce au placement de capteurs 2) la construction de modèles multi-échelles qui lient tous les éléments impliqués et leurs infrastructures 3) une analyse minutieuse de la population de patients, du comportement des employés et des conditions environnementales. Nous avons développé un système robuste et invisible qui permet le suivi et la détection automatique d’événements dans les blocs. Avec ce système nous pouvons suivre l’activité à la porte d’entrée des blocs, puis l’avancement en temps réel de la chirurgie et enfin l’état général du bloc. Un modèle de simulation numérique de mécanique des fluides de plusieurs blocs opératoires est utilisé pour suivre la dispersion de fumée chirurgicale toxique, ainsi qu’un modèle multi-domaine qui évalue les risques de propagation de maladie nosocomiale entre les blocs. La combinaison de ces trois aspects amène une nouvelle dimension de sensibilisation à l’environnent des blocs opératoires et donne au staff un système cyber-physique capable de prédire des événements rares impactant la qualité, l’efficacité, la rentabilité et la sécurité dans l’hôpital. / Improving operating room management is a constant issue for modern large hospital systems who have to deal with the reality of day to day clinical activity. As opposed to other industrial sectors such as air civil aviation that have mastered the topic of industry organization and safety, progress in surgical flow management has been slower. The goal of the work presented here is to develop and implement technologies that leverage the principles of computational science to the application of OR suite problems. Most of the currently available models of surgical flow are used for planning purposes and are essentially stochastic processes due to uncertainties in the available data. We propose an agent-based model framework that can incorporate all the elements, from communication skills of the staff to the time it takes for the janitorial team to go clean an OR. We believe that human factor is at the center of the difficulty of OR suite management and should be incorporated in the model. In parallel, we use a numerical model of airflow at the OR suite level to monitor and simulate environment conditions inside the OR. We hypothesize that the following three key ingredients will provide the level of accuracy needed to improve OR management : 1) Real time updates of the model with ad hoc sensors of tasks/stages 2) Construction of a multi-scale model that links all key elements of the complex surgical infrastructure 3) Careful analysis of patient population factors, staff behavior, and environment conditions. We have developed a robust and non-obtrusive automatic event tracking system to make our model realistic to clinical conditions. Not only we track traffic through the door and the air quality inside the OR, we can also detect standard events in the surgical process. We propose a computational fluid dynamics model of a part of an OR suite to track dispersion of toxic surgical smoke and build in parallel a multidomain model of potential nosocomial contaminant particles flow in an OR suite. Combining the three models will raise the awareness of the OR suite by bringing to the surgical staff a cyber-physical system capable of prediction of rare events in the workflow and the safety conditions.
718

MINESTIS, the route to resource estimates: Presentation of 3D geomodeling software, held at IAMG 2015 in Freiberg

Wagner, Laurent 03 November 2015 (has links)
Minestis software allows geological domain modeling and resource estimation through an efficient and simplified geostatistics-based workflow. It has been designed for all those, geologists, mining engineers or auditors, for whom quick production of quality models is at the heart of their concerns.
719

Produkce digitálních obrazových dat a jejich kontrola / Digital Images Production and Quality Control

Vychodil, Bedřich January 2013 (has links)
(EN) This dissertation provides a broad understanding of fundamental terminology and an inside view of the digitization workflow and quality control processes. The main foci are on quality assurance during and outside the digitization processes and identification of the most suitable format for access, long term preservation, rendering and reformatting issues. An analysis of selected digitization centers is also included. An application called DIFFER (Determinator of Image File Format propERties) and subsequently The Image Data Validator - DIFFER has been developed using results from previously conducted research. The application utilizes new methods and technologies to help accelerate the whole processing and quality control. The goal was to develop a quality control application for a select group of relevant still image file formats capable of performing identification, characterization, validation and visual/mathematical comparison integrated into an operational digital preservation framework. This application comes with a well-structured graphic user interface, which helps the end user to understand the relationships between various file format properties, detect visual and non visual errors and simplify decision-making. Additional comprehensive annexes, describing the most crucial still image...
720

Evolution von Distanzmaßen für chirurgische Prozesse

Schumann, Sandra 19 March 2014 (has links)
Der Operationssaal ist ein hochkomplexes System mit dem Ziel patientenindividuelle Therapien zum Erfolg zu führen. Schwerpunkt dieser Arbeit ist der Arbeitsablauf des Chirurgen. Ein chirurgischer Prozess beinhaltet die durchgeführten Arbeitsschritte des Operateurs während eines Eingriffffs. Der protokollierte chirurgische Prozess ist Ausgangspunkt der Untersuchungen. Es wurde eine Methodik entwickelt, die mit statistischen und standardisierten Verfahren Unterschiede zwischen dem Ablauf verschiedener chirurgischer Prozesse messen kann. Dazu wurden die vier Distanzmaße Jaccard, Levenshtein, Adjazenz und Graphmatching auf chirurgische Prozesse angewandt. Eine Evaluation anhand von Daten einer Trainingsstudie zur Untersuchung laparoskopischer Instrumente in der minimalinvasiven Chirurgie bildet die Grundlage zur Bestimmung von Levenshteindistanz und Adjazenzdistanz als die Maße, die optimal geeignet sind Unterschiede zwischen chirurgen Prozessen zu messen. Die Retrospektivität der Distanzanalyse wird aufgehoben indem folgende Hypothese untersucht wird: Es gibt einen Zusammenhang zwischen der Distanz zur Laufzeit eines chirurgischen Eingriffs mit der Distanz nach kompletten Ablauf des Eingriffs. Die Hypothese konnte bestätigt werden. Der Zusammenhang zwischen Prozessablauf und Qualität des Prozessergebnisses wird mit folgender Hypothese untersucht: Je größer die Distanz eines chirurgischen Prozesses zum Best Practice, desto schlechter ist das Prozessergebnis. In der Chirurgie ist der Best Practice der chirurgische Prozess, der als die beste Prozedur angesehen wird, um das angestrebte Therapieziel zu erreichen. Auch diese Hypothese konnte bestätigt werden. Die Anwendung der Distanzmaße in der klinischen Praxis erfolgte beispielhaft an Eingriffffen aus der Neurochirurgie (zervikale Diskektomie) und der HNO (Neck Dissection). Insgesamt wurde mit der in dieser Arbeit dargelegten grundlegenden Methodik der Distanzmaße bei der Analyse chirurgischer Prozesse ein Grundstein für vielfältige weitere Untersuchungen gelegt.

Page generated in 0.0319 seconds