• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 277
  • 189
  • 50
  • 48
  • 29
  • 24
  • 19
  • 16
  • 13
  • 11
  • 10
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 779
  • 197
  • 131
  • 118
  • 107
  • 93
  • 91
  • 88
  • 82
  • 81
  • 79
  • 77
  • 76
  • 70
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
751

MONARCH - Publikationsserver der Technischen Universität Chemnitz

Blumtritt, Ute 13 May 2005 (has links)
Der Vortrag wurde auf dem 5. Workshop DissOnline: Abschlussworkshop des DFG-Projektes "Aufbau einer Koordinierungsstelle für elektronische Hochschulschriften" am 25. Februar 2005 gehalten. Der Datentransfer elektronischer Hochschulschriften an die Deutsche Bibliothek (DDB) sowie den Südwestdeutschen Bibliotheksverbund (SWB) ist erläutert. Die Technologie zur Erfassung, Aufbereitung und Datenübermittlung ist für das Meldeinterface DDB und SWB äquivalent. Dabei erfolgt die automatische Vergabe von Persistent Identifiern (URN) für jedes Dokument. Die per Onlineformular vom Autor eingetragenen Metadaten werden zur Abholung und Speicherung auf dem Server der Deutschen Bibliothek in das Format XMetaDiss transformiert und über die OAI Schnittstelle zum Download bereitgestellt. Für die in MONARCH achivierten Dissertationen und Habilitationen ist die Langzeitverfügbarkeit und der persistente Zugriff auf den Volltext gesichert.
752

Arbetssätt vid kartläggning av värdehöjande synergier för ökad kapacitet inom industriell symbios : En fallstudie vid Händeö Eco Industrial Park / A proposed approach for mapping value-adding synergies for increased capacity for industrial symbiosis : A case study at Händelö Eco Industrial Park

Nelzén, Milian, Brunfelt, Julia January 2020 (has links)
Industriers samverkan med varandra och andra sektorer i samhället genom industriell symbios spelar en viktig roll för omställningen till cirkulära kretslopp och en hållbar framtid. Genom att företag, industrier och kommuner verkar tillsammans genom bland annat resurs- och kunskapsutbyten fås en ökad energioch resurseffektivitet med ekonomiska, miljömässiga och sociala vinster. De områden med industriell symbios som finns idag har ofta uppkommit genom spontant utvecklade projekt, på grund av exempelvis lönsamheten i att tillvarata restflöden eller krav på slutna flöden. Att symbiosnätverk inte uppkommer vid fler områden kan bero på bristfällig kommunikation och företags fokus på den egna kärnverksamheten, att de inte ser till det större systemet de är en del av och vilka nyttor som kan fås genom samverkan. Ett första steg i att aktivt utveckla industriell symbios är att kartlägga potentiella synergier inom ett område. Kartläggningssteget är ett av de inom litteraturen mest undersökta stegen av utvecklingsprocessen för industriell symbios. Det innehåller en mängd framtagna dataverktyg som syftar till att matcha verksamheters in- och utflöden. Identifierade dataverktyg missar dock ofta aspekten att involvera och engagera medarbetare samt ytterligare mervärden som utöver möjliga resursutbyten är viktiga för att industriell symbios ska uppkomma och fortsätta verka. Det saknas även ett arbetssätt för hur en kartläggning kan struktureras, där detta examensarbete är ett värdefullt bidrag inom ämnet. Detta examensarbete undersöker hur en kartläggning av befintliga och potentiella värdehöjande synergier kan struktureras. Synergier är exempelvis utbyten av material- och resursflöden, gemensam infrastruktur och kunskapsnätverk. Synergier syftar till att vara värdehöjande i form av att ge ekonomiska fördelar, minskad miljöpåverkan eller stärkta sociala band mellan olika aktörer. En fallstudie genomfördes för att kartlägga synergier vid Händelö Eco Industrial Park i Norrköping. Datainsamlingen för kartläggningen genomfördes externt av rapportförfattarna genom genomgång av dokument, telefonsamtal och möten med medarbetare vid Händelö. En workshop med representanter från sju aktörer genomfördes som intern kartläggning, som ämnar till att samla aktörer och låta dem gemensamt identifiera synergimöjligheter mellan varandra. Genom fallstudien identifierades ett 50-tal olika synergier och ett flertal mervärden vid Händelöområdet. Som en avslutande del i kartläggningen bedömdes identifierade synergiers implementeringspotential. Examensarbetet presenterar ett arbetssätt för hur en kartläggning av befintliga och potentiella värdehöjande synergier inom ett område kan struktureras. Arbetssättet består av fyra steg; identifiering av startgrupp av aktörer, kartläggning av synergier, inkludering av ytterligare aktörer och bedömning av implementeringspotentialen. Diskussion förs gällande hur arbetssättet kan anpassas utifrån kartläggarens och områdets förutsättningar samt vikten av olika mervärden. Genom att formulera ett arbetssätt som utöver identifierade värdehöjande synergier även resulterar i mervärden som stärker den institutionella kapaciteten för industriell symbios, ökar möjligheterna för industriell symbios och mer hållbar hushållning av resurser inom fler områden. I slutsatserna rekommenderas att en kartläggning av synergier bör genomföras både externt och internt. En intern kartläggning, när aktörer samlas och interagerar med varandra, kan utöver synergimöjligheter även resultera i viktiga mervärden som främjar implementering av synergier. Exempel på mervärden är engagemang och ökad kommunikation, vilket stärker den institutionella kapaciteten för industriell symbios och möjliggör långsiktiga industriella samarbeten. För att ta arbetet vidare är kontinuerliga möten iv och att koordinera aktörer viktigt, för att ta tillvara på identifierade synergier och de anställdas engagemang, därmed fortsätta utveckla den industriella symbiosen vid Händelö. / Industries cooperating with each other and other sectors of society through industrial symbiosis which plays an important role for a sustainable development and the conversion to circular economy. Industries, municipalities and organizations collaborating through, among other things, sharing resources and knowledge leads to energy and resource efficiency with economic, environmental and social benefits. Areas with existing industrial symbiosis have often emerged through spontaneously developed projects, due to regulations or the profitability of utilizing residual flows. Why industrial symbiosis network doesn’t emerge in more areas may be due to lack of communication and coordination as well as companies focusing on their core business and not seeking the benefits that collaborations can provide. A first step in developing industrial symbiosis is to find synergetic opportunities within an area. This step contains a variety of data tools for process input–output stream-based matching. These types of data tools, however, often misses the aspect of involving and engaging employees which is important for the process of industrial symbiosis to emerge and proceed. There is also no clear workflow for how identifying synergy opportunities can be done, where this thesis is a valuable contribution within the subject. This master thesis examines how a mapping of existing and potential value-adding synergies can be structured. Synergies include, for example, exchanges of material and resource flows, shared infrastructure and knowledge networks. Synergies aim to added value of economic benefits, reduced environmental impact or strengthened social links between different actors. A case study was conducted to find synergetic opportunities at Händelö Eco Industrial Park in Norrköping. The data collection was carried out externally by the authors through a review of documents and meetings with employees at Händelö. A workshop with representatives from seven actors was held as internal mapping, which aimed to help them to identify mutual synergy opportunities between each other together. The case study identifies about 50 different synergies and several added values in the Händelö area. As a final part of the mapping, the potential for the identified synergies’ feasibility were assessed. This master thesis presents a workflow for a mapping of existing and potential value-adding synergies within an area. The process consists of four steps; identification of actors, mapping of synergies, incorporation of further actors and feasibility assessment. Discussion is conducted on how the workflow can be adapted based on the surveyor and the area of the symbiosis, as well as the importance of various added values. Formulating a workflow that, in addition to identifying value-added synergies increases the opportunities for industrial symbiosis and more sustainable management of resources in further areas. The conclusions include a recommendation that a mapping of synergies should be done both externally and internally. An internal survey, where actors gather and interact with each other, can result in important added values which facilitates the feasibility of identified synergies. Examples of added value are engagement and increased communication, which strengthens the institutional capacity for industrial symbiosis and enables long-term industrial collaborations. In order to continue the development of the Händelö area, recurrent meetings and coordination of actors are important, taking advantage of identified synergies and employee engagement, thus continuing to develop the industrial symbiosis.
753

Utbildningsmaterial ur mjukvarudokumentation / Educational material from software documentation

Högman Ordning, Herman January 2019 (has links)
Utbildning för slutanvändare av IT-system på arbetsplatsen är en dyr och tidskrävande affär. Trots att mycket information om systemen tas fram under utvecklingenav systemet, i form av kravdokument och annan dokumentation, används den informationen sällan i utbildningssyfte. Företaget Multisoft önskadeundersöka hur den dokumentation de tar fram under utvecklingen av skräddarsyddaverksamhetssystem åt olika företag, kallade Softadmin R -system, kananvändas i utbildningssyfte.Syftet med detta examensarbete var att identifiera vilka lärbehov slutanvändareav verksamhetssystem utvecklade av företaget Multisoft har. Baserat på dessa lärbehov undersöktes hur den dokumentation som tas fram under utvecklingenskulle kunna nyttjas i utbildningssyfte. En kvalitativ undersökning med narrativa semistrukturerade intervjuer genomfördes med slutanvändare och projektdeltagare hos sex olika företag som implementeratett Softadmin R -system inom de senaste två åren. Projektdeltagarna hade varit involverade under utvecklingen från kundföretagets sida och slutanvändarnahade inte varit involverade i utvecklingen. Tio intervjuer genomfördes och en tematisk analys utfördes på intervjutranskriptionerna. Framtagna teman tolkades utifrån en kognitivistisk syn på lärande. Resultatet från analys av intervjuerna pekar på att slutanvändare vill kunna lära sig genom att testa sig runt i systemet. Slutanvändare vill lära sig genomatt få information visuellt och inte enbart via text. Ett utbildningsmaterial om ett Softadmin R -system ska inte kräva tidigare kunskap om systemet för attvara tillgängligt. Vidare indikerar resultatet att slutanvändare upplever att systemen har en komplex affärslogik där det är svårt att förstå hur systemet solika processer påverkar varandra. Övergången från ett gammalt system till det nya kan innebära svårigheter i lärandet för slutanvändarna. Avsaknad avstruktur då slutanvändarna lärde sig använda systemet identifierades som ett problem. Ett förslag på struktur för ett utbildningsmaterial har tagits fram. Detta utbildivningsmaterial är tänkt att använda information från den dokumentation som tas fram under utvecklingen av Softadmin R -system. Denna användning av dokumentationen skulle i nuläget behöva göras manuellt med viss anpassning. Förslag på hur det kan automatiseras har presenterats. Funktionella krav på ett system för framtagning och underhåll av den informationsom krävs för det föreslagna utbildningsmaterialet har presenterats. När Softadmin R -system som utbildningsmaterialet berör uppdateras möjliggörsystemet uppdatering av utbildningsmaterialet. Systemet möjliggör även framtagning av utbildningsmaterial anpassat för en viss yrkesroll. / End user training of IT systems at the workplace is an expensive and time consuming ordeal. Despite a lot of information about the systems being produced during development of the system, in the form of requirement documents and other documentation, the information is seldom used for educational purposes. Multisoft wished to explore how the documentation produced during the development of their tailor-made business systems, named Softadmin R systems, can be used for educational purposes.The purpose of this master thesis was to identify what learning-needs end users have in regards to business systems developed by the company Multisoft. Based on these learning-needs an investigation would be placed on how the documentation produced during development could be used for educational purposes. A qualitative study with narrative semi-structured interviews was conducted with end users and project participants at six different companies that had implemented a Softadmin R system at their workplace within the last two years. The project participants had been involved from the customer company’s side during the development whereas the end users had not been involved. Ten interviews were conducted and a the matic analysis was performed on the interview transcripts. Procured themes were then interpreted from a cognitiveperspective on learning. The results indicated that end users want to be able to learn by trying to use the system themselves. End users want to learn by getting information visually and not only via text. A training material for a Softadmin R system should not require prior knowledge about the system to be available to the learner. Furthermore the results indicate that end users feel the systems have a complex business logic where it is difficult to understand how the different processes in the system affect each other. The transition from an old system to a new system can be problematic to the end users’ learning. A lack of structure in the end users’ learning of the system was identified as an issue.
754

Analytical and computational workflow for in-depth analysis of oxidized complex lipids in blood plasma

Criscuolo, Angela, Nepachalovich, Palina, Garcia-del Rio, Diego Fernando, Lange, Mike, Ni, Zhixu, Baroni, Massimo, Cruciani, Gabriele, Goracci, Laura, Blüher, Matthias, Fedorova, Maria 05 March 2024 (has links)
Lipids are a structurally diverse class of biomolecules which can undergo a variety of chemical modifications. Among them, lipid (per)oxidation attracts most of the attention due to its significance in the regulation of inflammation, cell proliferation and death programs. Despite their apparent regulatory significance, the molecular repertoire of oxidized lipids remains largely elusive as accurate annotation of lipid modifications is complicated by their low abundance and often unknown, biological context-dependent structural diversity. Here, we provide a workflowbased on the combination of bioinformatics and LC-MS/MS technologies to support identification and relative quantification of oxidized complex lipids in a modification type- and position-specific manner. The developed methodology is used to identify epilipidomics signatures of lean and obese individualswith and without type 2 diabetes. The characteristic signature of lipid modifications in lean individuals, dominated by the presence of modified octadecanoid acyl chains in phospho- and neutral lipids, is drastically shifted towards lipid peroxidation-driven accumulation of oxidized eicosanoids, suggesting significant alteration of endocrine signalling by oxidized lipids in metabolic disorders.
755

DEVELOPMENTS AND APPLICATIONS IN AMBIENT MASS SPECTROMETRY IMAGING FOR INCREASED SENSITIVITY AND SPECIFICITY

Daniela Mesa Sanchez (14216684) 06 December 2022 (has links)
<p> Mass spectrometry imaging (MSI) is an advanced analytical technique that renders spatially defined images of complex label-free samples. Nanospray desorption electrospray ionization (nano-DESI) MSI is an ambient ionization direct liquid extraction technique in which analytes are extracted by means of a continuous liquid flow between two fused-silica capillaries. The droplet generated between the two capillaries is controlled by a delicate balance of solvent flow, solvent aspiration, capillary angles, and distance from the surface. This technique produces reproducible ion images with up to 10 µm resolution and can be used to identify and quantify multiple analytes on a given surface.  This thesis discusses some of the applications of this technique to biological systems, as well as the work done to develop methodology to further improve this technique’s specificity and sensitivity. Herein, applications that push the limits of the current capabilities of nano-DESI are presented, such as the high-resolution imaging of lipid species in skeletal muscle at the single-fiber level, and the quantification of low-abundance drug metabolites.  The second theme of this thesis, developing new capabilities, introduces ion mobility mass spectrometry imaging. This integrated technique increases the selectivity previously possible with MSI. To support these efforts, the work in this thesis has generated data analysis workflows that not only make these experiments possible but also further endeavor to increase sensitivity and combat instrument limitations on mobility resolution. Finally, this thesis present streamlined workflows for tandem MS experiments and modifications to a recently introduced microfluidic variant of the nano-DESI technique. In all, this thesis showcases the current capabilities of the nano-DESI technique and lays the groundwork for future improvements and capabilities.      </p>
756

Augmented Reality in Lunar Extravehicular Activities: A Comprehensive Evaluation of Industry Readiness, User Experience, and the Work Environment

Vishnuvardhan Selvakumar (17593110) 11 December 2023 (has links)
<p dir="ltr">This research explores the potential of AR for lunar missions via the xEMU spacesuit. A market analysis of commercial off-the-shelf AR devices identifies technological trends and constraints that inform the architectural decisions for AR integration with the xEMU. User evaluations in simulated work environments ensure lunar informatics align with crew needs. Drawing insights from human-in-the-loop testing of COTS AR devices, qualitative test results underscore the importance of display optimization, occlusion management, and environmental considerations for enhancing the AR experience during lunar EVAs. Grounded in a task analysis from JETT3 analog testing, crew workflows and communication dynamics are baselined, underscoring the vital role of communication and collaboration. Integrating AR into the EVA work environment holds the potential to streamline decision-making, improve navigation, and enhance overall efficiency, but may come with unintended operational consequences. The human-centered approach prioritizes crew involvement, ensuring that technology remains a facilitator rather than an encumbering element in lunar exploration. The study's significance lies in advancing AR technology for lunar EVAs, guiding hardware design, and enabling seamless integration into the EVA work environment. AR holds promise in reshaping the human-technology relationship, empowering crew members, maximizing science output, and contributing to the next chapter in lunar exploration.</p>
757

Big Data Workflows: DSL-based Specification and Software Containers for Scalable Execution

Dejene Dessalk, Yared January 2020 (has links)
Big Data workflows are composed of multiple orchestration steps that perform different data analytics tasks. These tasks process heterogeneous data using various computing and storage resources. Due to the diversity of application domains, involved technologies, and complexity of data sets, the design and implementation of Big Data workflows require the collaboration of domain experts and technical experts. However, existing tools are too technical and cannot easily allow domain experts to participate in the process of defining and executing Big Data workflows. Moreover, the majority of existing tools are designed for specific applications such as bioinformatics, computational chemistry, and genomics. They are also based on specific technology stacks that do not provide flexible means of code reuse and maintenance. This thesis presents the design and implementation of a Big Data workflow solution based on the use of a domain-specific language (DSL) for hiding complex technical details, enabling domain experts to participate in the process definition of workflows. The workflow solution uses a combination of software container technologies and message-oriented middleware (MOM) to enable highly scalable workflow execution. The applicability of the solution is demonstrated by implementing a prototype based on a real-world data workflow. As per performed evaluations, the proposed workflow solution was evaluated to provide efficient workflow definition and scalable execution. Furthermore, the results of a set of experiments were presented, comparing the performance of the proposed approach with Argo Workflows, one of the most promising tools in the area of Big Data workflows. / Big Data-arbetsflöden består av flera orkestreringssteg som utför olika dataanalysuppgifter. Dessa uppgifter bearbetar heterogena data med hjälp av olika databehandlings- och lagringsresurser. På grund av stora variationen av tillämpningsområden, den involverade tekniken, och komplexiteten hos datamängderna, kräver utformning och implementering av Big Data-arbetsflöden samarbete mellan domänexperter och tekniska experter. Befintliga verktyg är dock för tekniska och vilket försvårar för domänexperter att delta i processen att definiera och genomföra Big Data-arbetsflöden. Dessutom är majoriteten av befintliga verktyg utformade för specifika tillämpningar, som bioinformatik, beräkningskemi och genomik. Verktygen är också baserade på specifika teknikstackar som inte erbjuder flexibla metoder för att kunna underhålla och återanvända kod. Denna avhandling ämnar att presentera design och implementering av en Big Data-arbetsflödeslösning som utnyttjar ett domänspecifikt språk (DSL) för att dölja komplexa tekniska detaljer, vilket gör det möjligt för domänexperter att delta i processdefinitionen av arbetsflöden. Arbetsflödeslösningen använder en kombination av mjukvaruutrustningsteknik och meddelande-orienterad mellanvara (MOM) för att möjliggöra en mer skalbar körning av arbetsflöden. Tillämpningslösningen demonstreras genom att implementera en prototyp baserad på ett verkligt dataflöde. Efter en granskning av de genomförda testerna modifierades den föreslagna arbetsflödeslösningen för att uppnå en effektiv arbetsflödesdefinition och skalbar körning. Dessutom presenteras resultaten av en uppsättning experiment där man jämför skalbarheten för det föreslagna tillvägagångssättet med Argo Workflows, ett av de mest lovande verktygen inom Big Data-arbetsflöden
758

Clinicians' demands on monitoring support in an Intensive Care Unit : A pilot study, at Capio S:t Görans Hospital / Sjukvårdspersonals krav på övervakningssuport på en intensivvårdsavdelning : Förstudie på Capio S:t Görans Sjukhus

Callerström, Emma January 2017 (has links)
Patients treated at intensive care units (ICUs) are failing in one or several organs and requireappropriate monitoring and treatment in order to maintain a meaningful life. Today clinicians inintensive care units (ICUs) manage a large amount of data generated from monitoring devices.The monitoring parameters can either be noted down manually on a monitoring sheet or, for some parameters, transferred automatically to storage. In both cases the information is stored withthe aim to support clinicians throughout the intensive care and be easily accessible. Patient datamanagement systems (PDMSs) facilitate ICUs to retrieve and integrate data. Before managinga new configuration of patient data system, it is required that the ICU makes careful analysis ofwhat data desired to be registered. This pilot study provides knowledge of how the monitoringis performed in an Intensive Care Unit in an emergency hospital in Stockholm.The aim of this thesis project was to collect data about what the clinicians require and whatequipment they use today for monitoring. Requirement elicitation is a technique to collectrequirements. Methods used to collect data were active observations and qualitative interviews.Patterns have been found about what the assistant nurses, nurses and physicians’ require of systems supporting the clinician’s with monitoring parameters. Assistant nurses would like tobe released from tasks of taking notes manually. They also question the need for atomized datacollection since they are present observing the patient bed-side. Nurses describe a demanding burden of care and no more activities increasing that burden of care is required. Physicians require support in order to see how an intervention leads to a certain result for individual patients.The results also show that there is information about decision support but no easy way to applythem, better than the ones used today. Clinicians state that there is a need to be able to evaluatethe clinical work with the help of monitoring parameters. The results provide knowledge about which areas the clinicians needs are not supported enough by the exciting tools.To conclude results show that depending on what profession and experience the clinicians have the demands on monitoring support di↵ers. Monitoring at the ICU is performed while observing individual patients, parameters from medical devices, results from medical tests and physical examinations. Information from all these sources is considered by the clinicians and is desired to be supported accordingly before clinicians commit to action resulting in certain treatment,diagnosis and/or care. / Patienter som vårdas på intensivvårdsavdelningar har svikt i ett eller flera organ. Övervakning sker av patienterna för att kunna bidra till den vård som behövs för att upprätthålla ett meningsfullt liv. Idag hanterar sjukvårdpersonal en stor mängd data som genereras från övervakningsutrustning och system förknippade med övervakningsutrustning. Övervakningsparameterar kan antecknas förhand på ett övervakningspapper eller direkt sparas i digitalt format. Parameterarna sparas med syfte att vara ett lättillgängligt underlag under hela intensivvårdsprocessen. Patient data management systems (PDMSs) förenklar hämtning och integrering av data på exempelvis intensivvårdsavdelningar. Innan en ny konfiguration av ett patientdatasystem erhålls, är det eftersträvnadsvärt att intensivvårdsavdelningen analyserar vilken datasom skall hanteras. Detta examensarbete bidrog till kunskap om hur övervakning utförs på en intensivvårdsavdelning, på ett akutsjukhus i Stockholm. Målet med detta examensarbete var att insamla data om vad klinikerna behöver och vilken utrustning och system som de använder idag för att utföra övervakning. Behovsframkallning är en teknik som kan användas för att insamla krav. I detta projekt insamlades data genom aktivaobservationer och kvalitativa intervjuer. Mönster har hittats bland undersköterskornas, sjuksköterskornas och läkarnas behov av teknisksupport från system och utrustning som stödjer sjukvårdspersonalen under övervakningen av en patient. Undersköterskor uttrycker ett behov av att bli avlastade från uppgifter så som att manuellt skrivaner vitala parametervärden. De ifrågasätter behovet av automatiserad datahämtning eftersom de ständigt är närvarande bredvid patienten. Sjuksköterskor beskriver en hög vårdtyngd och önskaratt inte bli tillägnade fler aktiviteter som ökar den vårdtyngden. Läkare beskriver ett behov av ökat stöd för hur en interversion leder till resultat för individuella patienter. Resultaten visar attdet finns information om möjliga kliniska beslutsstöd utan givet sätt att applicera dessa, bättre än de sätt som används idag. Sjukvårdspersonalen hävdar att det det finns ett behov av att utvärdera det kliniska arbetet med hjälp av övervakningsparametrar. Resultaten utgör kunskap om vilka områden som sjukvårdpersonalens behov inte har stöd av nuvarnade verktyg. Resultaten visar att beroende på vilken profession och erfarenhet som sjukvårdspersonalen har, är behoven olika. På intensivvårdsavdelningen sker övervakning då enskilda patienter visuellt observeras såväl som övervakningsparametrar från medicintekniska produkter, resultat från medicinska tester och fysiska examinationer. Det finns behov att integrera och presenterainformation från dessa källor givet kunskap om att sjukvårdpersonalen fattar beslut på dessa som resulterar i behandling, diagnostik och/eller vård.
759

Validating Machine and Human Decision-Making in Forensic Fire Debris Analysis

Whitehead, Frances A 01 January 2024 (has links) (PDF)
This work presents a background on the chemical complexity of fire debris analysis, including an ever-present matrix of pyrolysis products as the catalyst that led to the creation of the National Center for Forensic Science's Fire Debris Database. A selection of these 1,000+ casework-relevant ground truth samples was used to create two newly proposed analyst workflows to connect the current method of categorical reporting with evaluative reporting practices reflective of the strength of the evidence. Both workflows use linear sequential unmasking to help mitigate bias, a discrete scoring system for quantification of the analysis, and receiver operating characteristic (ROC) curves to bridge together categorical and probabilistic reporting by indicating the optimum decision threshold the analysts are operating from when they make a decision. Both workflows also allow a machine-learning component to be included in evaluating the evidence and are practical methods for obtaining validated performances for human and machine decisions. The second workflow includes subjective logic, which provides a means of determining the uncertainty inherent to the opinion made by the analyst and the machine learning computational model. ‘Fuzzy categories' and an opinion triangle connect the opinion offered by the analyst given their perceived uncertainty to the ROC curve so a categorical decision can be made. For each workflow, three analysts independently assessed 20 randomly chosen samples from the Fire Debris Database and followed the ASTM E1618-19 standard fire debris analysis method. The resultant area under the ROC curve for each analyst for each workflow was 0.90 or higher, indicating that all were in the very good to excellent range for diagnostic classifiers, as was the machine learning model tested in the second workflow. Recommendations for implementing a performance validation workflow, how repetitive engagement can help the individual analyst and insights on using these for performance validation and training purposes are also included.
760

Generische Verkettung maschineller Ansätze der Bilderkennung durch Wissenstransfer in verteilten Systemen: Am Beispiel der Aufgabengebiete INS und ACTEv der Evaluationskampagne TRECVid

Roschke, Christian 08 November 2021 (has links)
Der technologische Fortschritt im Bereich multimedialer Sensorik und zugehörigen Methoden zur Datenaufzeichnung, Datenhaltung und -verarbeitung führt im Big Data-Umfeld zu immensen Datenbeständen in Mediatheken und Wissensmanagementsystemen. Zugrundliegende State of the Art-Verarbeitungsalgorithmen werden oftmals problemorientiert entwickelt. Aufgrund der enormen Datenmengen lassen sich nur bedingt zuverlässig Rückschlüsse auf Güte und Anwendbarkeit ziehen. So gestaltet sich auch die intellektuelle Erschließung von großen Korpora schwierig, da die Datenmenge für valide Aussagen nahezu vollumfänglich semi-intellektuell zu prüfen wäre, was spezifisches Fachwissen aus der zugrundeliegenden Datendomäne ebenso voraussetzt wie zugehöriges Verständnis für Datenhandling und Klassifikationsprozesse. Ferner gehen damit gesonderte Anforderungen an Hard- und Software einher, welche in der Regel suboptimal skalieren, da diese zumeist auf Multi-Kern-Rechnern entwickelt und ausgeführt werden, ohne dabei eine notwendige Verteilung vorzusehen. Folglich fehlen Mechanismen, um die Übertragbarkeit der Verfahren auf andere Anwendungsdomänen zu gewährleisten. Die vorliegende Arbeit nimmt sich diesen Herausforderungen an und fokussiert auf die Konzeptionierung und Entwicklung einer verteilten holistischen Infrastruktur, die die automatisierte Verarbeitung multimedialer Daten im Sinne der Merkmalsextraktion, Datenfusion und Metadatensuche innerhalb eines homogenen Systems ermöglicht. Der Fokus der vorliegenden Arbeit liegt in der Konzeptionierung und Entwicklung einer verteilten holistischen Infrastruktur, die die automatisierte Verarbeitung multimedialer Daten im Sinne der Merkmalsextraktion, Datenfusion und Metadatensuche innerhalb eines homogenen aber zugleich verteilten Systems ermöglicht. Dabei sind Ansätze aus den Domänen des Maschinellen Lernens, der Verteilten Systeme, des Datenmanagements und der Virtualisierung zielführend miteinander zu verknüpfen, um auf große Datenmengen angewendet, evaluiert und optimiert werden zu können. Diesbezüglich sind insbesondere aktuelle Technologien und Frameworks zur Detektion von Mustern zu analysieren und einer Leistungsbewertung zu unterziehen, so dass ein Kriterienkatalog ableitbar ist. Die so ermittelten Kriterien bilden die Grundlage für eine Anforderungsanalyse und die Konzeptionierung der notwendigen Infrastruktur. Diese Architektur bildet die Grundlage für Experimente im Big Data-Umfeld in kontextspezifischen Anwendungsfällen aus wissenschaftlichen Evaluationskampagnen, wie beispielsweise TRECVid. Hierzu wird die generische Applizierbarkeit in den beiden Aufgabenfeldern Instance Search und Activity in Extended Videos eruiert.:Abbildungsverzeichnis Tabellenverzeichnis 1 Motivation 2 Methoden und Strategien 3 Systemarchitektur 4 Instance Search 5 Activities in Extended Video 6 Zusammenfassung und Ausblick Anhang Literaturverzeichnis / Technological advances in the field of multimedia sensing and related methods for data acquisition, storage, and processing are leading to immense amounts of data in media libraries and knowledge management systems in the Big Data environment. The underlying modern processing algorithms are often developed in a problem-oriented manner. Due to the enormous amounts of data, reliable statements about quality and applicability can only be made to a limited extent. Thus, the intellectual exploitation of large corpora is also difficult, as the data volume would have to be analyzed for valid statements, which requires specific expertise from the underlying data domain as well as a corresponding understanding of data handling and classification processes. In addition, there are separate requirements for hardware and software, which usually scale in a suboptimal manner while being developed and executed on multicore computers without provision for the required distribution. Consequently, there is a lack of mechanisms to ensure the transferability of the methods to other application domains. The focus of this work is the design and development of a distributed holistic infrastructure that enables the automated processing of multimedia data in terms of feature extraction, data fusion, and metadata search within a homogeneous and simultaneously distributed system. In this context, approaches from the areas of machine learning, distributed systems, data management, and virtualization are combined in order to be applicable on to large data sets followed by evaluation and optimization procedures. In particular, current technologies and frameworks for pattern recognition are to be analyzed and subjected to a performance evaluation so that a catalog of criteria can be derived. The criteria identified in this way form the basis for a requirements analysis and the conceptual design of the infrastructure required. This architecture builds the base for experiments in the Big Data environment in context-specific use cases from scientific evaluation campaigns, such as TRECVid. For this purpose, the generic applicability in the two task areas Instance Search and Activity in Extended Videos is elicited.:Abbildungsverzeichnis Tabellenverzeichnis 1 Motivation 2 Methoden und Strategien 3 Systemarchitektur 4 Instance Search 5 Activities in Extended Video 6 Zusammenfassung und Ausblick Anhang Literaturverzeichnis

Page generated in 0.0818 seconds