• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 10
  • 8
  • Tagged with
  • 29
  • 26
  • 16
  • 12
  • 9
  • 9
  • 9
  • 6
  • 6
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Entwicklung einer Methode zur kontinuierlichen Qualitätskontrolle beim Nassgussformverfahren mit automatischen Formanlagen

Malaschkin, Andrej 03 September 2002 (has links)
Im Rahmen der Arbeit wurde die neuartige Messmethode und Messeinrichtung zur Erfassung der von der Formstoffbewegung in dem Messpunkt hervorgerufenen Kräfte vorgeschlagen. Die erarbeiteten Kalibrier- und Berechnungsmethoden lassen es zu, die direkt an der Gießform während der Produktion erfassten Signale in Formdichte- und unterschiedliche Festigkeitswerte umzurechnen. Die erarbeiteten Messeinrichtungen und Berechnungsmethoden wurden sowohl durch die Laborprüfungen als auch durch den direkten Praxiseinsatz geprüft. Während dieser Prüfungen wurde festgestellt, dass die Formqualitätskennzeichen mit ausreichender Genauigkeit festgestellt werden können. Die Auswirkung der veränderlichen Formstoffzusammensetzung auf die zur Berechnung der Formqualitätskennzeichen benötigten Koeffizienten wurde ebenfalls untersucht. Abschließend wurde eine Methode zur Ermittlung „formbezogener“ und „energetischer“ Qualitätsmerkmale der Formanlagen vorgeschlagen. Die Methode lässt den Vergleich der Formmaschinen auf der Basis der erreichten Formqualität und des zum Erreichen dieser Qualität geleisteten Energieaufwandes.
12

Anwendung von intelligenten Technologien in der online-Qualitätskontrolle von Druckprodukten

Flemming, Steven 25 July 2006 (has links) (PDF)
Die vorliegende Arbeit befasst sich mit der Anwendung von intelligenten Technologien in der online-Kontrolle von Druckprodukten. Ausgehend von der Qualität der Druckprodukte und den Möglichkeiten der Kontrolle von Druckqualität direkt im Herstellungsprozess werden Lösungen der Druckbildkontrolle diskutiert. Den Kern der Arbeit bildet die Anwendung intelligenter Technologien, wie Fuzzy Logic oder Neuronale Netze, in der Kontrolle von Druckbildern. Aufgrund der Generalisierungsmöglichkeiten und der Modularität der untersuchten Algorithmen eignen sich die beschriebenen Ansätze zur Implementierung in ein Druckkontrollsystem oder in andere zeitkritische Bildverarbeitungssysteme.
13

Collaborative Tagging - neue Möglichkeiten für die bibliothekarische Sacherschließung

Krätzsch, Christine, Niemann, Christof 12 August 2009 (has links)
Die große Freiheit von Tagging-Systemen, wie sie zunehmend auch von wissenschaftlichen Bibliotheken eingesetzt werden, ist ein ambivalentes Phänomen. Zum einen bietet das „Tagging“ Kundennähe und beachtliches kreatives Potenzial, zum anderen erzeugt es jedoch große Mengen völlig unkontrollierter Meta- Informationen, über deren Qualität noch Unklarheit besteht. Die Universität Mannheim widmet sich in zwei kooperierenden DFG-Projekten dieser Problematik. Im Vortrag wurde die Implementierung eines Tagging-Systems im Online-Katalog sowie die Anwendung einer selbst entwickelten Opensource-Software zur Qualitätskontrolle von Klassifikationen und Tagging-Daten mittels innovativer Visualisierungstechnik und statistischer Methoden vorgestellt.
14

Voraussetzungen für die Quantifizierung in der Emissions-Tomographie

Geworski, Lilli 21 June 2004 (has links)
Die Quantifizierung bei nuklearmedizinischen Untersuchungen bedeutet die Ermittlung der Aktivitätskonzentration im Gewebe und gegebenenfalls in einem weiteren Schritt die Bestimmung parametrischer Größen zur physiologischen Quantifizierung. Unter der Voraussetzung der korrekten Funktion des Gerätes (Qualitätskontrolle, Normalisierung, Kalibrierung) ist für die Quantifizierung die Anwendung folgender Korrekturen notwendig: Totzeit-, Absorptions-, Streustrahlungs- und ggf. Recovery-Korrektur wie auch Korrektur von zufälligen Koinzidenzen. Aus messtechnischer Sicht basiert die Überlegenheit der PET gegenüber der SPECT auf den Vorteilen des Einsatzes des Koinzidenznachweises (elektronische Kollimierung) anstelle der mechanischen Kollimierung in entsprechend konstruierten ringförmigen Systemen, welche sich in überlegenen physikalischen Abbildungseigenschaften niederschlägt. Der primäre Vorteil der elektronischen Kollimierung ist eine bessere und mehr stationäre räumliche Auflösung, gepaart mit einer höheren Meßempfindlichkeit, welche zu statistisch aussagefähigerer Bildqualität führt, und die Möglichkeit einer geradlinigen, aber präzisen Form der Absorptionskorrektur auf der Basis gemessener Transmissionsdaten. Weitere Vorteile sind ein deutlich verringerter Streustrahlungsanteil, welcher in Verbindung mit den vorstehend genannten Eigenschaften zu kontrast- und detailreicheren Bildern führt, sowie eine deutliche Steigerung der Zählratenkapazität, die durch eine Steigerung der Anzahl der voneinander unabhängigen Zählkanäle bei Verwendung der üblichen Blockdetektoren erreicht wird und die es erlaubt, die gesteigerte Ausbeute ohne einen Zwang zur Aktivitätsreduktion in statistische Bildqualität umzusetzen. Die dargestellten Eigenschaften gestatten dann in Verbindung mit gut entwickelten Korrekturverfahren eine Kalibrierung des PET-Systems und damit die quantitative Analyse von in vivo gemessenen Aktivitätskonzentrationen. Berücksichtigt man die Problematik der Absorptions- und Streustrahlungskorrektur bei der SPECT, so ergibt sich als Folgerung, dass bei der Tomographie mit der Gammakamera eine Quantifizierung nicht möglich ist. Aufgrund der Entwicklungen auf dem Gebiet der Rekonstruktions- und Korrekturverfahren kann damit gerechnet werden, dass die Abbildungseigenschaften von SPECT-Systemen verbessert werden, so dass viele Limitationen der SPECT-Technik zumindest abgemildert werden dürften, die Leistung der PET-Geräte aus physikalischen Gründen jedoch nicht erreicht werden kann. / Quantifying in nuclear medicine examinations is equivalent to the determination of local activity concentrations in human tissue and, if appropriate, in an additional step the determination of quantitative physiological parameters. Provided that the instrument is in proper working conditions (quality control, normalization, calibration) quantification requires the application of the following corrections for: dead time, attenuation, scatter and, if applicable, recovery as well as random coincidences. From the physical point of view the superiority of PET over SPECT is based on the advantages offered by coincidence detection (electronic collimation) as compared to mechanical collimation. For ring-type systems of the appropriate design these advantages result in superior imaging quality. The main advantage of the aforementioned electronic collimation is given by a better and more stationary spatial resolution, accompanied by a higher sensitivity resulting in an improved statistical image quality, and an attenuation correction method based on measured transmission data, which is straightforward and accurate. Further advantages are a markedly reduced scatter fraction, leading in combination with the aforementioned properties to images of high contrast and high detail, and a pronounced improvement in count rate performance, caused by an increased number of independent counting channels when using state-of-the-art block detectors. This higher count rate performance allows to transform increased sensitivity without being obliged to reduce administered activity into improved statistical image quality. In conjunction with well established correction methods the physical properties of PET described allow for a calibration of the system and, therefore, for a quantitative analysis of activity concentrations in vivo. Realizing the problems associated with attenuation and scatter correction in gamma camera based tomography leads to the conclusion that quantification in SPECT is not feasible. Taking into account further progress in reconstruction algorithms and correction methods, improvements in SPECT imaging quality may be anticipated thereby diminishing current limitations of the SPECT technique. Nevertheless, by physical arguments the performance of PET cannot be achieved.
15

Impact of pre-imputation SNP-filtering on genotype imputation results

Roshyara, Nab Raj, Kirsten, Holger, Horn, Katrin, Ahnert, Peter, Scholz, Markus 10 September 2014 (has links) (PDF)
Background: Imputation of partially missing or unobserved genotypes is an indispensable tool for SNP data analyses. However, research and understanding of the impact of initial SNP-data quality control on imputation results is still limited. In this paper, we aim to evaluate the effect of different strategies of pre-imputation quality filtering on the performance of the widely used imputation algorithms MaCH and IMPUTE. Results: We considered three scenarios: imputation of partially missing genotypes with usage of an external reference panel, without usage of an external reference panel, as well as imputation of ompletely un-typed SNPs using an external reference panel. We first created various datasets applying different SNP quality filters and masking certain percentages of randomly selected high-quality SNPs. We imputed these SNPs and compared the results between the different filtering scenarios by using established and newly proposed measures of imputation quality. While the established measures assess certainty of imputation results, our newly proposed measures focus on the agreement with true genotypes. These measures showed that pre-imputation SNP-filtering might be detrimental regarding imputation quality. Moreover, the strongest drivers of imputation quality were in general the burden of missingness and the number of SNPs used for imputation. We also found that using a reference panel always improves imputation quality of partially missing genotypes. MaCH performed slightly better than IMPUTE2 in most of our scenarios. Again, these results were more pronounced when using our newly defined measures of imputation quality. Conclusion: Even a moderate filtering has a detrimental effect on the imputation quality. Therefore little or no SNP filtering prior to imputation appears to be the best strategy for imputing small to moderately sized datasets. Our results also showed that for these datasets, MaCH performs slightly better than IMPUTE2 in most scenarios at the cost of increased computing time.
16

Anwendung von intelligenten Technologien in der online-Qualitätskontrolle von Druckprodukten

Flemming, Steven 20 June 2006 (has links)
Die vorliegende Arbeit befasst sich mit der Anwendung von intelligenten Technologien in der online-Kontrolle von Druckprodukten. Ausgehend von der Qualität der Druckprodukte und den Möglichkeiten der Kontrolle von Druckqualität direkt im Herstellungsprozess werden Lösungen der Druckbildkontrolle diskutiert. Den Kern der Arbeit bildet die Anwendung intelligenter Technologien, wie Fuzzy Logic oder Neuronale Netze, in der Kontrolle von Druckbildern. Aufgrund der Generalisierungsmöglichkeiten und der Modularität der untersuchten Algorithmen eignen sich die beschriebenen Ansätze zur Implementierung in ein Druckkontrollsystem oder in andere zeitkritische Bildverarbeitungssysteme.
17

Cardinality estimation using sample views with quality assurance

Larson, Per-Ake, Lehner, Wolfgang, Zhou, Jingren, Zabback, Peter 13 September 2022 (has links)
Accurate cardinality estimation is critically important to high-quality query optimization. It is well known that conventional cardinality estimation based on histograms or similar statistics may produce extremely poor estimates in a variety of situations, for example, queries with complex predicates, correlation among columns, or predicates containing user-defined functions. In this paper, we propose a new, general cardinality estimation technique that combines random sampling and materialized view technology to produce accurate estimates even in these situations. As a major innovation, we exploit feedback information from query execution and process control techniques to assure that estimates remain statistically valid when the underlying data changes. Experimental results based on a prototype implementation in Microsoft SQL Server demonstrate the practicality of the approach and illustrate the dramatic effects improved cardinality estimates may have.
18

Exploiting self-monitoring sample views for cardinality estimation

Larson, Per-Ake, Lehner, Wolfgang, Zhou, Jingren, Zabback, Peter 13 December 2022 (has links)
Good cardinality estimates are critical for generating good execution plans during query optimization. Complex predicates, correlations between columns, and user-defined functions are extremely hard to handle when using the traditional histogram approach. This demo illustrates the use of sample views for cardinality estimations as prototyped in Microsoft SQL Server. We show the creation of sample views, discuss how they are exploited during query optimization, and explain their potential effect on query plans. In addition, we also show our implementation of maintenance policies using statistical quality control techniques based on query feedback.
19

Study of a Particle Based Films Cure Process by High-Frequency Eddy Current Spectroscopy

Patsora, Iryna, Tatarchuk, Dmytro, Heuer, Henning, Hillmann, Susanne 28 March 2017 (has links) (PDF)
Particle-based films are today an important part of various designs and they are implemented in structures as conductive parts, i.e., conductive paste printing in the manufacture of Li-ion batteries, solar cells or resistive paste printing in IC. Recently, particle based films were also implemented in the 3D printing technique, and are particularly important for use in aircraft, wind power, and the automotive industry when incorporated onto the surface of composite structures for protection against damages caused by a lightning strike. A crucial issue for the lightning protection area is to realize films with high homogeneity of electrical resistance where an in-situ noninvasive method has to be elaborated for quality monitoring to avoid undesirable financial and time costs. In this work the drying process of particle based films was investigated by high-frequency eddy current (HFEC) spectroscopy in order to work out an automated in-situ quality monitoring method with a focus on the electrical resistance of the films. Different types of particle based films deposited on dielectric and carbon fiber reinforced plastic substrates were investigated in the present study and results show that the HFEC method offers a good opportunity to monitor the overall drying process of particle based films. Based on that, an algorithm was developed, allowing prediction of the final electrical resistance of the particle based films throughout the drying process, and was successfully implemented in a prototype system based on the EddyCus® HFEC device platform presented in this work. This prototype is the first solution for a portable system allowing HFEC measurement on huge and uneven surfaces.
20

The Saccharomyces cerevisiae HtrA orthologue, Ynm3, is a chaperone-protease that aids survival under heat stress / Das Saccharomyces cerevisiae HtrA Ortholog, Ynm3, ist eine Chaperon-Protease, die für das Überleben unter Hitzestress verantwortlich ist

Padmanabhan, Nirmala 03 November 2008 (has links)
No description available.

Page generated in 0.3263 seconds