• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 86
  • 30
  • 2
  • 2
  • 1
  • Tagged with
  • 223
  • 147
  • 92
  • 89
  • 88
  • 88
  • 55
  • 35
  • 22
  • 21
  • 21
  • 19
  • 18
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Functional relevance of naturally occurring mutations in adhesion G protein-coupled receptor ADGRD1 (GPR133)

Fischer, Liane, Wilde, Caroline, Schöneberg, Torsten, Liebscher, Ines January 2016 (has links)
Background: A large number of human inherited and acquired diseases and phenotypes are caused by mutations in G protein-coupled receptors (GPCR). Genome-wide association studies (GWAS) have shown that variations in the ADGRD1 (GPR133) locus are linked with differences in metabolism, human height and heart frequency. ADGRD1 is a Gs protein-coupled receptor belonging to the class of adhesion GPCRs. Results: Analysis of more than 1000 sequenced human genomes revealed approximately 9000 single nucleotide polymorphisms (SNPs) in the human ADGRD1 as listed in public data bases. Approximately 2.4 % of these SNPs are located in exons resulting in 129 non-synonymous SNPs (nsSNPs) at 119 positions of ADGRD1. However, the functional relevance of those variants is unknown. In-depth characterization of these amino acid changes revealed several nsSNPs (A448D, Q600stop, C632fs [frame shift], A761E, N795K) causing full or partial loss of receptor function, while one nsSNP (F383S) significantly increased basal activity of ADGRD1. Conclusion: Our results show that a broad spectrum of functionally relevant ADGRD1 variants is present in the human population which may cause clinically relevant phenotypes, while being compatible with life when heterozygous.
182

PROGRESS – prospective observational study on hospitalized community acquired pneumonia

Ahnert, Peter, Creutz, Petra, Scholz, Markus, Schütte, Hartwig, Engel, Christoph, Hossain, Hamid, Chakraborty, Trinad, Bauer, Michael, Kiehntopf, Michael, Völker, Uwe, Hammerschmidt, Sven, Löffler, Markus, Suttorp, Norbert January 2016 (has links)
Background: Community acquired pneumonia (CAP) is a high incidence disease resulting in about 260,000 hospital admissions per year in Germany, more than myocardial infarction or stroke. Worldwide, CAP is the most frequent infectious disease with high lethality ranging from 1.2 % in those 20–29 years old to over 10 % in patients older than 70 years, even in industrial nations. CAP poses numerous medical challenges, which the PROGRESS (Pneumonia Research Network on Genetic Resistance and Susceptibility for the Evolution of Severe Sepsis) network aims to tackle: Operationalization of disease severity throughout the course of disease, outcome prediction for hospitalized patients and prediction of transitions from uncomplicated CAP to severe CAP, and finally, to CAP with sepsis and organ failure as a life-threatening condition. It is a major aim of PROGRESS to understand and predict patient heterogeneity regarding outcome in the hospital and to develop novel treatment concepts. Methods: PROGRESS was designed as a clinical, observational, multi-center study of patients with CAP requiring hospitalization. More than 1600 patients selected for low burden of co-morbidities have been enrolled, aiming at a total of 3000. Course of disease, along with therapy, was closely monitored by daily assessments and long-term follow-up. Daily blood samples allow in depth molecular-genetic characterization of patients. We established a well-organized workflow for sample logistics and a comprehensive data management system to collect and manage data from more than 50 study centers in Germany and Austria. Samples are stored in a central biobank and clinical data are stored in a central data base which also integrates all data from molecular assessments. Discussion: With the PROGRESS study, we established a comprehensive data base of high quality clinical and molecular data allowing investigation of pressing research questions regarding CAP. In-depth molecular characterization will contribute to the discovery of disease mechanisms and establishment of diagnostic and predictive biomarkers. A strength of PROGRESS is the focus on younger patients with low burden of co-morbidities, allowing a more direct look at host biology with less confounding. As a resulting limitation, insights from PROGRESS will require validation in representative patient cohorts to assess clinical utility. Trial registration: The PROGRESS study was retrospectively registered on May 24th, 2016 with ClinicalTrials.gov: NCT02782013
183

Mitteilungen des URZ 1/2002

Riedel 27 February 2002 (has links)
Inhalt: Jahresrückblick 2001 Der Computer und das Euro-Zeichen Software-News 4. Chemnitzer Linux-Tag - Vortragsprogramm
184

Zur Technologisierung der sächsischen Archivlandschaft

Eibl, Maximilian, Luther, Stephan, Schuhman, Sören 02 December 2009 (has links)
Die Studie beschreibt die Ergebnisse einer Umfrage unter sächsischen Archiven zum Technisierungsgrad aus dem Jahr 2008.
185

Jahresbericht der Universitätsbibliothek Chemnitz

16 March 2011 (has links)
Die Universitätsbibliothek berichtet jährlich über die geleisteten Aufgaben als zentrale wissenschaftliche Einrichtung der Technischen Universität Chemnitz und Teil des Bibliothekssystems des Freistaates Sachsen. Darin enthalten sind z.B. Informationen aus den Bereichen Nutzerservice, Medienbearbeitung und Pateninformationszentrum.
186

Generation and Implementation of Virtual Landscapes for an Augmented Reality HMI-Laboratory

Milius, Jeannette 11 February 2014 (has links)
Three dimensional visualisation achieves tremendous savings in time and costs during the design process. Due to these circumstances this methods are gaining in importance. For example improvement in performance and the product security or enabling the operative optimization of a production sequence. By the virtual testing it is possible to validate a product in the whole developing process and product lifecycle. The flight simulator ATILa at Airbus Defence and Space in Friedrichshafen uses these advantages for own products. ATILa is used to test intelligent assistance systems for helicopter pilots. Here the graphic implementation of the virtual earth plays a key role when practicing realistical scenarios. This approach is implemented with the Common Database (CDB) which is enabled by the definition of specifications and standards. Different commercial software packages by Presagis are used to implement the aforementioned database. The software Terra Vista is used for the database generation, including the compilation. For the CDB implementation the software Vega Prime is used to prepare the data with the help of the RTP. The software Vega Prime is not able to display 3D models with LODs, due to a software error. Therefore a third software named Creator is used to modify them. The 3D models are available in the OpenFlight Format. This OpenFlight format consists of different kind of nodes with a complex hierarchical structure. Other software solutions, such as Autodesk or Blender, are not able to provide access to the specific structure. The edited models can be integrated in the virtual environment and have to defined by unambiguous indices. Various settings are used to implement the objects automatically. The compilation of the area of interest takes place by the definition of a geotile with a specific size depending on the latitude. The CDB ouput will be transferred by Vega Prime and with the help of the RTP into the simulator. In addition, there is the possibility to render various CDB databases in the simulator to enable a visualisation of the complete earth. Finally, any errors occurring will be described and methods of resolution explained. The complexity of the generation process of a CDB database could be represented with this thesis. However, the whole workflow of the visualisation of the earth is still in its initial stages, since among other things there are errors in the software. To sum up; the potential of the CDB can be evaluated as above average. / Die 3D Visualisierung vereinfacht den Planungsprozess und geht somit mit einer Zeit- und Kosten- einsparung einher. Aufgrund dieser Sachverhalte gewinnt sie immer weiter an Bedeutung, um zum Beispiel eine verbesserte und sichere Benutzung eines Produktes oder einen optimierten Betrieb einer Produktionskette zu ermöglichen. Durch vorherige virtuelle Erprobung und Vali- dierung eines Produktes können Kosten für den gesamten Entwicklungsprozess und den Pro- duktlebenszyklus gering gehalten werden. Im Flugsimulator für Helikopter namens ATILa in Friedrichshafen (Airbus Defence and Space) versucht man die genannten Vorteile für die eigenen Produkte zu nutzen. Im ATILa werden Assistenzsysteme geprüft, welche die Helikopterpiloten während ihres Fluges unterstützen sollen. Hierbei spielt die grafische Umsetzung der virtuellen Erde in dem Simulator eine entscheidende Rolle, um die Szenarien realitätsnah durchführen zu können. Dies kann mit Hilfe einer sogenannten Common Database (CDB), die durch Spezi- fikationen und Standards definiert ist, umgesetzt werden. Mittels verschiedener kommerzieller Softwarepakete der Firma Presagis lässt sich die oben genannte Datenbank erstellen. Die Gener- ierung und Kompilierung wird mit dem Softwareprogramm Terra Vista vorgenommen. Die Imple- mentierung der CDB in den Flugsimulator erfolgt mit der Software Vega Prime, welche die Daten über einen RTP zur Verfügung stellt. Da dieses Programm durch einen Softwarefehler nicht in der Lage ist, 3D Modelle mit verschiedenen Detaillierungsgraden darzustellen, muss eine dritte Soft- ware namens Creator genutzt werden. Die 3D Modelle liegen im OpenFlight Format vor. Dieses OpenFlight Format weist eine komplexe hierarchische Struktur aus verschiedenen Knoten auf. Andere Softwarelösungen, wie Autodesk oder Blender, sind nicht in der Lage einen Einblick in die spezielle Struktur zu geben. Die bearbeiteten Modelle können dann in der virtuellen Umgebung eingebunden und müssen durch eindeutige Indizes definiert werden. Verschiedene Einstellun- gen werden genutzt, um Objekte automatisch einzubinden. Die Kompilierung des Interessenge- bietes erfolgt über die Definition einer Geokachel mit einer bestimmten Größe, die abhängig vom Breitengrad ist. Die ausgegebene CDB wird mit Vega Prime und mit Hilfe des RTPs in den Simu- lator übertragen. Des Weiteren gibt es die Möglichkeit verschiedene CDB Datenbanken im Sim- ulator simultan zu rendern, was eine vollständige Visualisierung der kompletten Erde ermöglicht. Abschließend werden aufgetretene Fehler näher beschrieben und Lösungsansätze erläutert. Mit der vorliegenden Arbeit konnte die Komplexität der Entstehung einer CDB Datenbank dargestellt werden. Dennoch befindet sich der gesamte Arbeitsablauf der Visualisierung der Erde noch am Anfang, da u.a. Softwarefehler zu bemängeln sind. Zusammenfassend kann das Potenzial einer CDB als überdurchschnittlich bewertet werden.
187

VU-Grid – Integrationsplattform für Virtuelle Unternehmen

Neumann, Detlef, Teichmann, Gunter, Wehner, Frank, Engelien, Martin January 2005 (has links)
Das Projekt „Collaboration-Grid für Virtuelle Unternehmen“ (VU-Grid) ist ein Forschungsverbundprojekt, an dem die Fakultät Informatik der Technischen Universität Dresden sowie der mittelständische IT-Dienstleister SALT Solutions GmbH beteiligt sind. Das Vorhaben wird von der Sächsischen Aufbaubank gefördert. Ziel des Forschungsvorhabens ist die prototypische Entwicklung einer Integrationsplattform (Collaboration-Grid) für die Unterstützung der veränderlichen, unternehmensübergreifenden Geschäftsprozesse im Umfeld eines IT-Dienstleisters am Beispiel der SALT Solutions GmbH. Theoretische Basis der Realisierung ist dabei das Konzept des Virtuellen Informationssystems, das im Rahmen des Dissertationsvorhabens von D. Neumann erarbeitet wurde.
188

Herausforderungen ökologisch-ökonomischer Leistungsmessung – Literaturanalyse und Praxistest im Bereich Holz- und Brückenbau

Gnauck, Carsten 29 September 2011 (has links)
Die vorliegende Ausgabe beschäftigt sich mit den Herausforderungen der ökologischen Leistungsmessung durch das Instrument der Ökobilanz. Der Fokus wird insbesondere auf Unsicherheiten gelegt. In einer einführenden Betrachtung werden Problemfelder von Ökobilanzstudien erläutert, die in den verschiedenen Phasen der Ökobilanz auftreten. Die weiteren Ausführungen konzentrieren sich auf den Bereich der Unsicherheiten. Nach einer Definition werden die Auswirkungen der Probleme systematisiert und anschließend praktische Möglichkeiten zum Umgang mit diesen erarbeitet. Eine besondere Rolle spielen dabei Datenunsicherheiten, da Ökobilanzstudien als sehr datenintensive Verfahren der Lebenszyklusanalyse bekannt sind. Insgesamt 17 Forschungsfragen, die sich aus den theoretischen Betrachtungen ableiten, wurden anhand einer Literaturstichprobe überprüft. Diese Literaturstichprobe wurde mit dem Verfahren der computergestützten Inhaltsanalyse auf die Forschungsfragen hin untersucht, bei der insgesamt 2.000 Textstellen kodiert worden sind. Bei dieser Analyse werden zunächst allgemeine, definitorische Grundcharakteristika wie die Definition der funktionellen Einheit oder die Angabe des Allokationsverfahrens überprüft. Die tiefergreifende Untersuchung der Studien betrachtet vor allem das generelle Erkennen von Unsicherheiten im Verlauf einer Ökobilanzstudie und den Einsatz von Verfahren, um den Einfluss der Unsicherheiten auf das Ökobilanzergebnis zu verdeutlichen. Dabei stellt sich heraus, dass in weniger als 50 Prozent der Studien eine Aussage kodierbar war, die auf das Erkennen der Unsicherheiten schließen lässt. Dennoch wurden in 37 Prozent der analysierten Studien Verfahren eingesetzt, die in der Lage sind, den Einfluss von Unsicherheiten auf die Ökobilanzergebnisse zu verdeutlichen und somit den Entscheider vor Fehlentscheidungen zu bewahren.
189

Normal forms for multidimensional databases

Lehner, Wolfgang, Albrecht, J., Wedekind, H. 02 June 2022 (has links)
In the area of online analytical processing (OLAP), the concept of multidimensional databases is receiving much popularity. Thus, a couple of different multidimensional data models were proposed from the research as well as from the commercial product side, each emphasizing different perspectives. However, very little work has been done investigating guidelines for good schema design within such a multidimensional data model. Based on a logical reconstruction of multidimensional schema design, this paper proposes two multidimensional normal forms. These normal forms define modeling constraints for summary attributes describing the cells within a multidimensional data cube and constraints to model complex dimensional structures appropriately. Multidimensional schemas compliant to these normal forms do not only ensure the validity of analytical computations on the multidimensional database, but also favor an efficient physical database design.
190

Management of multidimensional aggregates for efficient online analytical processing

Lehner, Wolfgang, Albrecht, J., Bauer, A., Deyerling, O., Günzel, H., Hummer, W., Schlesinger, J. 02 June 2022 (has links)
Proper management of multidimensional aggregates is a fundamental prerequisite for efficient OLAP. The experimental OLAP server CUBESTAR whose concepts are described, was designed exactly for that purpose. All logical query processing is based solely on a specific algebra for multidimensional data. However, a relational database system is used for the physical storage of the data. Therefore, in popular terms, CUBESTAR can be classified as a ROLAP system. In comparison to commercially available systems, CUBESTAR is superior in two aspects. First, the implemented multidimensional data model allows more adequate modeling of hierarchical dimensions, because properties which apply only to certain dimensional elements can be modeled context-sensitively. This fact is reflected by an extended star schema on the relational side. Second, CUBESTAR supports multidimensional query optimization by caching multidimensional aggregates. Since summary tables are not created in advance but as needed, hot spots can be adequately represented. The dynamic and partition-oriented caching method allows cost reductions of up to 60% with space requirements of less than 10% of the size of the fact table.

Page generated in 0.0777 seconds