Spelling suggestions: "subject:"dates.""
191 |
Thermodynamische Untersuchungen von Phasengleichgewichten in komplexen Systemen mit assoziierenden KomponentenGrenner, Andreas 19 June 2006 (has links)
The knowledge of phase equilibrium is essential for the planning and realisation of separation processes in chemical engineering. In this work an equipment for measurement of precise isothermal vapour–liquid equilibria (VLE) using the dynamic method was developed. The pool of experimental data for cyclohexylamine was extended significantly. Isothermal VLE were measured in 3 binary and 4 ternary systems, liquid-liquid equilibria (LLE) were measured in 4 ternary systems and in one quarternary system, in each case for two temperatures, whereas in 2 ternary systems and in the quarternary system even liquid-liquid-liquid equilibria (LLLE) occur. Furthermore, activity coefficients at infinite dilution in 4 binary systems and excess molar volumes in 7 binary systems have been estimated. Binary VLE and LLE data of the components water, octane, cyclohexylamine and aniline of this work and data from literature were fitted with the activity coefficient models NRTL and UNIQUAC, as well as with the equations of state Elliott-Suresh-Donohue (ESD) and Perturbed-Chain-Statistical Associating Fluid Theory (PC-SAFT) which contain both a term to consider explicit hydrogen bonds. In addition, the predictive capabilities of the equations of state (EoS) were investigated. With parameters obtained by simultaneous fitting of VLE and, if available, LLE data similar results with the models NRTL and UNIQUAC could be obtained. Each time the deviations for the vapour pressure were lower than 3 % and lower than 2 % in vapour phase composition. The deviations, in three out of the six systems for vapour pressure and vapour phase composition, were larger with the ESD-EoS than with the activity coefficient models. NRTL, UNIQUAC and ESD delivered similar results with the simultaneously fitted parameters for the LLE, whereas the deviations were lower than 5 %. Comparable results were delivered by the ESD-EoS and PC-SAFT for the fitting and the prediction in the investigated binary systems. Also a fitting for NRTL, UNIQUAC and ESD was carried out, but only to one data set. The intention was to show the effect of parameterization on prediction in ternary systems. Predictions were made for VLE and LLE in ternary systems of the above mentioned components, solely with interaction parameters fitted to binary data. For the models NRTL, UNIQUAC und ESD predictions of simultaneously and separately fitted parameters are presented. It is shown that with parameters simultaneously fitted to several data sets significantly better results could be obtained compared to the parameters separately fitted to a single data set. Additionally, for the equations of state ESD and PC-SAFT predictions for the LL(L)E in ternary systems are compared, but here only with separately fitted parameters. For three out of the four investigated ternary systems a too large miscibility gap is calculated with the models NRTL, UNIQUAC and ESD. In the system water+octane+aniline good results could be obtained for the prediction of the LLLE. In summary the equations of state deliver similar results. In the systems water+octane+CHA and octane+CHA+aniline also too large two phase regions were delivered. Better predictions could be obtained in the systems water+octane+aniline and water+CHA+aniline. The forecasts of the VLE in the ternary systems are good with the simultaneously fitted parameters. The deviations for the vapour phase compositions are as for the vapour pressures under 6 %. Larger deviations occur for the system water+octane+aniline only. As evaluation result for the thermodynamic models can be mentioned that the activity coefficient models NRTL and UNIQUAC deliver somewhat better results for the fitting of the binary data than the equations of state ESD and PC-SAFT however, with a larger number of adjustable parameters. The prediction of the VLE is satisfactorily in the ternary systems and with similar quality of all considered models. Larger deviations occur for the prediction of the LL(L)E in the ternary systems. The results of the ESD-EoS were, with one exception, each time better than those of the activity coefficient models. There is no significant difference between the prediction of the ternary systems for the ESD-EoS and the PC-SAFT.
|
192 |
Plot-Based Land-Cover and Soil-Moisture Mapping Using X-/L-Band SAR Data. Case Study Pirna-South, Saxony, GermanyMahmoud, Ali 10 January 2012 (has links)
Agricultural production is becoming increasingly important as the world demand increases. On the other hand, there are several factors threatening that production such as the climate change. Therefore, monitoring and management of different parameters affecting the production are important. The current study is dedicated to two key parameters, namely agricultural land cover and soil-moisture mapping using X- and L-Band Synthetic Aperture Radar (SAR) data.
Land-cover mapping plays an essential role in various applications like irrigation management, yield estimation and subsidy control. A model of multi-direction/multi-distance texture analysis on SAR data and its use for agricultural land cover classification was developed. The model is built and implemented in ESRI ArcGIS software and integrated with “R Environment”. Sets of texture measures can be calculated on a plot basis and stored in an attribute table for further classification. The classification module provides various classification approaches such as support vector machine and artificial neural network, in addition to different feature-selection methods. The model has been tested for a typical Mid-European agricultural and horticultural land use pattern south to the town of Pirna (Saxony/Germany), where the high-resolution SAR data, TerraSAR-X and ALOS/PALSAR (HH/HV) imagery, were used for land-cover mapping. The results indicate that an integrated classification using textural information of SAR data has a high potential for land-cover mapping. Moreover, the multi-dimensional SAR data approach improved the overall accuracy.
Soil moisture (SM) is important for various applications such as crop-water management and hydrological modelling. The above-mentioned TerraSAR-X data were utilised for soil-moisture mapping verified by synchronous field measurements. Different speckle-reduction techniques were applied and the most representative filtered image was determined. Then the soil moisture was calculated for the mapped area using the obtained linear regression equations for each corresponding land-cover type. The results proved the efficiency of SAR data in soil-moisture mapping for bare soils and at the early growing stage of fieldcrops. / Landwirtschaftliche Produktion erlangt mit weltweit steigender Nahrungsmittelnachfrage zunehmende Bedeutung. Zahlreiche Faktoren bedrohen die landwirtschaftliche Produktion wie beispielsweise die globale Klimaveränderung einschließlich ihrer indirekten Nebenwirkungen. Somit ist das Monitoring der Produktion selbst und der wesentlichen Produktionsparameter eine zweifelsfrei wichtige Aufgabe. Die vorliegende Studie widmet sich in diesem Kontext zwei Schlüsselinformationen, der Aufnahme landwirtschaftlicher Kulturen und den Bodenfeuchteverhältnissen, jeweils unter Nutzung von Satellitenbilddaten von Radarsensoren mit Synthetischer Apertur, die im X- und L-Band operieren.
Landnutzungskartierung spielt eine essentielle Rolle für zahlreiche agrarische Anwendungen; genannt seien hier nur Bewässerungsmaßnahmen, Ernteschätzung und Fördermittelkontrolle. In der vorliegenden Arbeit wurde ein Modell entwickelt, welches auf Grundlage einer Texturanalyse der genannten SAR-Daten für variable Richtungen und Distanzen eine Klassifikation landwirtschaftlicher Nutzungsformen ermöglicht. Das Modell wurde als zusätzliche Funktionalität für die ArcGIS-Software implementiert. Es bindet dabei Klassifikationsverfahren ein, die aus dem Funktionsschatz der Sprache „R“ entnommen sind.
Zum Konzept: Ein Bündel von Texturparametern wird durch das vorliegende Programm auf Schlagbasis berechnet und in einer Polygonattributtabelle der landwirtschaftlichen Schläge abgelegt. Auf diese Attributtabelle greift das nachfolgend einzusetzende Klassifikationsmodul zu. Die Software erlaubt nun die Suche nach „aussagekräftigen“ Teilmengen innerhalb des umfangreichen Texturmerkmalsraumes. Im Klassifikationsprozess kann aus verschiedenen Ansätzen gewählt werden. Genannt seien „Support Vector Machine“ und künstliche neuronale Netze.
Das Modell wurde für einen typischen mitteleuropäischen Untersuchungsraum mit landwirtschaftlicher und gartenbaulicher Nutzung getestet. Er liegt südlich von Pirna im Freistaat Sachsen. Zum Test lagen für den Untersuchungsraum Daten von TerraSAR-X und ALOS/PALSAR (HH/HV) aus identischen Aufnahmetagen vor. Die Untersuchungen beweisen ein hohes Potenzial der Texturinformation aus hoch aufgelösten SAR-Daten für die landwirtschaftliche Nutzungserkennung. Auch die erhöhte Dimensionalität durch die Kombination von zwei Sensoren erbrachte eine Verbesserung der Klassifikationsgüte.
Kenntnisse der Bodenfeuchteverteilung sind u.a. bedeutsam für Bewässerungsanwendungen und hydrologische Modellierung. Die oben genannten SAR-Datensätze wurden auch zur Bodenfeuchteermittlung genutzt. Eine Verifikation wurde durch synchrone Feldmessungen ermöglicht. Initial musste der Radar-typische „Speckle“ in den Bildern durch Filterung verringert werden. Verschiedene Filtertechniken wurden getestet und das beste Resultat genutzt. Die Bodenfeuchtebestimmung erfolgte in Abhängigkeit vom Nutzungstyp über Regressionsanalyse. Auch die Resultate für die Bodenfeuchtebestimmung bewiesen das Nutzpotenzial der genutzten SAR-Daten für offene Ackerböden und Stadien, in denen die Kulturpflanzen noch einen geringen Bedeckungsgrad aufweisen.
|
193 |
Konzeption und Entwicklung einer E-Learning-Lektion zur Arbeit mit der Kartenherstellungssoftware OCADGoerlich, Franz 14 December 2011 (has links)
In dieser Bachelorarbeit wird eine Beispiel-E-Learning-Lektion zum Import von GPS Daten in die Kartenherstellungssoftware OCAD erstellt. Dabei liegt im theoretischen Teil der Hauptschwerpunkt auf nutzergenerierten Daten (Volunteered Geographic Infor-mation; kurz: VGI). Nach einer kurzen, allgemeinen Einführung wird auf die Bedeutung der Kartographie im Zusammenhang mit VGI eingegangen.
Der zweite Teil beinhaltet Didaktik mit Schwerpunkt E-Learning. Dazu werden das Goal Based Scenario Modell und das Cognitive Apprenticeship Modell kurz vorgestellt und anschließend das Projekt GITTA mit der enthaltenen ECLASS-Struktur näher erklärt.
Den immer wichtiger werdenden Content Management Systemen (CMS) widmet sich der dritte Theorieteil. Für die Realisierung der zu erstellenden Lektion wird das Open-Source CMS Joomla! ausführlicher erläutert.
Die Implementierung beschreibt die Umsetzung der E-Leraning-Lektion mittels Joomla! und die Nutzung des ECLASS-Modells.
Bevor auf die Vorgehensweise eingegangen wird, enthält der Implementierungsteil die Erstellung eines groben Gesamtkonzeptes für eine komplette E-Leraning-Anwendung zu OCAD mit entsprechenden Erläuterungen.
Anschließend folgen eine Zusammenfassung und ein Ausblick über die Weiterführung der E-Learning-Anwendung.:Zusammenfassung III
Aufgabenstellung IV
Abbildungsverzeichnis V
Tabellenverzeichnis V
Abkürzungsverzeichnis VI
Inhaltsverzeichnis VII
Selbständigkeitserklärung IX
1. Einführung 10
1.1 Ziele 11
1.2 Hintergrund 11
2. Nutzergenerierte Daten 13
2.1 Einführung 13
2.2 Nutzergenerierte Daten in der Kartographie 14
2.3 Nutzergenerierte Daten in OCAD 22
3. Didaktik 26
3.1 Allgemeine Bedeutung 26
3.2 Lernen 26
3.3 Lernprozess 27
3.4 Lernen mit digitalen Medien 28
3.5 E-Learning 28
3.5.1 Was ist E-Learning? 28
3.5.2 E-Learning Modelle 29
3.5.3 Vorteile und Nachteile von E-Learning 32
3.6 Das Projekt GITTA 32
3.6.1 Übersicht 32
3.6.2 Entwicklung von Lernmaterialien 33
3.6.3 ECLASS Modell 34
4. Content Management Systeme 35
4.1 Einführung 35
4.2 Definitionen 36
4.3 Eigenschaften von CMS 37
4.4 Ausblick 38
4.5 Joomla! 4.5.1 Einführung 39
4.5.2 Geschichte 39
4.5.3 Versionen 40
4.5.4 Funktionen 41
4.5.5 Aufbau 42
4.5.6 Auswahlkriterien für CMS 43
5. Implementierung 44
5.1 Motivation 44
5.2 Modellerstellung 46
5.3 Wahl der zur Umsetzung nutzbaren Systeme 48
5.3.1 ECLASS-Modell 48
5.3.2 Joomla! 49
5.4 Umsetzung der Lektion in Joomla! 49
5.4.1 Vorbereitungen 50
5.4.2 Konzeptübertragung 51
6. Zusammenfassung 54
6.1 Zusammenfassung der Praktischen Arbeit 54
6.2 Ausblick 55
Literaturverzeichnis LVI
Literaturquellen LVI
Internetquellen LXII
Anhang LXIV
Anhang 1 - Gegenüberstellung ausgewählter kartographischer Funktionalitäten in Adobe Illustrator und OCAD LXV
Anhang 2 - Abdruck der Beispiel E-Learning Lektion LXVII
|
194 |
Abschlussbericht des Verbundvorhabens „Adaptive Smart Service Systeme zur Optimierung und Steuerung von Produktionssystemen auf Basis bedarfsorientiert konfigurierbarer Smart Data Bausteine (Plug_and_Control)“Prielipp, Riccardo, Emanuel, Carlo, Göhlert, Nadine, Fischer, Daniel, Wilsky, Philipp, Gemeinhardt, Thomas, Kaczmarek, Andreas, Wolfrum, René, Wohlgemuth, Sascha, Böhm, Vivien, Ruffert, Jörg, Salomon, Bernd, Jerusel, Christian, Löbelt, Martin, Hauptmann, Christoph, Schädel, Christian, Pillgrimm, Tom, Hönig, Steve, Massalsky, Kristin, Hummel, Jonas, Reuter, Thomas, Burkhardt, Thomas, Konnerth, Christoph, Nagel, Matthias, van Bahlen, David 03 June 2021 (has links)
Ziel des Forschungsvorhabens 'Plug_and_Control' war die Erarbeitung und prototypische Umsetzung eines Konzepts für flexibel konfigurierbare, standardisierte Datenbausteine zur Erfassung und Verarbeitung von Daten aus unterschiedlichen internen und externen Datenquellen von Produktionsunternehmen. Durch diese Datenbausteine sollte zum einen die Auftrennung des betrieblichen Datenstroms in Informationen, die unbedenklich bspw. in einer Cloud gespeichert werden können, und in sensible Daten, die zwingend im Unternehmen verbleiben müssen, realisiert werden. Zum anderen sollte durch den modularen Bausteinansatz die notwendige Flexibilität für eine Anwendung für verschiedene Problemstellungen in beliebigen Unternehmen geschaffen werden. Im entwickelten Konzept wurden fachlich zusammengehörige Daten in Datenbausteinen aggregiert, um eine Standardisierung, Qualitätssicherung sowie Echtzeit-Auswertung zu ermöglichen. Ergänzend wurden Lösungen zur Datenakquise aus Sensorik- und Maschinensteuerungsdaten sowie zur cloudbasierten Speicherung und bedarfsorientierten Verarbeitung der Daten generiert. Auf Basis der so entstandenen flexibel kombinierbaren Daten- und Methodenbausteine wurde ein modulares Dienstleistungsangebot geschaffen sowie prototypisch für verschiedene Anwendungsszenarien umgesetzt und validiert. Durch die im Projekt entwickelten Datenbausteine und deren individuelle Verknüpfung können technikbasierte Dienstleistungsprozesse zukünftig effizienter, flexibler und nutzenorientierter gestaltet werden. Der generierte Bausteinansatz stellt ein Bindeglied zwischen notwendiger Standardisierung und spezifischen Anforderungen für individualisierte Dienstleistungen dar. Neben den prototypischen Lösungen für konkrete Anwendungsfälle im Sonder- und Textilmaschinenbau, der Teilefertigung und des Metallbaus entstanden im Projekt auch allgemeingültige Ergebnisse für flexibel konfigurierbare Dienstleistungen zur Produktionsoptimierung in verschiedenen Branchen. Produktionsunternehmen können somit ihre Daten nicht nur flexibel nutzen, sie sind gleichzeitig auch in die Lage, ihren Kunden modulare, technische Dienstleistungen anzubieten. Diese Dienstleistungen können dabei einerseits auf das Produkt bezogen sein, indem Kunden z.B. in der Entwicklungs-/ Beauftragungsphase die Konfiguration einer Anlage mitgestalten oder während der Erstellung den Auftragsfortschritt verfolgen und Änderungen bewerten können. Andererseits sind Dienstleistungen, die sich auf den Produktionsprozess beziehen, möglich – bspw. die Optimierung von Prozessen, des Ressourceneinsatzes oder der Verfügbarkeit sowie die Ergänzung bestehender bzw. Entwicklung neuer Geschäftsmodelle.
Der vorliegende Schlussbericht fasst die erreichten Ergebnisse und Erkenntnisse zusammen.:1 Das Projekt Plug_and_Control
1.1 Problemstellung und Motivation
1.2 Status Quo
1.3 Strategie & Forschungsfrage
1.4 Ziele des Projektes
2 Grundlagen digitaler Dienstleistungen
2.1 Definitionsrahmen digitaler Dienstleistungen
2.2 Beschreibung dienstleistungsbasierter Geschäftsmodelle mittels Gemini 4.0 Business Model Canvas
3 Projektkonsortium
3.1 Professur Fabrikplanung und Intralogistik der TU Chemnitz
3.2 ERMAFA Sondermaschinen- und Anlagenbau GmbH
3.3 KRS - SEIGERT GmbH
3.4 Terrot GmbH
3.5 ICM - Institut Chemnitzer Maschinen- und Anlagenbau e.V.
3.6 Hörmann Rawema Engineering & Consulting GmbH
3.7 Simba n³ GmbH
3.8 com2m GmbH
4 Digitales Dienstleistungskonzept
4.1 Anforderungen an die Methode
4.2 Modulares digitales Dienstleistungskonzept
4.3 Systembeschreibung
4.4 Zusammenhang von Servicekonzept & SDU-SMU-Sammlung
4.5 SDU-SMU-Bibliothek
5 Transfer in die Praxis
5.1 Prototypische Umsetzung des Anwendungsfalls „Maschineneinstellungen für 3D-Drucker bestimmen“
5.2 Prototypische Umsetzung zum Anwendungsfall „Instandhaltungsmanagement“ bei der ERMAFA Sondermaschinen- und Anlagenbau GmbH
5.3 Prototypische Umsetzung zum Anwendungsfall „Maschineneinstellungen für die Kugelproduktion bestimmen“ bei der KRS - SEIGERT GmbH
5.4 Prototypische Umsetzung des Anwendungsfalls „Auftragsmonitoring“ bei der Terrot GmbH
5.5 Prototypische Umsetzung des Anwendungsfalls „Parameterbestimmung für den IHU-Prozess“
5.6 Validierung und Verifikation
6 Methode zur Implementierung von Geschäftsmodellen
6.1 Prototyp ableiten
6.2 Prototyp implementieren
6.3 Prototyp testen
7 Zusammenfassung & Ausblick
8 Danksagung
9 Autorenverzeichnis
10 Veröffentlichungen & Vorträge
11 Quellenverzeichnis / The aim of the research project “Plug_and_Control” was the development and prototypical implementation of a concept for flexibly configurable, standardized data modules for the acquisition and processing of data from different internal and external data sources of production companies. On the one hand, these data modules should separate the operational data stream into information that can be safely stored – for example in a cloud – and into sensitive data that must remain in the company. On the other hand, the modular building block approach should create the necessary flexibility for an application for various problems in any company.
In the developed concept, related technical data were aggregated in data modules in order to enable standardization, quality assurance and real-time evaluation. In addition, solutions for data acquisition from sensor and machine control data as well as for cloud-based storage and demand-oriented processing of the data were generated. Based on the flexibly combinable data and method modules a modular range of services was created, implemented and validated as prototypes for various application scenarios.
Due to the data modules and their individual linkage that were developed in the project, technology-based service processes can be made more efficient, flexible and user-oriented in the future. The generated building block approach represents a link between the necessary standardization and specific requirements for individualized services. In addition to the prototype solutions for specific applications in companies of textile and special mechanical engineering, parts manufacturing and metal construction, the research project also provides general results for flexibly configurable services for production optimization usable in various industries. So, production companies can not only use their data more flexibly, they are also able to offer their customers modular, technical services. This present final documentation of the research project “Plug_and_Control” summarizes the most important results and findings.:1 Das Projekt Plug_and_Control
1.1 Problemstellung und Motivation
1.2 Status Quo
1.3 Strategie & Forschungsfrage
1.4 Ziele des Projektes
2 Grundlagen digitaler Dienstleistungen
2.1 Definitionsrahmen digitaler Dienstleistungen
2.2 Beschreibung dienstleistungsbasierter Geschäftsmodelle mittels Gemini 4.0 Business Model Canvas
3 Projektkonsortium
3.1 Professur Fabrikplanung und Intralogistik der TU Chemnitz
3.2 ERMAFA Sondermaschinen- und Anlagenbau GmbH
3.3 KRS - SEIGERT GmbH
3.4 Terrot GmbH
3.5 ICM - Institut Chemnitzer Maschinen- und Anlagenbau e.V.
3.6 Hörmann Rawema Engineering & Consulting GmbH
3.7 Simba n³ GmbH
3.8 com2m GmbH
4 Digitales Dienstleistungskonzept
4.1 Anforderungen an die Methode
4.2 Modulares digitales Dienstleistungskonzept
4.3 Systembeschreibung
4.4 Zusammenhang von Servicekonzept & SDU-SMU-Sammlung
4.5 SDU-SMU-Bibliothek
5 Transfer in die Praxis
5.1 Prototypische Umsetzung des Anwendungsfalls „Maschineneinstellungen für 3D-Drucker bestimmen“
5.2 Prototypische Umsetzung zum Anwendungsfall „Instandhaltungsmanagement“ bei der ERMAFA Sondermaschinen- und Anlagenbau GmbH
5.3 Prototypische Umsetzung zum Anwendungsfall „Maschineneinstellungen für die Kugelproduktion bestimmen“ bei der KRS - SEIGERT GmbH
5.4 Prototypische Umsetzung des Anwendungsfalls „Auftragsmonitoring“ bei der Terrot GmbH
5.5 Prototypische Umsetzung des Anwendungsfalls „Parameterbestimmung für den IHU-Prozess“
5.6 Validierung und Verifikation
6 Methode zur Implementierung von Geschäftsmodellen
6.1 Prototyp ableiten
6.2 Prototyp implementieren
6.3 Prototyp testen
7 Zusammenfassung & Ausblick
8 Danksagung
9 Autorenverzeichnis
10 Veröffentlichungen & Vorträge
11 Quellenverzeichnis
|
195 |
Data4City – A Hyperlocal Citizen AppUrban, Adam, Hick, David, Noennig, Jörg Rainer 29 April 2019 (has links)
Exploring upon the phenomena of smart cities, this paper elaborates the potential of crowdsourced data collection in small scale urban quarters. The development of the Data4City (D4C) hyperlocal app – PinCity – is based on the idea of increasing the density of real-time information in urban areas (urban neighborhoods) in order to optimize or create innovative urban services (such as public transportation, garbage collection) or urban planning, thus improving the quality of life of quarter inhabitants as a long-term goal. The main principle of the app is the small-scale implementation, as opposed to top-down smart city approaches worldwide, preferably in a city quarter, or a community, which can be subsequently scaled and interlaced to other parts of the city.
|
196 |
False Discovery Rates, Higher Criticism and Related Methods in High-Dimensional Multiple TestingKlaus, Bernd 09 January 2013 (has links)
The technical advancements in genomics, functional magnetic-resonance
and other areas of scientific research seen in the last two decades
have led to a burst of interest in multiple testing procedures.
A driving factor for innovations in the field of multiple testing has been the problem of
large scale simultaneous testing. There, the goal is to uncover lower--dimensional signals
from high--dimensional data. Mathematically speaking, this means that the dimension d
is usually in the thousands while the sample size n is relatively small (max. 100 in general,
often due to cost constraints) --- a characteristic commonly abbreviated as d >> n.
In my thesis I look at several multiple testing problems and corresponding
procedures from a false discovery rate (FDR) perspective, a methodology originally introduced in a seminal paper by Benjamini and Hochberg (2005).
FDR analysis starts by fitting a two--component mixture model to the observed test statistics. This mixture consists of a null model density and an alternative component density from which the interesting cases are assumed to be drawn.
In the thesis I proposed a new approach called log--FDR
to the estimation of false discovery rates. Specifically,
my new approach to truncated maximum likelihood estimation yields accurate
null model estimates. This is complemented by constrained maximum
likelihood estimation for the alternative density using log--concave
density estimation.
A recent competitor to the FDR is the method of \"Higher
Criticism\". It has been strongly advocated
in the context of variable selection in classification
which is deeply linked to multiple comparisons.
Hence, I also looked at variable selection in class prediction which can be viewed as
a special signal identification problem. Both FDR methods and Higher Criticism
can be highly useful for signal identification. This is discussed in the context of
variable selection in linear discriminant analysis (LDA),
a popular classification method.
FDR methods are not only useful for multiple testing situations in the strict sense,
they are also applicable to related problems. I looked at several kinds of applications of FDR in linear classification. I present and extend statistical techniques related to effect size estimation using false discovery rates and showed how to use these for variable selection. The resulting fdr--effect
method proposed for effect size estimation is shown to work as well as competing
approaches while being conceptually simple and computationally inexpensive.
Additionally, I applied the fdr--effect method to variable selection by minimizing
the misclassification rate and showed that it works very well and leads to compact
and interpretable feature sets.
|
197 |
Meine Meldedaten gehören mir - Widerspruch jetzt!15 May 2019 (has links)
Vielen Bürgerinnen und Bürgern ist diese Praxis der Meldebehörden nicht bewusst. Sie können aber der Auskunftserteilung via Internet, der Weitergabe zu Werbezwecken sowie an Parteien und Adressbuchverlage beim Meldeamt widersprechen. Wir empfehlen dafür das Widerspruchsformular des Sächsischen Datenschutzbeauftragten.
|
198 |
Analyse des Routenwahlverhaltens von Radfahrenden auf Grundlage GPS basierter Daten zum real beobachteten VerkehrsverhaltenHuber, Stefan 03 May 2022 (has links)
Eine an den Bedürfnissen von Radfahrer*innen orientierte Planung ist für die Förde-rung des Radverkehrs unumgänglich. Um den Ausbau der Radverkehrsinfrastruktur ent-sprechend zu planen, sind jedoch Informationen zum Routenwahlverhalten der Radfah-renden und dessen Einflussfaktoren notwendig. Mit diesen Informationen können z.B. Wirkungen von Maßnahmen oder die zukünftige Nutzung von geplanter Radverkehrsinf-rastruktur abgeschätzt werden.
Aus diesem Grund wurden vor allem in der letzten Dekade zahlreiche internationale Arbeiten vorangetrieben, die die Routenwahl auf Basis von GPS-basierten Daten zum real beobachteten Routenwahlverhalten untersuchten. Da die Studien meist für einzelne und nichtdeutsche Städte durchgeführt wurden, lassen sich die Ergebnisse jedoch nicht direkt auf den deutschen Raum übertragen.
Um die Einflussfaktoren der Routenwahl für den deutschen Raum zu untersuchen, wird in dieser Arbeit die Routenwahl von Radfahrenden im Raum Dresden analysiert. Ba-sis der Untersuchung stellt ein während der Aktion STADTRADELN erhobener GPS-Daten-satz dar, der 18.459 Radfahrten von 1.361 Radfahrer*innen enthält und Auskunft über deren real beobachtetes Routenwahlverhalten gibt. Die erhobenen Routendaten wurden mit unterschiedlichen Verfahren aufbereitet und über ein Verkehrsnetz mit Sekundärda-ten angereichert, sodass die Eigenschaften der gewählten Routen berechnet und den je-weils erzeugten und nicht gewählten Routenalternativen gegenübergestellt werden konn-ten. Der Einfluss der unterschiedlichen Faktoren wurde anschließend mittels logistischer Regressionsanalyse untersucht.
Das Ergebnis der Untersuchung zeigt auf, dass sich die folgenden Einflussfaktoren positiv auf die Routenwahl auswirken:
+ Existenz von Radverkehrsinfrastruktur
+ Geringe Längsneigungen
+ Gute Oberflächenbeschaffenheit (z.B. Asphalt)
+ Vorhandensein anderer Radfahrender entlang einer Route
+ Geringe zulässige Maximalgeschwindigkeit des motorisierten Verkehrs
+ Geringe Fahrstreifenanzahl des Kfz-Verkehrs
+ Durch Lichtsignalanlagen geregelte Knotenpunkte
+ Grün- und Wohngebietsflächen
Demgegenüber üben die folgenden Einflussfaktoren einen negativen Einfluss auf die Wahl einer Route aus:
– Zunehmende Distanz
– Hohe Streckenanteile mit großer Längsneigung
– Eine hohe maximale Längsneigung der Route
– Geringe Breite der Radverkehrsführung
– Höhere Unfallhäufigkeit entlang der Route
Für einige Einflussfaktoren konnte kein (signifikanter) Einfluss auf die Routenwahl nachgewiesen werden. Dazu gehören bspw. die durchschnittlich tägliche Verkehrsstärke des Kfz-Verkehrs, der ruhende Verkehr oder die Häufigkeit von „rechts-vor-links“ geregel-ten Knotenpunkten.
Die vorliegende Arbeit konnte dazu beitragen, die Wirkung der Einflussfaktoren auf die Routenwahl im Radverkehr einer deutschen Stadt zu quantifizieren. Eine Stärke der Untersuchung liegt in der Erhebung und Nutzung des umfangreichen GPS-Datensatzes zum real beobachteten Routenwahlverhalten der Radfahrer*innen. Das resultierende Routenwahlmodell kann für die Abschätzung von Maßnahmenwirkungen genutzt werden (z.B. im Rahmen der Verkehrsnachfragemodellierung).
Eine kritische Reflexion der Ergebnisse und Methoden zeigt, dass die Qualität der Ana-lyse und ihrer Ergebnisse durch die Nutzung weiterer Sekundär- und Primärdaten sowie anderer Methoden weiter verbessert werden kann.
Die Ergebnisse der Untersuchung geben einen Einblick in die Routenwahl der Radfah-renden des Untersuchungsgebiets. Im Rahmen der Arbeit konnte nicht geprüft werden, ob die Routenwahl der Radfahrer*innen in Dresden vergleichbar mit der Routenwahl in anderen deutschen Städten ist. Das entwickelte Verfahren kann jedoch auch für Analysen in anderen Städten angewendet werden, sodass verlässliche Aussagen zur Routenwahl deutscher Radfahrender in anderen deutschen Kommunen erarbeitet werden können.
Es lassen sich insgesamt folgende Schlussfolgerungen ziehen: Um den Radfahrenden eine möglichst attraktive Radverkehrsinfrastruktur zu bieten und damit die Nutzung des Fahrrads zu fördern, sollte der Radverkehr auf eigener Radverkehrsinfrastruktur geführt werden, die möglichst breit ist und eine gute Oberflächenqualität besitzt. Entlang der Rad-routen sollten die Geschwindigkeiten des fließenden motorisierten Verkehrs möglichst reduziert werden. Die Bündelung von Radverkehrsströmen sowie die Führung durch Grünflächen kann zudem Fahrtkomfort und Sicherheitsempfinden erhöhen. / User-oriented bicycle planning is essential for the promotion of cycling in cities. In order to adequately plan and build cycling infrastructure, information on route choice be-haviour of cyclists and its influencing factors is essential. The knowledge about influencing factors of bicycle route choice can help to assess the effect of measures as well as future or potential utilisation of planned cycling infrastructure.
Several international studies – particularly carried out in the last decade – examined route choice based on GPS-based revealed preference data. As the studies were mostly conducted for few and non-German cities the results, however, cannot be directly trans-ferred to the German area.
In order to investigate bicycle route choice for the German area, the route choice of cyclists in the city of Dresden is analysed in this study. The basis of the investigation is a GPS data set collected during the CITY CYCLING campaign. It contains 18,459 bicycle trips by 1,361 cyclists and provides detailed information about the observed route choice be-haviour of cyclists. The collected route data were processed by using different methods. Linking the routes to a traffic supply network allowed enriching them with secondary data so that characteristics of the selected routes and the non-selected generated alternatives were determined. The influence of the different factors was investigated using logistic re-gression analysis.
The results of the study reveal that the following influencing factors positively affect bicycle route choice:
+ Existence of cycling infrastructure
+ Low slopes
+ Good surface conditions (e.g. asphalt)
+ Presence of other cyclists along a route
+ Low maximum speed of motorised traffic
+ Few number of lanes for motorised traffic
+ Intersections controlled by traffic signals
+ Green and residential areas
In contrast, the following factors show a negative influence on bicycle route choice:
– Increasing distance
– High proportion of routes with steep longitudinal gradients
– A high maximum gradient along the route
– Narrow width of the cycle lane
– Higher accident frequency along the route
For some influencing factors, no (significant) influence on route choice was found (e.g. for the average daily traffic volume of motorized traffic, stationary traffic or the frequency of right-of-way regulated intersections).
The present study contributes to the quantification of influencing factors or rather their effect on bicycle route choice in a German city. Furthermore, the resulting route choice model can be used to estimate the effects of different measures (e.g. in the context of traffic demand modelling). A strength of the study is the extensive data set on revealed preferences of cyclists that has been used to analyse route choice behaviour.
A critical reflection of the results and methods shows that the quality of the analysis and its results could further be improved by using more secondary and primary data as well as other models for analysis.
The results of the study provide an insight into route choices of cyclists in the study area. However, it could not be determined whether route choice of cyclists in Dresden is similar to route choice of cyclists in other German cities. Nevertheless, the developed method could also be used to analyse route choice in other cities, so that reliable state-ments on route choice of German cyclists can be compiled.
Overall, the following conclusions can be drawn: in order to provide cyclists the most attractive cycling infrastructure possible and, thus, promote the use of cycling in cities, bicycle traffic should be guided on dedicated and wide cycling infrastructure with good surface quality. Furthermore, the speed of moving motorised traffic should be reduced along the route segments if possible. Bundling of cycling traffic flows and routing cyclists through green spaces can furthermore increase riding comfort and the perception of safety.
|
199 |
Big Data im Radverkehr: Ergebnisbericht 'Mit Smartphones generierte Verhaltensdaten im Radverkehr'Francke, Angela, Becker, Thilo, Lißner, Sven 19 October 2018 (has links)
Zusammenfassend lässt sich sagen, dass unter Beachtung der im folgenden Bericht beschriebenen Faktoren GPS-Daten, im vorliegenden Fall exemplarisch untersucht anhand von Daten der Firma Strava Inc., mit einigen Einschränkungen für die Radverkehrsplanung nutzbar sind. Bereits heute sind damit Auswertungen möglich, die zeigen, wo, wann und wie sich Radfahrende im gesamten Netz bewegen. Die mittels Smartphone-App generierten Daten können sehr sinnvoll als Ergänzung zu bestehenden Dauerzählstellen von Kommunen genutzt werden. Berücksichtigt werden sollten bei der Auswertung und Interpretation der Daten jedoch einige Aspekte, wie der eher sportlich orientierte Kontext der erfassten Routen in den untersuchten Beispielen. Des Weiteren werden aktuell die Daten zum Teil noch als Datenbank- oder GIS-Dateien zur Verfügung gestellt bzw. befinden sich Online-
Masken zur einfacheren Nutzung im Aufbau oder einem ersten Nutzungsstadium. Die Auswertung und Interpretation erfordert also weiterhin Fachkompetenz und auch personelle Ressourcen. Der Einsatz dieser wird jedoch voraussichtlich durch die Weiterentwicklung von Web-Oberflächen und unterstützenden Auswertemasken abnehmen. Hier gilt es zukünftig, in Zusammenarbeit mit den Kommunen, die benötigten Parameter sowie die geeignetsten Aufbereitungsformen zu erarbeiten.
Im Forschungsprojekt erfolgte ein Ansatz der Hochrechnung von Radverkehrsstärken aus Stichproben von GPS-Daten auf das gesamte Netz. Dieser konnte auch erfolgreich in einer weiteren Kommune verifiziert werden. Jedoch ist auch hier in Zukunft noch Forschungsbedarf vorhanden bzw. die Anpassung auf lokale Gegebenheiten notwendig.
|
200 |
Parallelizing Set Similarity JoinsFier, Fabian 24 January 2022 (has links)
Eine der größten Herausforderungen in Data Science ist heutzutage, Daten miteinander in Beziehung zu setzen und ähnliche Daten zu finden. Hierzu kann der aus relationalen Datenbanken bekannte Join-Operator eingesetzt werden. Das Konzept der Ähnlichkeit wird häufig durch mengenbasierte Ähnlichkeitsfunktionen gemessen. Um solche Funktionen als Join-Prädikat nutzen zu können, setzt diese Arbeit voraus, dass Records aus Mengen von Tokens bestehen. Die Arbeit fokussiert sich auf den mengenbasierten Ähnlichkeitsjoin, Set Similarity Join (SSJ).
Die Datenmenge, die es heute zu verarbeiten gilt, ist groß und wächst weiter. Der SSJ hingegen ist eine rechenintensive Operation. Um ihn auf großen Daten ausführen zu können, sind neue Ansätze notwendig. Diese Arbeit fokussiert sich auf das Mittel der Parallelisierung. Sie leistet folgende drei Beiträge auf dem Gebiet der SSJs.
Erstens beschreibt und untersucht die Arbeit den aktuellen Stand paralleler SSJ-Ansätze. Diese Arbeit vergleicht zehn Map-Reduce-basierte Ansätze aus der Literatur sowohl analytisch als auch experimentell. Der größte Schwachpunkt aller Ansätze ist überraschenderweise eine geringe Skalierbarkeit aufgrund zu hoher Datenreplikation und/ oder ungleich verteilter Daten. Keiner der Ansätze kann den SSJ auf großen Daten berechnen.
Zweitens macht die Arbeit die verfügbare hohe CPU-Parallelität moderner Rechner für den SSJ nutzbar. Sie stellt einen neuen daten-parallelen multi-threaded SSJ-Ansatz vor. Der vorgestellte Ansatz ermöglicht erhebliche Laufzeit-Beschleunigungen gegenüber der Ausführung auf einem Thread.
Drittens stellt die Arbeit einen neuen hoch skalierbaren verteilten SSJ-Ansatz vor. Mit einer kostenbasierten Heuristik und einem daten-unabhängigen Skalierungsmechanismus vermeidet er Daten-Replikation und wiederholte Berechnungen. Der Ansatz beschleunigt die Join-Ausführung signifikant und ermöglicht die Ausführung auf erheblich größeren Datenmengen als bisher betrachtete parallele Ansätze. / One of today's major challenges in data science is to compare and relate data of similar nature. Using the join operation known from relational databases could help solving this problem. Given a collection of records, the join operation finds all pairs of records, which fulfill a user-chosen predicate. Real-world problems could require complex predicates, such as similarity. A common way to measure similarity are set similarity functions. In order to use set similarity functions as predicates, we assume records to be represented by sets of tokens. In this thesis, we focus on the set similarity join (SSJ) operation.
The amount of data to be processed today is typically large and grows continually. On the other hand, the SSJ is a compute-intensive operation. To cope with the increasing size of input data, additional means are needed to develop scalable implementations for SSJ. In this thesis, we focus on parallelization. We make the following three major contributions to SSJ.
First, we elaborate on the state-of-the-art in parallelizing SSJ. We compare ten MapReduce-based approaches from the literature analytically and experimentally. Their main limit is surprisingly a low scalability due to too high and/or skewed data replication. None of the approaches could compute the join on large datasets.
Second, we leverage the abundant CPU parallelism of modern commodity hardware, which has not yet been considered to scale SSJ. We propose a novel data-parallel multi-threaded SSJ. Our approach provides significant speedups compared to single-threaded executions.
Third, we propose a novel highly scalable distributed SSJ approach. With a cost-based heuristic and a data-independent scaling mechanism we avoid data replication and recomputation. A heuristic assigns similar shares of compute costs to each node. Our approach significantly scales up the join execution and processes much larger datasets than all parallel approaches designed and implemented so far.
|
Page generated in 0.065 seconds