• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 19
  • 19
  • 6
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

An Approach to 3D Building Model Reconstruction from Airborne Laser Scanner Data Using Parameter Space Analysis and Fusion of Primitives / Eine Methode zur Rekonstruktion von 3D Gebäudemodellen aus Flugzeuglaserscannerdaten unter der Verwendung von Parameterräumen und der Fusion von Primitiven

Hofmann, Alexandra 05 August 2005 (has links) (PDF)
Within this work an approach was developed, which utilises airborne laser scanner data in order to generate 3D building models. These 3D building models may be used for technical and environmental planning. The approach has to follow certain requirements such as working automatically and robust and being flexible in use but still practicable. The approach starts with small point clouds containing one building at the time extracted from laser scanner data set by applying a pre-segmentation scheme. The laser scanner point cloud of each building is analysed separately. A 2.5D-Delaunay triangle mesh structure (TIN) is calculated into the laser scanner point cloud. For each triangle the orientation parameters in space (orientation, slope and perpendicular distance to the barycentre of the laser scanner point cloud) are determined and mapped into a parameter space. As buildings are composed of planar features, primitives, triangles representing these features should group in parameter space. A cluster analysis technique is utilised to find and outline these groups/clusters. The clusters found in parameter space represent plane objects in object space. Grouping adjacent triangles in object space - which represent points in parameter space - enables the interpolation of planes in the ALS points that form the triangles. In each cluster point group a plane in object space is interpolated. All planes derived from the data set are intersected with their appropriate neighbours. From this, a roof topology is established, which describes the shape of the roof. This ensures that each plane has knowledge on its direct adjacent neighbours. Walls are added to the intersected roof planes and the virtual 3D building model is presented in a file written in VRML (Virtual Reality Macro Language). Besides developing the 3D building model reconstruction scheme, this research focuses on the geometric reconstruction and the derivation of attributes of 3D building models. The developed method was tested on different data sets obtained from different laser scanner systems. This study will also show, which potential and limits the developed method has when applied to these different data sets. / In der vorliegenden Arbeit wird eine neue Methode zur automatischen Rekonstruktion von 3D Gebäudemodellen aus Flugzeuglaserscannerdaten vorgestellt. Diese 3D Gebäudemodelle können in technischer und landschaftsplanerischer Hinsicht genutzt werden. Bezüglich der zu entwickelnden Methode wurden Regelungen und Bedingungen erstellt, die eine voll automatische und robuste Arbeitsweise sowie eine flexible und praktikable Nutzung gewährleisten sollten. Die entwickelte Methode verwendet Punktwolken, welche mittels einer Vorsegmentierung aus dem gesamten Laserscannerdatensatz extrahiert wurden und jeweils nur ein Gebäude beinhalten. Diese Laserscannerdatenpunktwolken werden separat analysiert. Eine 2,5D-Delaunay-Dreiecksvermaschung (TIN) wird in jede Punktwolke gerechnet. Für jedes Dreieck dieser Vermaschung werden die Lageparameter im Raum (Ausrichtung, Neigungsgrad und senkrechter Abstand der Ebene des Dreiecks zum Schwerpunkt der Punktwolke) bestimmt und in einen Parameterraum aufgetragen. Im Parameterraum bilden diejenigen Dreiecke Gruppen, welche sich im Objektraum auf ebenen Flächen befinden. Mit der Annahme, dass sich ein Gebäude aus ebenen Flächen zusammensetzt, dient die Identifizierung von Clustern im Parameterraum der Detektierung dieser Flächen. Um diese Gruppen/Cluster aufzufinden wurde eine Clusteranalysetechnik genutzt. Über die detektierten Cluster können jene Laserscannerpunkte im Objektraum bestimmt werden, die eine Dachfläche formen. In die Laserscannerpunkte der somit gefundenen Dachflächen werden Ebenen interpoliert. Alle abgeleiteten Ebenen gehen in den entwickelten Rekonstruktionsalgorithmus ein, der eine Topologie zwischen den einzelnen Ebenen aufbaut. Anhand dieser Topologie erhalten die Ebenen ?Kenntnis? über ihre jeweiligen Nachbarn und können miteinander verschnitten werden. Der fertigen Dachgestalt werden Wände zugefügt und das komplette 3D Gebäudemodell wird mittels VRML (Virtual Reality Macro Language) visualisiert. Diese Studie bezieht sich neben der Entwicklung eines Schemas zu automatischen Gebäuderekonstruktion auch auf die Ableitung von Attributen der 3D Gebäudemodellen. Die entwickelte Methode wurde an verschiedenen Flugzeuglaserscannerdatensätzen getestet. Es wird gezeigt, welche Potentiale und Grenzen die entwickelte Methode bei der Bearbeitung dieser verschiedenen Laserscannerdatensätze hat.
12

An Approach to 3D Building Model Reconstruction from Airborne Laser Scanner Data Using Parameter Space Analysis and Fusion of Primitives

Hofmann, Alexandra 23 June 2005 (has links)
Within this work an approach was developed, which utilises airborne laser scanner data in order to generate 3D building models. These 3D building models may be used for technical and environmental planning. The approach has to follow certain requirements such as working automatically and robust and being flexible in use but still practicable. The approach starts with small point clouds containing one building at the time extracted from laser scanner data set by applying a pre-segmentation scheme. The laser scanner point cloud of each building is analysed separately. A 2.5D-Delaunay triangle mesh structure (TIN) is calculated into the laser scanner point cloud. For each triangle the orientation parameters in space (orientation, slope and perpendicular distance to the barycentre of the laser scanner point cloud) are determined and mapped into a parameter space. As buildings are composed of planar features, primitives, triangles representing these features should group in parameter space. A cluster analysis technique is utilised to find and outline these groups/clusters. The clusters found in parameter space represent plane objects in object space. Grouping adjacent triangles in object space - which represent points in parameter space - enables the interpolation of planes in the ALS points that form the triangles. In each cluster point group a plane in object space is interpolated. All planes derived from the data set are intersected with their appropriate neighbours. From this, a roof topology is established, which describes the shape of the roof. This ensures that each plane has knowledge on its direct adjacent neighbours. Walls are added to the intersected roof planes and the virtual 3D building model is presented in a file written in VRML (Virtual Reality Macro Language). Besides developing the 3D building model reconstruction scheme, this research focuses on the geometric reconstruction and the derivation of attributes of 3D building models. The developed method was tested on different data sets obtained from different laser scanner systems. This study will also show, which potential and limits the developed method has when applied to these different data sets. / In der vorliegenden Arbeit wird eine neue Methode zur automatischen Rekonstruktion von 3D Gebäudemodellen aus Flugzeuglaserscannerdaten vorgestellt. Diese 3D Gebäudemodelle können in technischer und landschaftsplanerischer Hinsicht genutzt werden. Bezüglich der zu entwickelnden Methode wurden Regelungen und Bedingungen erstellt, die eine voll automatische und robuste Arbeitsweise sowie eine flexible und praktikable Nutzung gewährleisten sollten. Die entwickelte Methode verwendet Punktwolken, welche mittels einer Vorsegmentierung aus dem gesamten Laserscannerdatensatz extrahiert wurden und jeweils nur ein Gebäude beinhalten. Diese Laserscannerdatenpunktwolken werden separat analysiert. Eine 2,5D-Delaunay-Dreiecksvermaschung (TIN) wird in jede Punktwolke gerechnet. Für jedes Dreieck dieser Vermaschung werden die Lageparameter im Raum (Ausrichtung, Neigungsgrad und senkrechter Abstand der Ebene des Dreiecks zum Schwerpunkt der Punktwolke) bestimmt und in einen Parameterraum aufgetragen. Im Parameterraum bilden diejenigen Dreiecke Gruppen, welche sich im Objektraum auf ebenen Flächen befinden. Mit der Annahme, dass sich ein Gebäude aus ebenen Flächen zusammensetzt, dient die Identifizierung von Clustern im Parameterraum der Detektierung dieser Flächen. Um diese Gruppen/Cluster aufzufinden wurde eine Clusteranalysetechnik genutzt. Über die detektierten Cluster können jene Laserscannerpunkte im Objektraum bestimmt werden, die eine Dachfläche formen. In die Laserscannerpunkte der somit gefundenen Dachflächen werden Ebenen interpoliert. Alle abgeleiteten Ebenen gehen in den entwickelten Rekonstruktionsalgorithmus ein, der eine Topologie zwischen den einzelnen Ebenen aufbaut. Anhand dieser Topologie erhalten die Ebenen ?Kenntnis? über ihre jeweiligen Nachbarn und können miteinander verschnitten werden. Der fertigen Dachgestalt werden Wände zugefügt und das komplette 3D Gebäudemodell wird mittels VRML (Virtual Reality Macro Language) visualisiert. Diese Studie bezieht sich neben der Entwicklung eines Schemas zu automatischen Gebäuderekonstruktion auch auf die Ableitung von Attributen der 3D Gebäudemodellen. Die entwickelte Methode wurde an verschiedenen Flugzeuglaserscannerdatensätzen getestet. Es wird gezeigt, welche Potentiale und Grenzen die entwickelte Methode bei der Bearbeitung dieser verschiedenen Laserscannerdatensätze hat.
13

B2C電子商務信任之研究:以齊氏影響力模式闡述網路購物流程 / A study of B2C E-Commerce trust: applying cialdini’s influence model to internet shopping process

吳翊齊, Wu, Yi Chi Unknown Date (has links)
網際網路的成長,促使電子商務快速發展。然而,回顧電子商務的市場現況,即使網路購物規模不斷成長,但是卻仍有54.9%的網路商店未能達到損益平衡,主要原因在於激烈的市場競爭環境導致商品毛利率降低,獲利速度減緩。因此,資策會認為網路商店若想在競爭市場中脫穎而出,網站的技術安全必須值得消費者信任。   消費者不願意在網路上購買商品或服務,是因為缺乏對網路購物相關安全性的信任與缺乏對網路上企業可靠性的信任。因此,如何建立消費者對網路商店的「信任」,是企業獲得顧客的關鍵因素。   過去文獻指出,信任信念能藉由改善網站的結構性確保來提升,且消費者對網站的信任信念會影響到其信任網站的態度。因此,本研究根據文獻探討的方式找出Cialdini影響力模式及其所會影響的消費者信任信念的各個構面,並利用此模式作為結構性確保的實驗變數來設計網站,從中操弄各項實驗變數以探討各種不同影響力原則影響消費者信任信念之效果。接著,再進一步分析各個信任信念分別如何影響消費者的信任態度,以全盤了解消費者初次瀏覽網路商店網站時,利用Cialdini影響力模式所歸納的網站結構性確保所影響之效果。   本研究透過實驗室實驗法模擬網路商店的購物情境,並操控不同Cialdini影響力原則所設計的結構性確保,研究結果發現: 1. 除了「好感」原則的結構性確保外,網站中其餘的結構性確保在消費者瀏覽網路商店時,皆會正向影響到消費者的信任信念。 2. 消費者的「認知診斷」、「認知保證」、「認知信心」、「認知能力」、「認知可靠」、「認知嚮往」等信任信念的各個構面,會正向影響消費者的「信任態度」。 / The e-commerce environment has developed rapidly with the fast growth of Internet. However, by reviewing the market status of e-commerce, there were still 54.9% of Internet shops which couldn’t make the profit and loss balance even the internet shopping was growing constantly. The environment was so competitive that the profit margin of product reduced and the rate of making profits slowed down. Therefore, the Institute for Information Industry advised internet shops to enhance their internet security of websites if they wanted to stand out from the competitive environment.  Consumers are not willing to purchase the products or services due to the lack of trust in the security of the website and credibility of the internet shops. For this reason, the key to gain the consumers is how to make them trust the internet shops.  Past researches indicated that the consumer’s trusting beliefs can be enhanced by improving the structural assurance of the website. In addition, these trusting beliefs were positively related to the trusting attitude toward the website. Therefore, we identified the constructs of the trusting beliefs which could be affected by Cialdini’s Influence Model from literature review. We used this model to design the structural assurances of the website as experimental variables to probe the differences of consumer’s trusting beliefs under the model’s principles. Furthermore, we understand the effect of structural assurance by analyzing how the constructs of trusting beliefs affected consumers’ trusting attitude when consumers visit the Internet shop at the first time.  This research manipulated the principles of Cialdini’s Influence Model to design the structural assurance of website and simulated the situation of internet shopping via laboratory experimentation. The research result was shown as below: 1. The structural assurances designed by Cialdini’s Influence Model were positively related to the trusting beliefs of consumers except the “Liking” principle. 2. The constructs of consumer’s trusting beliefs were related to the trusting attitude toward the website positively and respectively.
14

Thermal storage solutions for a building in a 4th generation district heating system : Development of a dynamic building model in Modelica

Eriksson, Rickard, Andersson, Pontus January 2018 (has links)
The world is constantly striving towards a more sustainable living, where every part of contribution is greatly appreciated. When it comes to heating of buildings, district heating is often the main source of heat. During specific times, peak demands are created by the tenants who are demanding a lot of heat at the same time. This demand peak puts a high load on the piping system as well as the need for certain peak boilers that run on non-environmental friendly peak fuel. One solution that is presented in this degree project that solves the time difference between production and demand is by utilizing thermal storage solutions. A dynamic district heated building model is developed with proper heat propagation in the pipelines, thermal inertia in the building and heat losses through the walls of the building. This is all done utilizing 4th generation district heating temperatures. Modelica is the tool that was used to simulate different scenarios, where the preheating of indoor temperature is done to mitigate the possibility for demand peaks. Using an already existing model, implementation and adjustments are done to simulate thermal storage and investigate its effectiveness in a 4th generation district heating system. The results show that short-term energy storage is a viable solution in concrete buildings due to high building mass. However, combining both 4th generation district heating with storage in thermal mass is shown not to be suitable due to low temperatures of supply water, which is not able to increase the temperature of the building’s mass enough.
15

Entwicklung eines Verfahrens für die Koregistrierung von Bildverbänden und Punktwolken mit digitalen Bauwerksmodellen

Kaiser, Tim 08 November 2021 (has links)
Aufgrund der weiter fortschreitenden Digitalisierung verändern sich die seit langer Zeit etablierten Prozesse im Bauwesen. Dies zeigt sich zum Beispiel in der stetig steigenden Bedeutung des Building Information Modelings (BIM). Eine der wesentlichen Grundideen von BIM besteht darin, das zentrale Modell über den gesamten Lebenszyklus des Bauwerks zu verwenden. Das digitale Bauwerksmodell stellt somit eine der zentralen Komponenten der BIM-Methode dar. Neben den rein geometrischen Ausprägungen des Bauwerks werden im Modell auch eine Vielzahl an semantischen Informationen vorgehalten. Da insbesondere bei größeren Bauwerken ein fortlaufender Veränderungsprozess stattfindet, muss das Modell entsprechend aktualisiert werden, um dem tatsächlichen Istzustand zu entsprechen. Diese Aktualisierung betrifft nicht nur Veränderungen in der Geometrie, sondern auch in den verknüpften Sachdaten. Bezüglich der Aktualisierung des Modells kann die Photogrammetrie mit ihren modernen Messverfahren wie zum Beispiel Structure-from-Motion (SfM) und daraus abgeleiteten Punktwolken einen wesentlichen Beitrag zur Datenerfassung des aktuellen Zustands leisten. Für die erfolgreiche Verknüpfung des photogrammetrisch erfassten Istzustands mit dem durch das Modell definierten Sollzustand müssen beide Datentöpfe in einem gemeinsamen Koordinatensystem vorliegen. In der Regel werden zur Registrierung photogrammetrischer Produkte im Bauwerkskoordinatensystem definierte Passpunkte verwendet. Der Registrierprozess über Passpunkte ist jedoch mit einem erheblichen manuellen Aufwand verbunden. Um den Aufwand der Registrierung möglichst gering zu halten, wurde daher in dieser Arbeit ein Konzept entwickelt, das es ermöglicht, kleinräumige Bildverbände und Punktwolken automatisiert mit einem digitalen Bauwerksmodell zu koregistrieren. Das Verfahren nutzt dabei geometrische Beziehungen zwischen aus den Bildern extrahierten 3D-Liniensegmenten und Begrenzungsflächen, die aus dem digitalen Bauwerksmodell gewonnen werden. Die aufgenommenen Bilder des Objektes dienen zu Beginn als Grundlage für die Extraktion von zweidimensionalen Linienstrukturen. Auf Basis eines über SfM durchgeführten Orientierungsprozesses können diese zweidimensionalen Kanten zu einer Rekonstruktion in Form von 3D-Liniensegmenten weiterverarbeitet werden. Die weiterhin benötigten Begrenzungsflächen werden aus einem mit Hilfe der Industry Foundation Classes (IFC) definierten BIM-Modell gewonnen. Das entwickelte Verfahren nutzt dabei auch die von IFC bereitgestellten Möglichkeiten der räumlichen Aggregationshierarchien. Im Zentrum des neuen Koregistrieransatzes stehen zwei große Komponenten. Dies ist einerseits der mittels eines Gauß-Helmert-Modells umgesetze Ausgleichungsvorgang zur Transformationsparameterbestimmung und andererseits der im Vorfeld der Ausgleichung angewandten Matching-Algorithmus zur automatischen Erstellung von Korrespondenzen zwischen den 3D-Liniensegmenten und den Begrenzungsflächen. Die so gebildeten Linien-Ebenen-Paare dienen dann als Beobachtung im Ausgleichungsprozess. Da während der Parameterschätzung eine durchgängige Betrachtung der stochastischen Informationen der Beobachtungen erfolgt, ist am Ende des Registrierprozesses eine Qualitätsaussage zu den berechneten Transformationsparametern möglich. Die Validierung des entwickelten Verfahrens erfolgt an zwei Datensätzen. Der Datensatz M24 diente dabei zum Nachweis der Funktionsfähigkeit unter Laborbedingungen. Über den Datensatz Eibenstock konnte zudem nachgewiesen werden, dass das Verfahren auch in praxisnahen Umgebungen auf einer realen Baustelle zum Einsatz kommen kann. Für beide Fälle konnte eine gute Registriergenauigkeit im Bereich weniger Zentimeter nachgewiesen werden.:Kurzfassung 3 Abstract 4 1. Einleitung 7 1.1. Photogrammetrie und BIM 7 1.2. Anwendungsbezug und Problemstellung 7 1.3. Zielsetzung und Forschungsfragen 9 1.4. Aufbau der Arbeit 10 2. Grundlagen 12 2.1. Photogrammetrie 12 2.1.1. Structure-from-Motion (SfM) 12 2.1.2. Räumliche Ähnlichkeitstransformation 14 2.2. Building Information Modeling (BIM) 16 2.2.1. Besonderheiten der geometrisch / topologischen Modellierung 18 2.2.2. Industry Foundation Classes (IFC) 19 2.3. Parameterschätzung und Statistik 21 2.3.1. Nicht lineares Gauß-Helmert-Modell mit Restriktionen 21 2.3.2. Random Sample Consensus (RANSAC) 23 2.3.3. Density-Based Spatial Clustering of Applications with Noise (DBSCAN) 24 3. Stand der Forschung 26 4. Automatische Koregistrierung von Bildverbänden 30 4.1. Überblick 30 4.2. Relative Orientierung des Bildverbandes und Extraktion der 3D-Liniensegmente 33 4.2.1. Line3D++ 33 4.2.2. Stochastische Informationen der 3D-Liniensegmente 36 4.3. Ebenenextraktion aus dem digitalen Gebäudemodell 37 4.4. Linien-Ebenen-Matching 42 4.4.1. Aufstellen von Ebenenhypothesen 42 4.4.2. Analyse und Clustern der Normalenvektorhypothesen 43 4.4.3. Erstellung von Minimalkonfigurationen 44 4.5. Berechnung von Näherungswerten für die Transformationsparameter 46 4.6. Implementiertes Ausgleichungsmodell 49 4.6.1. Funktionales Modell 49 4.6.2. Stochastisches Modell 50 4.7. Entscheidungskriterien der kombinatorischen Auswertung 51 5. Validierung der Methoden 56 5.1. Messung Seminarraum M24 HTW Dresden 56 5.1.1. Untersuchung des Einfluss der SfM2BIM -Programmparameter 59 5.1.2. Ergebnisse der Validierung 64 5.2. Messung LTV Eibenstock 71 6. Diskussion der Ergebnisse 81 6.1. Bewertung der erzielten Genauigkeit 81 6.2. Bewertung der Automatisierbarkeit 82 6.3. Bewertung der praktischen Anwendbarkeit 83 6.4. Beantwortung der Forschungsfragen 85 7. Zusammenfassung und Ausblick 88 Literaturverzeichnis 90 Abbildungsverzeichnis 94 Tabellenverzeichnis 96 A. Anhang 97 A.1. Systemarchitektur SfM2BIM 97 A.2. Untersuchung SfM2BIM Parameter 97 / Due to the ongoing digitalization, traditional and well-established processes in the construction industry face lasting transformations. The rising significance of Building Information Modeling (BIM) can be seen as an example for this development. One of the core principles of BIM is the usage of the model throughout the entire life cycle of the building. Therefore, the digital twin can be regarded as one of the central components of the BIM method. Besides of the pure geometry of the building the corresponding model also contains a huge amount of semantic data. Especially in large building complexes constant changes are taking place. Consequently, the model also has to be updated regularly in order to reflect the actual state. These actualizations include both changes in geometry and in the linked technical data. Photogrammetry with its modern measuring and reconstruction techniques like structure from motion can help to facilitate this update process. In order to establish a link between the photogrammetric recorded present state and the nominal state specified by the building model both datasets have to be available in a common reference frame. Usually ground control points are used for registering the photogrammetric results with the building coordinate system. However, using ground control points results in a very labor-intensive registration process. In order to keep the required effort as low as possible this work proposes a novel concept to automatically co-register local image blocks with a digital building model. The procedure makes use of geometric relationships between 3D-linesegments that get extracted from the input images and bounding surfaces that are derived from the building model. At first the captured images are used to extract two-dimensional line patterns. These edges get further processed to 3D line segments based on an orientation estimation using structure from motion. The additionally required bounding surfaces are derived from a building model defined by the Industry Foundation Classes (IFC). The spatial aggregation structures defined in the IFC are used for alleviating the procedure. Two big components form the core piece of the novel approach. On the one hand this is the adjustment calculation for the estimation of transformation parameters using a full Gauß-Helmert-Model and the developed matching algorithm for establishing line-plane-correspondences on the other hand. The so formed correspondences serve as the observation for the adjustment process. During the parameter estimation stochastic information of the observations is completely considered. Therefore, quality predictions can be made upon completion of the registration process. The validation of the developed was conducted using two datasets. The dataset M24 served as primary validation source since the results of the algorithm could be checked under laboratory conditions and compared with results obtained by ground control points. By examine the Eibenstock dataset it could be demonstrated that the procedure also works in practical conditions on a real construction site. For both cases the registration accuracy averages to a few centimeters.:Kurzfassung 3 Abstract 4 1. Einleitung 7 1.1. Photogrammetrie und BIM 7 1.2. Anwendungsbezug und Problemstellung 7 1.3. Zielsetzung und Forschungsfragen 9 1.4. Aufbau der Arbeit 10 2. Grundlagen 12 2.1. Photogrammetrie 12 2.1.1. Structure-from-Motion (SfM) 12 2.1.2. Räumliche Ähnlichkeitstransformation 14 2.2. Building Information Modeling (BIM) 16 2.2.1. Besonderheiten der geometrisch / topologischen Modellierung 18 2.2.2. Industry Foundation Classes (IFC) 19 2.3. Parameterschätzung und Statistik 21 2.3.1. Nicht lineares Gauß-Helmert-Modell mit Restriktionen 21 2.3.2. Random Sample Consensus (RANSAC) 23 2.3.3. Density-Based Spatial Clustering of Applications with Noise (DBSCAN) 24 3. Stand der Forschung 26 4. Automatische Koregistrierung von Bildverbänden 30 4.1. Überblick 30 4.2. Relative Orientierung des Bildverbandes und Extraktion der 3D-Liniensegmente 33 4.2.1. Line3D++ 33 4.2.2. Stochastische Informationen der 3D-Liniensegmente 36 4.3. Ebenenextraktion aus dem digitalen Gebäudemodell 37 4.4. Linien-Ebenen-Matching 42 4.4.1. Aufstellen von Ebenenhypothesen 42 4.4.2. Analyse und Clustern der Normalenvektorhypothesen 43 4.4.3. Erstellung von Minimalkonfigurationen 44 4.5. Berechnung von Näherungswerten für die Transformationsparameter 46 4.6. Implementiertes Ausgleichungsmodell 49 4.6.1. Funktionales Modell 49 4.6.2. Stochastisches Modell 50 4.7. Entscheidungskriterien der kombinatorischen Auswertung 51 5. Validierung der Methoden 56 5.1. Messung Seminarraum M24 HTW Dresden 56 5.1.1. Untersuchung des Einfluss der SfM2BIM -Programmparameter 59 5.1.2. Ergebnisse der Validierung 64 5.2. Messung LTV Eibenstock 71 6. Diskussion der Ergebnisse 81 6.1. Bewertung der erzielten Genauigkeit 81 6.2. Bewertung der Automatisierbarkeit 82 6.3. Bewertung der praktischen Anwendbarkeit 83 6.4. Beantwortung der Forschungsfragen 85 7. Zusammenfassung und Ausblick 88 Literaturverzeichnis 90 Abbildungsverzeichnis 94 Tabellenverzeichnis 96 A. Anhang 97 A.1. Systemarchitektur SfM2BIM 97 A.2. Untersuchung SfM2BIM Parameter 97
16

3D Building Model Reconstruction from Very High Resolution Satellite Stereo Imagery

Partovi, Tahmineh 02 October 2019 (has links)
Automatic three-dimensional (3D) building model reconstruction using remote sensing data is crucial in applications which require large-scale and frequent building model updates, such as disaster monitoring and urban management, to avoid huge manual efforts and costs. Recent advances in the availability of very high-resolution satellite data together with efficient data acquisition and large area coverage have led to an upward trend in their applications for 3D building model reconstructions. In this dissertation, a novel multistage hybrid automatic 3D building model reconstruction approach is proposed which reconstructs building models in level of details 2 (LOD2) based on digital surface model (DSM) data generated from the very high-resolution stereo imagery of the WorldView-2 satellite. This approach uses DSM data in combination with orthorectified panchromatic (PAN) and pan-sharpened data of multispectral satellite imagery to overcome the drawbacks of DSM data, such as blurred building boundaries, rough building shapes unwanted failures in the roof geometries. In the first stage, the rough building boundaries in the DSM-based building masks are refined by classifying the geometrical features of the corresponding PAN images. The refined boundaries are then simplified in the second stage through a parameterization procedure which represents the boundaries by a set of line segments. The main orientations of buildings are then determined, and the line segments are regularized accordingly. The regularized line segments are then connected to each other based on a rule-based method to form polygonal building boundaries. In the third stage, a novel technique is proposed to decompose the building polygons into a number of rectangles under the assumption that buildings are usually composed of rectangular structures. In the fourth stage, a roof model library is defined, which includes flat, gable, half-hip, hip, pyramid and mansard roofs. These primitive roof types are then assigned to the rectangles based on a deep learning-based classification method. In the fifth stage, a novel approach is developed to reconstruct watertight parameterized 3D building models based on the results of the previous stages and normalized DSM (nDSM) of satellite imagery. In the final stage, a novel approach is proposed to optimize building parameters based on an exhaustive search, so that the two-dimensional (2D) distance between the 3D building models and the building boundaries (obtained from building masks and PAN image) as well as the 3D normal distance between the 3D building models and the 3D point clouds (obtained from nDSM) are minimized. Different parts of the building blocks are then merged through a newly proposed intersection and merging process. All corresponding experiments were conducted on four areas of the city of Munich including 208 buildings and the results were evaluated qualitatively and quantitatively. According to the results, the proposed approach could accurately reconstruct 3D models of buildings, even the complex ones with several inner yards and multiple orientations. Furthermore, the proposed approach provided a high level of automation by the limited number of primitive roof model types required and by performing automatic parameter initialization. In addition, the proposed boundary refinement method improved the DSM-based building masks specified by 8 % in area accuracy. Furthermore, the ridge line directions and roof types were detected accurately for most of the buildings. The combination of the first three stages improved the accuracy of the building boundaries by 70 % in comparison to using line segments extracted from building masks without refinement. Moreover, the proposed optimization approach could achieve in most cases the best combinations of 2D and 3D geometrical parameters of roof models. Finally, the intersection and merging process could successfully merge different parts of the complex building models.
17

Extension, Evaluation, and Validation of Load Based Testing for Residential and Commercial HVAC Equipment

Parveen Dhillon (14203079) 02 December 2022 (has links)
<p>With rising temperatures, urbanization, population growth, improving economic wellbeing, decarbonization and electrification efforts, the demand for space cooling and heating equipment is continuously increasing around the world. To counteract the effect of rising demand for air conditioners and heat pumps on total energy consumption, peak electricity demand, and emissions, it is crucial to promote the development and market penetration of energy-efficient systems. Establishing minimum energy performance standards (MEPS), energy labeling and utility programs are some of the effective and tested methods for achieving this goal. The technical basis for these energy efficiency standards is a testing and rating procedure for estimating equipment seasonal performance from laboratory tests. Although the current rating procedures provide standardized metrics to compare different equipment performances, they fail to appropriately characterize the field representative performance of systems by not considering the effects of: 1) test unit embedded controls, thermostat, and realistic interactions with the building load and dynamics; 2) different climate zones and building types; and 3) and other integrated accessories for improving energy efficiency such as economizer for rooftop units (RTUs). Therefore, current approaches for performance ratings neither incentives the development and implementation of improved system and control designs nor consumers with a metric that represents the advanced systems' actual energy savings. To address this, a load-based testing methodology that enables dynamic performance evaluation of equipment with its integrated controls, thermostat, and other accessories was recently proposed. The test methodology is based on the concept of emulating the response of a representative building conditioned by the test unit in a test lab using a virtual building model. </p> <p>In this work, the proposed load-based testing methodology was further extended, evaluated, and validated for residential heat pumps to integrate it into next-generation energy efficiency testing and rating procedures and to serve as a tool for engineers to develop and validate improved control algorithms in a laboratory setting. Further, a load-based testing method for evaluating the dynamic performance of RTUs with integrated economizers was also developed and demonstrated.</p> <p>A load-based testing approach previously developed for residential cooling equipment is extended for heat pump heating-mode and demonstrated for a variable-speed system. The heat pump's typical dynamic behaviors are captured along with controller imperfections that aren't reflected in current testing approaches. Further, a comprehensive comparison was performed between the proposed load-based testing approach to the current steady-state testing approach in the U.S., AHRI 210/240, based on performance evaluation of three residential variable-speed heat pumps to understand the differences and their significance for the next-generation rating procedure. For cooling mode, steady-state testing estimates higher seasonal performance, but for heating mode, the steady-state testing approach estimates higher seasonal performance for warmer climates and is comparable for colder climates. The load-based testing methodology was validated by comparing the laboratory performance of a heat pump to that of a residential building in a controlled environment. The virtual building modeling approach for building loads and thermal dynamics effectively captured these characteristics of the house. The heat pump's cycling rate response with run-time fraction, which represents the unit's overall dynamic response, matched well between lab load-based tests and house tests. The test unit's COP difference for cooling and heating tests was within 3% between the two facilities, except for 9% in 95°F and 6% in 104°F cooling dry-coil test intervals. To evaluate the applicability of the developed load-based testing methodology as next-generation rating standards, its repeatability and reproducibility were assessed based on multiple heat pump round-robin tests conducted in two labs. Overall, reasonable to good repeatability was observed in load-based test results in both labs, however, poor reproducibility was observed except for one heat pump heating mode results. A root cause analysis of the observed differences along with recommendations for a next-generation rating approach are presented. This work aided in the development of a CSA (Canadian Standards Association) standard EXP07:19 and its subsequent revision for equipment rating based on load-based testing.</p> <p>The application of the load-based testing methodology as a tool for the development and evaluation of a residential heat pump controller design was demonstrated. Further, a load-based testing methodology was developed and demonstrated for the dynamic performance evaluation of RTUs with integrated economizers in a test laboratory setting. Recommendations for future work to further develop and improve the repeatability, reproducibility, and representativeness of the load-based testing and rating approach for residential and commercial air conditioners and heat pumps are summarized at the end of the dissertation. </p>
18

Perspektiven von Transaktionen in der Internet-Ökonomie am Beispiel der Reisebranche / Future Aspects of Transactions in the Internet-Economy - the Example of the Travel Industry

Brözel, Claudia 09 May 2012 (has links) (PDF)
Informationen stellen den zentralen Produktionsfaktor in der gesamten touristischen Wertschöpfungskette dar. Daher nehmen Informations- und Kommunikations-Technologien schon sehr lange eine zentrale Rolle in der Tourismusindustrie ein (z.B. Global Distribution Systems). Durch die Leistungssteigerung von IuK Systemen und der Entwicklung des Internets haben sich neue ökonomischen Gesetzmäßigkeiten entwickelt (z.B. Long Tail), die sich durch die Digitalisierung von Informationen und damit in geringen Produktions- und Distributionskosten darstellen. Mit den Möglichkeiten selbst Informationen zu produzieren und veröffentlichen, sind in den letzten Jahren auch die Kunden Teil der Wertschöpfungskette geworden. Durch die Immaterialität und Emotionalität von Reisen kombiniert mit der anonymen Transaktionssituation im Internet, wird Bewertungen, Fotos und Kommentaren anderer Nutzer ein größeres Vertrauen entgegengebracht, als den Informationen der Anbieter. Vertrauen aufzubauen und langfristig zu erhalten, ist daher für Reiseanbieter ein wesentlicher Erfolgsfaktor und zentrale Aufgabe. Bei einem Umsatzvolumen von 22 – 30 Milliarden des deutschen organisierten Reisemarktes geht man im Jahr 2010 von einem online generierten Umsatzanteil von 40% [siehe Tabelle 3 und Tabelle 4] aus, der weiter steigt. Die traditionelle touristische Wertschöpfungskette ist aufgebrochen, da jede Teilbranche mit den Kunden im Internet vernetzt sein kann und zusätzlich neue Anbieter mit technischem Hintergrund in den Markt drängen. So kann die neue Wertschöpfungsstruktur als Matrix aufgefasst werden. Damit werden die klassischen Rollen von Produzenten, Leistungsträger und Intermediären grundlegend in Frage gestellt. Die technische Entwicklung einerseits und die Generationsentwicklung (Digital Natives) andererseits verändern die Reisebranche grundlegend. In Fokusgruppeninterviews mit Digital Natives analysiert die vorliegende Untersuchung, wie wichtig für die Generation von morgen die Kommunikation für die Aktionsbereitschaft in ihrem wahrgenommenen Spannungsfeld von Möglichkeiten und Risiken im Internet ist. In der Hauptstudie, dem Experten-Delphi, nahmen 37 Teilnehmer aus allen Teilbranchen der touristischen Wertschöpfungskette zu 24 Thesen aus drei entwicklungsrelevanten Themenbereichen Stellung. Während der Internetzugang und die aktive Nutzung für die Experten ein Generationsthema ist, das sich zunehmend auflöst, sehen die Experten mehrheitlich, dass das Netz, auch über mobile Endgeräte, das Leitmedium für die Zukunft darstellt. Die Folge daraus sind Einflüsse auf die Marktstrukturen, die einerseits in einer Fragmentierung und andererseits in einer starken Konzentration gesehen werden. Die Veränderung und Entwicklung der Reiseindustrie definiert sich, laut den befragten Experten, in den Datenstrukturen. Die Möglichkeiten, Angebote im Netz flexibel darzustellen, diese zu vernetzen und auffindbar zu machen, ist aus ihrer Sicht der essenzielle Erfolgsfaktor für die Marktteilnehmer. Die Datenstrukturen und die Datenqualität bestimmen aus Expertensicht die Zukunft für die Branche, da sie auch Glaubwürdigkeit und Vertrauen in die Anbieter und Produkte herstellen können. Eine Folge aus der Technisierung ist die vielfach angesprochene fehlende Bildung und Ausbildung angehender Touristiker in Bezug auf die Technologie und Anwendung der Systeme.
19

Perspektiven von Transaktionen in der Internet-Ökonomie am Beispiel der Reisebranche: Future Aspects of Transactions in the Internet-Economy - the Example of the Travel Industry

Brözel, Claudia 23 April 2012 (has links)
Informationen stellen den zentralen Produktionsfaktor in der gesamten touristischen Wertschöpfungskette dar. Daher nehmen Informations- und Kommunikations-Technologien schon sehr lange eine zentrale Rolle in der Tourismusindustrie ein (z.B. Global Distribution Systems). Durch die Leistungssteigerung von IuK Systemen und der Entwicklung des Internets haben sich neue ökonomischen Gesetzmäßigkeiten entwickelt (z.B. Long Tail), die sich durch die Digitalisierung von Informationen und damit in geringen Produktions- und Distributionskosten darstellen. Mit den Möglichkeiten selbst Informationen zu produzieren und veröffentlichen, sind in den letzten Jahren auch die Kunden Teil der Wertschöpfungskette geworden. Durch die Immaterialität und Emotionalität von Reisen kombiniert mit der anonymen Transaktionssituation im Internet, wird Bewertungen, Fotos und Kommentaren anderer Nutzer ein größeres Vertrauen entgegengebracht, als den Informationen der Anbieter. Vertrauen aufzubauen und langfristig zu erhalten, ist daher für Reiseanbieter ein wesentlicher Erfolgsfaktor und zentrale Aufgabe. Bei einem Umsatzvolumen von 22 – 30 Milliarden des deutschen organisierten Reisemarktes geht man im Jahr 2010 von einem online generierten Umsatzanteil von 40% [siehe Tabelle 3 und Tabelle 4] aus, der weiter steigt. Die traditionelle touristische Wertschöpfungskette ist aufgebrochen, da jede Teilbranche mit den Kunden im Internet vernetzt sein kann und zusätzlich neue Anbieter mit technischem Hintergrund in den Markt drängen. So kann die neue Wertschöpfungsstruktur als Matrix aufgefasst werden. Damit werden die klassischen Rollen von Produzenten, Leistungsträger und Intermediären grundlegend in Frage gestellt. Die technische Entwicklung einerseits und die Generationsentwicklung (Digital Natives) andererseits verändern die Reisebranche grundlegend. In Fokusgruppeninterviews mit Digital Natives analysiert die vorliegende Untersuchung, wie wichtig für die Generation von morgen die Kommunikation für die Aktionsbereitschaft in ihrem wahrgenommenen Spannungsfeld von Möglichkeiten und Risiken im Internet ist. In der Hauptstudie, dem Experten-Delphi, nahmen 37 Teilnehmer aus allen Teilbranchen der touristischen Wertschöpfungskette zu 24 Thesen aus drei entwicklungsrelevanten Themenbereichen Stellung. Während der Internetzugang und die aktive Nutzung für die Experten ein Generationsthema ist, das sich zunehmend auflöst, sehen die Experten mehrheitlich, dass das Netz, auch über mobile Endgeräte, das Leitmedium für die Zukunft darstellt. Die Folge daraus sind Einflüsse auf die Marktstrukturen, die einerseits in einer Fragmentierung und andererseits in einer starken Konzentration gesehen werden. Die Veränderung und Entwicklung der Reiseindustrie definiert sich, laut den befragten Experten, in den Datenstrukturen. Die Möglichkeiten, Angebote im Netz flexibel darzustellen, diese zu vernetzen und auffindbar zu machen, ist aus ihrer Sicht der essenzielle Erfolgsfaktor für die Marktteilnehmer. Die Datenstrukturen und die Datenqualität bestimmen aus Expertensicht die Zukunft für die Branche, da sie auch Glaubwürdigkeit und Vertrauen in die Anbieter und Produkte herstellen können. Eine Folge aus der Technisierung ist die vielfach angesprochene fehlende Bildung und Ausbildung angehender Touristiker in Bezug auf die Technologie und Anwendung der Systeme.:Inhaltsverzeichnis Zusammenfassung Inhaltsverzeichnis Abkürzungsverzeichnis Tabellenverzeichnis Abbildungsverzeichnis I Einleitung und aktueller Bezugsrahmen 1 Einführung in die Untersuchung 1.1 Ausgangssituation 1.2 Zielsetzung der Arbeit 1.3 Vorgehen und Aufbau der Arbeit 2 Internetentwicklung und Reiseindustrie 2.1 Die Internetentwicklung Stand 2010 2.2 Einfluss der Internetentwicklung auf die Reisebranche Stand 2010 2.2.1 Die Transformation der traditionellen Wertschöpfungskette 2.2.2 Die Entwicklung des Informationsmanagements 2.2.3 Die Konversion als Erfolgsindikator 2.2.4 Die Veränderung des Informationsverhaltens der Konsumenten 2.3 Die Konsumenten von morgen: Digital Natives 2.3.1 Merkmale der Generation: Digital Natives 2.3.2 Definition und Charakteristik 2.3.3 Daten und Fakten zu Digital Natives 2.3.3.1 Die ARD/ZDF-Onlinestudie 2.3.3.2 Die VerbraucherAnalyse 3 Relevanz der Forschungsarbeit II Theoretische Grundlagen 1 Einführung und Überblick 2 Organisationstheorie und Koordination 2.1 Die Transaktionskostentheorie 2.2 Der IT-Einfluss auf die Transaktionskosten 3 Die Internet-Ökonomie 3.1 Begriff und Abgrenzung 3.2 Empirische Gesetze der Internet-Ökonomie 3.2.1 Moores Law 3.2.2 Gilders Law 3.2.3 Huntleys Law 3.2.4 Metcalfes Law 3.2.5 Reeds Law 3.2.6 Jacobs Law 3.2.7 Long Tail 3.2.8 Arthurs Law 3.3 Charakteristika der Internet-Ökonomie 3.4 Wertschöpfung in der Internet-Ökonomie 4 Das Konstrukt Vertrauen 4.1 Begriff und Merkmale 4.2 Vertrauen: die ökonomische Perspektive 4.3 Vertrauen: die technisch-abstrakte Perspektive 4.4 Vertrauen: die internet-ökonomische Perspektive 5 Modellkonstitution der 3 Vertrauensebenen 5.1 Aufbau und Diskussion des eigenen Modellansatzes 5.2 Bestimmung der drei Vertrauensebenen 5.3 Studiengestaltung zum Modell III Empirische Untersuchungen 1 Methodenwahl und Analysewerkzeug 1.1 Das Fokusgruppeninterview 1.1.1 Vorteile von Fokusgruppeninterviews 1.1.2 Grenzen des Fokusgruppeninterviews 1.2 Die Experten-Delphi-Befragung 1.2.1 Vorteile des Delphi-Verfahrens 1.2.2 Grenzen des Delphi-Verfahrens 1.3 Analysemethode: Grounded Theory 1.3.1 Schlüsselelemente der Methode Grounded Theory 1.3.2 Möglichkeiten und Grenzen der Grounded Theory 2 Die Vorstudie: Digital Natives in Fokusgruppen 2.1 Rekrutierung der Teilnehmer 2.2 Fokusgruppeninterviews : Teilnehmerbeschreibung 2.3 Leitfragen der Fokusgruppeninterviews 2.4 Analyse der Fokusgruppeninterviews 2.4.1 Analyseschritt 1: Die Wortwolke 2.4.2 Analyseschritt 2: Die Kategorisierung 2.4.3 Analyseschritt 3: Das Kodierparadigma zur Untersuchung 2.4.4 Fazit der Vorstudie: Das Interaktionsmodell 3 Die Hauptstudie: Das Experten-Delphi 3.1 Die Ausgangshypothesen 3.2 Das Erhebungsdesign 3.2.1 Auswahl und Rekrutierung der Teilnehmer 3.2.2 Thesengenerierung und Feedback 3.2.3 Methodensteckbrief 3.3 Die Delphi-Analyse 3.3.1 Übersicht zur qualitativen Analyse 3.3.2 Teilbranchen 3.3.3 Teil (1) Internetnutzung und -zugang 3.3.4 Treiber und Barrieren der Rahmenbedingungen 3.3.5 Teil (2) Digitale Märkte- Netzwerke – Online Reiseindustrie 3.3.6 Treiber und Barrieren Digitaler Märkte 3.3.7 Teil (3) Schwerpunkt: Vertrauen 3.3.8 Ausblick: 3 Themen der Zukunft IV Diskussion der Ergebnisse 1 Interpretation der Delphi-Ergebnisse 2 Reflektion der Hypothesen 3 Reflektion des Modells der drei Vertrauensebenen 4 Güteabwägung des methodischen Ansatzes 5 Fazit und Ausblick Literaturverzeichnis Lebenslauf/Vita Eidesstattliche Erklärung Der Anhang befindet sich im Anlagenband

Page generated in 0.0366 seconds