11 |
Virtual Reality als zentrale Komponente einer PLM-Strategie – Herausforderungen und UmsetzungskonzepteStelzer, Ralph H., Steger, Wolfgang, Petermann, Dirk 25 September 2017 (has links) (PDF)
PLM-Strategien stehen heute vor der Herausforderung, immer größere und vor allem auch immer komplexer vernetzte Informationen über Produkte nicht nur, wie im Rahmen von klassischen PDM-Lösungen üblich, weitgehend auf mechanische Komponenten beschränkt für die Produktentwicklung zu verwalten, sondern Lösungen für den gesamten Produktlebenszyklus bereitzustellen. Dabei müssen zum einen vielfältige mechatronische Komponenten (Mechanik, Elektrik, Elektronik und Software), große Komponentenzahlen, tiefe Strukturen, große Variantenvielfalt sowie z.B. auch servicebezogene Informationen abgebildet werden. Zum anderen sind diese Informationen im Kontext einer verteilten Nutzung (collaborative engineering) von der Anforderungsdefinition über die frühen Entwicklungsphasen (front loading) bis zur Wartungsunterstützung bereitzustellen.
|
12 |
Virtual Reality als zentrale Komponente einer PLM-Strategie – Herausforderungen und UmsetzungskonzepteStelzer, Ralph H., Steger, Wolfgang, Petermann, Dirk 25 September 2017 (has links)
PLM-Strategien stehen heute vor der Herausforderung, immer größere und vor allem auch immer komplexer vernetzte Informationen über Produkte nicht nur, wie im Rahmen von klassischen PDM-Lösungen üblich, weitgehend auf mechanische Komponenten beschränkt für die Produktentwicklung zu verwalten, sondern Lösungen für den gesamten Produktlebenszyklus bereitzustellen. Dabei müssen zum einen vielfältige mechatronische Komponenten (Mechanik, Elektrik, Elektronik und Software), große Komponentenzahlen, tiefe Strukturen, große Variantenvielfalt sowie z.B. auch servicebezogene Informationen abgebildet werden. Zum anderen sind diese Informationen im Kontext einer verteilten Nutzung (collaborative engineering) von der Anforderungsdefinition über die frühen Entwicklungsphasen (front loading) bis zur Wartungsunterstützung bereitzustellen.
|
13 |
Ein Beitrag zur Verwendung von Technologien der Virtuellen Realität für Design-ReviewsPries, Margitta, Wagner, Ute, Israel, Johann Habakuk, Jung, Thomas 06 January 2020 (has links)
Heutige industrielle Produktentstehungsprozesse basieren in weiten Teilen auf dem Einsatz digitaler Methoden, weshalb man oft von Virtuellen Produktentstehungsprozessen (VPE) spricht (Stark et al., 2011). In diesen Prozessen können häufig Elemente bekannter Vorgehensmodelle wie der VDI 2221 (VDI-2221, 1993) oder des V-Modells (Rausch, 2006; VDI-2206, 2003) wiedergefunden werden. Die im Rahmen der Produktentstehung getätigten Entwicklungsentscheidungen werden regelmäßig in sogenannten Design-Reviews geprüft und ggf. weiterentwickelt. Solche Design-Reviews sind typischerweise interdisziplinär z. B. mit Ingenieuren, Designern und Mitgliedern der Geschäftsführung besetzt (Fu & East, 1999). Sie dienen als Element der Qualitätskontrolle und können Ideengeber für konstruktive Lösungen und Entwicklungsimpulse sein. Dabei werden beispielsweise grundsätzliche Entscheidungen zur Auswahl von Varianten getroffen, die Gestaltung konstruktiver Details erörtert oder die Möglichkeit des Ein- und Ausbaus von Produktelementen im Servicefall getestet. Die Verwendung virtueller statt physischer Prototypen bietet dabei einen Zeit- und Kostenvorteil (Spur & Krause, 1997). In Teilbereichen des Produktentwicklungsprozesses, in denen Materialität eine wesentliche Rolle spielt, finden physische Modelle und Prototypen weiterhin Verwendung; zum Beispiel werden Tonmodelle nach wie vor im Fahrzeugdesign eingesetzt (Daimler-AG, 2008).
|
14 |
Entwicklung einer Methode zum Aufdecken von potentiellen Fehlern in der KonstruktionHenze, Lars 19 June 2008 (has links)
Vorbeugende QM-Techniken operationalisieren die Funktionen des Qualitätsmanagements
(QM) mit dem Ziel einer abgesicherten Produktentstehung. Sie leisten einen wesentlichen
Beitrag zur Erhöhung der Produktqualität. Jedoch zeigen Untersuchungen, dass deren
Einsatz häufig sehr große Probleme bereitet.
Die vorliegende Arbeit untersucht vordergründig die FMEA, QFD und DRBFM. Neben
der Beschreibung ihrer Anwendungsbereiche, werden die Vorteile und Schwächen
gegenübergestellt. Es gilt, die Schwächen mit Hilfe einer neu entwickelten Methode zu
umgehen bzw. zu eliminieren.
Die Entwicklung zentraler Schwerpunkte zur Erreichung von Null-Fehlerqualität liefert die
Basis für die Erstellung einer Checkliste in Form eines Fragenkataloges. Ziel soll es sein,
durch die Systematik des Fragenkataloges und Wahl des Antwortformates Fehlerursachen
zu vermeiden.
|
15 |
NATURAL LANGUAGE PROCESSING-BASED AUTOMATED INFORMATION EXTRACTION FROM BUILDING CODES TO SUPPORT AUTOMATED COMPLIANCE CHECKINGXiaorui Xue (13171173) 29 July 2022 (has links)
<p> </p>
<p>Traditional manual code compliance checking process is a time-consuming, costly, and error-prone process that has many shortcomings (Zhang & El-Gohary, 2015). Therefore, automated code compliance checking systems have emerged as an alternative to traditional code compliance checking. However, computer software cannot directly process regulatory information in unstructured building code texts. To support automated code compliance checking, building codes need to be transformed to a computer-processable, structured format. In particular, the problem that most automated code compliance checking systems can only check a limited number of building code requirements stands out.</p>
<p>The transformation of building code requirements into a computer-processable, structured format is a natural language processing (NLP) task that requires highly accurate part-of-speech (POS) tagging results on building codes beyond the state of the art. To address this need, this dissertation research was conducted to provide a method to improve the performance of POS taggers by error-driven transformational rules that revise machine-tagged POS results. The proposed error-driven transformational rules fix errors in POS tagging results in two steps. First, error-driven transformational rules locate errors in POS tagging by their context. Second, error-driven transformational rules replace the erroneous POS tag with the correct POS tag that is stored in the rule. A dataset of POS tagged building codes, namely the Part-of-Speech Tagged Building Codes (PTBC) dataset (Xue & Zhang, 2019), was published in the Purdue University Research Repository (PURR). Testing on the dataset illustrated that the method corrected 71.00% of errors in POS tagging results for building codes. As a result, the POS tagging accuracy on building codes was increased from 89.13% to 96.85%.</p>
<p>This dissertation research was conducted to provide a new POS tagger that is tailored to building codes. The proposed POS tagger utilized neural network models and error-driven transformational rules. The neural network model contained a pre-trained model and one or more trainable neural layers. The neural network model was trained and fine-tuned on the PTBC (Xue & Zhang, 2019) dataset, which was published in the Purdue University Research Repository (PURR). In this dissertation research, a high-performance POS tagger for building codes using one bidirectional Long-short Term Memory (LSTM) Recurrent Neural Network (RNN) trainable layer, a BERT-Cased-Base pre-trained model, and 50 epochs of training was discovered. This model achieved 91.89% precision without error-driven transformational rules and 95.11% precision with error-driven transformational rules, outperforming the otherwise most advanced POS tagger’s 89.82% precision on building codes in the state of the art.</p>
<p>Other automated information extraction methods were also developed in this dissertation. Some automated code compliance checking systems represented building codes in logic clauses and used pattern matching-based rules to convert building codes from natural language text to logic clauses (Zhang & El-Gohary 2017). A ruleset expansion method that can expand the range of checkable building codes of such automated code compliance checking systems by expanding their pattern matching-based ruleset was developed in this dissertation research. The ruleset expansion method can guarantee: (1) the ruleset’s backward compatibility with the building codes that the ruleset was already able to process, and (2) forward compatibility with building codes that the ruleset may need to process in the future. The ruleset expansion method was validated on Chapters 5 and 10 of the International Building Code 2015 (IBC 2015). The Chapter 10 of IBC 2015 was used as the training dataset and the Chapter 5 of the IBC 2015 was used as the testing dataset. A gold standard of logic clauses was published in the Logic Clause Representation of Building Codes (LCRBC) dataset (Xue & Zhang, 2021). Expanded pattern matching-based rules were published in the dissertation (Appendix A). The expanded ruleset increased the precision, recall, and f1-score of the logic clause generation at the predicate-level by 10.44%, 25.72%, and 18.02%, to 95.17%, 96.60%, and 95.88%, comparing to the baseline ruleset, respectively. </p>
<p>Most of the existing automated code compliance checking research focused on checking regulatory information that was stored in textual format in building code in text. However, a comprehensive automated code compliance checking process should be able to check regulatory information stored in other parts, such as, tables. Therefore, this dissertation research was conducted to provide a semi-automated information extraction and transformation method for tabular information processing in building codes. The proposed method can semi-automatically detect the layouts of tables and store the extracted information of a table in a database. Automated code compliance checking systems can then query the database for regulatory information in the corresponding table. The algorithm’s initial implementation accurately processed 91.67 % of the tables in the testing dataset composed of tables in Chapter 10 of IBC 2015. After iterative upgrades, the updated method correctly processed all tables in the testing dataset. </p>
|
Page generated in 0.0495 seconds