• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 21
  • 7
  • 2
  • Tagged with
  • 80
  • 35
  • 26
  • 16
  • 16
  • 15
  • 14
  • 14
  • 13
  • 13
  • 13
  • 10
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Strukturierte Automatisierung des SystemTests (SAST)

Schiffmann, Jessica 14 March 2022 (has links)
Ziel der Arbeit war es, die Systemtestautomatisierung zu vereinfachen. Gerade in Hinblick auf Stabilität und Wiederverwendbarkeit konnten die in der Praxis eingesetzten Möglichkeiten nicht vollständig überzeugen. Der in der Abhandlung erarbeitet Zielzustand, die „strukturierte Automatisierung des SystemTests“ (SAST) integriert den Systemtest in „MOdel Compiler for generating Complete Applications“ (MOCCA), ein modelgetriebenes Anwendungsgenerierungsframework. MOCCA generiert aus Struktur- und Verhaltensmodellen voll-ständige Softwaresysteme. Er wurde an der TU Bergakademie Freiberg entwickelt. Zur leichtgewichtigen Modellierung des Anwendungsverhaltens wurde es durch die Dissertation von Dr. Liang (vgl. [Lian2013]) u. a. um eine Action Language eXtended Object Constraint Language (XOCL) erweitert. Diese Verhaltensbeschreibungsmöglichkeit wurde in SAST ebenso für die Verhaltensabbildung des Systemtests genutzt und bildet einen Pfeiler in dem erstellten Prototyp zur Systemtestgenerierung. SAST bezieht sich auf GUI-basierte Softwaresysteme. Sie bildet, wie es für den Systemtest charakteristisch ist, Fachprozesse anhand der Oberfläche ab. Zur Lösung wurden, neben dem Testverhalten, Artefakte zur Teststrukturierung, Schlüsselwortbildung und eine Ausführungs-Engine erstellt und in den bestehenden Generierungspro-zess von MOCCA eingefügt. Mit den grundlegenden Charakteristika der Lösung – modellgetrieben, schlüssel-wort-orientiert und in Testfällen strukturiert – unterstützt die Arbeit die angestrebten Verbesserungen: Wiederverwendbarkeit, Wartungsarmut und frühzeitige Testfallentwicklung. Eine Ausgestaltung für konkrete Testfälle ermöglicht schnelle Testschwerpunkte und -reduzierungen im Rahmen des risikobasierten Tests.:1 Einleitung 2 Theoretisches Fundament 3 Analyse bekannter Methoden für den Systemtest 4 Strukturierte Automatisierung des SystemTests 5 Prototypische Systemtestmodellierung 6 Proof of Concept: Anwendung ,TranscriptGenerator' 7 Abschließende Bewertung und weitere Möglichkeiten
62

Lernen mit dynamisch-ikonischen Repräsentationen aufgezeigt an Inhalten zur Mechanik / Learning from dynamic-iconic representations

Galmbacher, Matthias January 2007 (has links) (PDF)
Im Physikunterricht wurde lange Zeit die Bedeutung quantitativer Zusammenhänge für das Physiklernen überbewertet, qualitative Zusammenhänge spielten dagegen eine eher untergeordnete Rolle. Dies führte dazu, dass das Wissen der Schüler zumeist ober­fläch­lich blieb und nicht auf neue Situationen angewendet werden konnte. TIMSS und Pisa offenbarten diese Schwierigkeiten. In den Abschlussberichten wurde kritisiert, dass die Schüler kaum in der Lage seien, Lernstoff zu transferieren oder pro­blem­lösend zu denken. Um physikalische Abläufe deuten und entsprechende Probleme lösen zu können, ist qua­litativ-konzeptuelles Wissen nötig. Dieses kann, wie Forschungs­ergebnisse belegen, am besten durch die konstruktivistisch motivierte Gestaltung von Lern­situationen sowie durch die Inte­gration externer Repräsentationen von Versuchs­aussagen in den Schul­unter­richt er­reicht werden. Eine konkrete Umsetzung dieser Bedingungen stellt der Ein­satz rechner­gestützter Experimente dar, der heutzutage ohne allzu großen technischen Aufwand rea­lisiert werden kann. Diese Experimente erleichtern es dem Lernenden, durch den direk­ten Umgang mit realen Abläufen, physikalische Konzepte zu erschließen und somit qua­litative Zusammenhänge zu verstehen. Während man lange Zeit von einer grundsätzlichen Lernwirksamkeit animierter Lern­um­gebungen ausging, zeigen dagegen neuere Untersuchungen eher Gegenteiliges auf. Schüler müssen offensichtlich erst lernen, wie mit multicodierten Re­prä­sentationen zu arbeiten ist. Die vorliegende Arbeit will einen Beitrag dazu leisten, he­raus­zufinden, wie lernwirksam sogenannte dynamisch-ikonische Repräsentationen (DIR) sind, die physikalische Größen vor dem Hintergrund konkreter Versuchsabläufe visuali­sieren. Dazu bearbeiteten im Rahmen einer DFG-Studie insgesamt 110 Schüler jeweils 16 Projekte, in denen mechanische Konzepte (Ort, Geschwindigkeit, Beschleu­nigung und Kraft) aufgegriffen wurden. Es zeigte sich, dass die Probanden mit den ein­ge­setzten DIR nicht erfolgreicher lernen konnten als ver­gleich­bare Schüler, die die gleichen Lerninhalte ohne die Unter­stützung der DIR erarbeiteten. Im Gegen­teil: Schüler mit einem geringen visuellen Vorstellungsvermögen schnitten aufgrund der Darbietung einer zusätzlichen Codierung schlechter ab als ihre Mit­schüler. Andererseits belegen Untersuchungen von Blaschke, dass solche Repräsen­ta­tionen in der Erarbeitungsphase einer neu entwickelten Unter­richts­kon­zep­tion auch und gerade von schwächeren Schülern konstruktiv zum Wissens­erwerb genutzt werden konnten. Es scheint also, dass die Lerner zunächst Hilfe beim Umgang mit neuartigen Re­prä­sen­ta­tions­formen benötigen, bevor sie diese für den weiteren Aufbau adäqua­ter physi­ka­lischer Modelle nutzen können. Eine experimentelle Unter­suchung mit Schü­lern der 10. Jahrgangsstufe bestätigte diese Vermutung. Hier lernten 24 Probanden in zwei Gruppen die mechanischen Konzepte zu Ort, Geschwin­dig­keit und Beschleunigung kennen, bevor sie im Unter­richt behandelt wurden. Während die Teil­nehmer der ersten Gruppe nur die Simulationen von Bewegungsabläufen und die zuge­hörigen Liniendiagramme sahen, wurden für die zweite Gruppe unterstützend DIR eingesetzt, die den Zusammenhang von Bewe­gungs­ablauf und Linien­diagramm veranschaulichen sollten. In beiden Gruppen war es den Probanden möglich, Fragen zu stellen und Hilfe von einem Tutor zu erhalten. Die Ergebnis­se zeigten auf, dass es den Schülern durch diese Maßnahme ermöglicht wurde, die DIR erfolgreich zum Wissens­er­werb einzusetzen und sig­nifikant besser abzuschneiden als die Teilnehmer in der Kon­troll­­gruppe. In einer weiteren Untersuchung wurde abschließend der Frage nachgegangen, ob DIR unter Anleitung eines Tutors eventuell bereits in der Unterstufe sinnvoll eingesetzt werden können. Ausgangspunkt dieser Überlegung war die Tatsache, dass mit der Einführung des neuen bayerischen G8-Lehrplans wesentliche Inhalte, die Bestand­teil der vorherigen Untersuchungen waren, aus dem Physik­unterricht der 11. Jgst. in die 7. Jahrgangsstufe verlegt wurden. So bot es sich an, mit den Inhalten auch die DIR in der Unterstufe ein­zusetzen. Die Un­tersuchungen einer quasiexperimentellen Feldstudie in zwei siebten Klassen belegten, dass die betrachte­ten Repräsentationen beim Aufbau entsprechender Kon­zepte keinesfalls hinderlich, sondern sogar förder­lich sein dürften. Denn die Schüler­gruppe, die mit Hilfe der DIR lernte, schnitt im direkten hypothesenprüfenden Vergleich mit der Kontrollklasse deutlich besser ab. Ein Kurztest, der die Nachhaltigkeit des Gelernten nach etwa einem Jahr überprüfen sollte, zeigte zudem auf, dass die Schüler der DIR-Gruppe die Konzepte, die unter Zuhilfenahme der DIR erarbeitet wurden, im Vergleich zu Schülern der Kontrollklasse und zu Schülern aus 11. Klassen insgesamt überraschend gut verstanden und behalten hatten. / For a long time the significance of quantitative interrelations for the acquisition of physics has been overestimated in physics education while qualitative interrelations have been considered of less importance. This has resulted in the students’ knowledge most often remaining superficial and not suited to be adapted to new situations. TIMSS and Pisa have revealed these difficulties, criticizing the conventional physics education for de­manding too little transfer achievements and not preparing students to solve physical problems on their own by thinking constructively. To be able to solve physical problems and interpret physical processes, qualitative-con­ceptual knowledge is vital. According to results of the latest research this can be achieved most efficiently by creating constructivist learning situations as well as inte­grating external representations of conclusions from experiments. A concrete way to reach these envisaged aims is the application of PC-assisted experiments, which can be put in practise without an exceeding technical effort. These experiments enable the stu­dents - by being directly confronted with a realistic process - to get insight into physical concepts and thus to understand qualitative interrelations. For a long time a basic learning efficiency of animated learning environments was as­sumed, more recent research, however, has rather pointed in the opposite direction. Ob­viously students must first learn how to work with multi-coded representations. This pa­per is intended to contribute to the exploration of the efficiency of the so-called dynamic-iconic representations (DIR), which visualize physical values against the background of concrete test procedures. For this purpose 110 students have covered 16 projects each within a DFG study, in which mechanical concepts (place, velocity, acceleration and force) are dealt with and developed further. As it turned out, students working with the dynamic-iconic represen­tations did not learn more efficiently than those working without the assistance of the dynamic-iconic representations. On the contrary: students with a less distinct visual-spa­tial ability did worse than their fellow-students, obviously due to the presentation of yet another encoding. On the other hand research by Blaschke has proven that such representations can be used constructively to gain knowledge especially by the inefficient students during the acquisition stages of a (newly-developed) teaching conception. Consequently, it seems that students must first receive some sort of assistance with handling novel forms of representation before being able to use them for getting to know about the further construction of physical models. An experimental study with partici­pants from tenth-grade high school classes has confirmed this assumption. Another study dealt with the question as to whether dynamic-iconic representations can already be applied expediently in the lower grade. It was performed because significant contents of the physics year 11 curriculum had been moved to year 7 with the introduc­tion of the new Bavarian G8 (eight-year high school) curriculum. Thus it seemed advis­able to apply the dynamic-iconic representations along with the contents in the lower grade. The research done in a quasi experimental field study has shown that the representations in question are by no means obstructive, but in parts conducive to the students’ ability to develop corresponding conceptions. This can be seen from the fact that the group of stu­dents learning with the assistance of dynamic-iconic representations did indeed con­siderably better than the ‘control group’. With its results this paper is supposed to contribute to a better understanding of the ap­plication of multimedia learning environments. The medium alone cannot induce mea­ningful learning processes – these processes must be well-structured and start as soon as possible, so that they can teach the students to deal with the different encodings sen­sibly. I am convinced that this is the only way the various possibilities our current IT age offers us with its multimedia worlds or multi-coded learning environments can be used efficiently.
63

Visualisierung und Analyse multivariater Daten in der gartenbaulichen Beratung -Methodik, Einsatz und Vergleich datenanalytischer Verfahren

Krusche, Stefan 16 December 1999 (has links)
Ausgangspunkt der vorliegenden Arbeit ist die Suche der gartenbaulichen Beratung nach Visualisierungsmöglichkeiten umfangreicher gartenbaulicher Datensätze, die einerseits zu einer graphischen Zusammenfassung der in den Daten enthaltenen Informationen dienen und die andererseits auf interaktivem Weg Möglichkeiten der graphischen Analyse von Erhebungsdaten liefern. Die weitgehende Freiheit von Modellannahmen, der überwiegend deskriptive Charakter der Untersuchungen, das interaktive, schrittweise Vorgehen in der Auswertung, und die Betonung graphischer Elemente kennzeichnet die Arbeit als Beitrag zur explorativen Datenanalyse. Das ausgewählte Methodenspektrum, das ausführlich besprochen wird, schließt Verfahren der Dimensionserniedrigung (Hauptkomponentenanalyse, Korrespondenzanalyse und mehrdimensionale Skalierung) und darauf aufbauende Biplots, die Analyse gruppierter Daten (Prokrustes-Rotation und Gruppenanalysemodelle in der Hauptkomponentenanalyse), Linienverbände (Liniendiagramme der formalen Begriffsanalyse, Baumdiagramme und graphische Modelle), sowie ergänzende graphische Verfahren, wie zum Beispiel Trellis-Displays, ein. Beispielhaft werden eine betriebsbegleitende Untersuchung mit Cyclamen aus der Beratungspraxis der Landwirtschaftskammer Westfalen-Lippe und die Kennzahlen der Jahre 1992 bis 1994 der Topfpflanzenbetriebe des Arbeitskreises für Betriebswirtschaft im Gartenbau aus Hannover analysiert. Neben einer Vielzahl informativer Einzelergebnisse, zeigt die Arbeit auch auf, daß die qualitativ relativ schlechten Datengrundlagen nur selten eindeutige Schlußfolgerungen zulassen. Sie sensibilisiert also in diesem Bereich für die Problematik, die der explorativen Analyse wenig perfekter Daten innewohnt. Als besonders sinnvolle Hilfsmittel in der graphischen Analyse erweisen sich Biplots, hierarchische Liniendiagramme und Trellis-Displays. Die Segmentierung einer Vielzahl von Objekten in einzelne Gruppen wird durch Klassifikations- und Regressionsbäume vor allem unter dem Gesichtspunkt der Visualisierung gut gelöst, da den entstehenden Baumstrukturen auch die die Segmente bestimmenden Variablen visuell entnommen werden können. Diskrete graphische Modelle bieten schließlich einen guten Ansatzpunkt zur Analyse von multivariaten Beziehungszusammenhängen. Einzelne, nicht in der statistischen Standardsoftware vorhandene Prozeduren sind in eigens erstellten Programmcodes zusammengefaßt und können mit dem Programm Genstat genutzt werden. / In order to interpret large data sets in the context of consultancy and extension in horticulture, this thesis attempts to find ways to visually explore horticultural multivariate data, in order to obtain a concise description and summary of the information available in the data and moreover develop possibilities to interactively analyse survey data. The thesis is part of an exploratory data analysis which analyses data without making specific model assumptions, is predominantly descriptive, analyses data step by step in a highly interactive setting, and makes full use of all kinds of graphical displays. The methods used comprise various dimensionality reduction techniques (principal components analysis, correspondence analysis, multidimensional scaling), biplots, the multivariate analysis of grouped data (procrustes rotation and groupwise principal components), graphical models, CART, and line diagrams of formal concept analysis. In addition, further graphical methods are used, like e.g. trellis displays. Data from an on-site investigation of the production process of Cyclamen in 20 nurseries and from the microeconomics indicators of 297 growers in Germany (so called Kennzahlen) from the years 1992 to 1994 are used to demonstrate the analytical capabilities of the methods used. The data present a perfect example of unperfect data, and therefore represent the majority of the data sets that horticultural consultancy has to work with. Thus, it becomes clear, that despite the variety of results, which helps to enhance the understanding of the data at hand, not only the complexity of the processes observed, but also the low data quality make it fairly difficult to arrive at clear cut conclusions. The most helpful tools in the graphical data analysis are biplots, hierarchical line diagrams and trellis displays. Finding an empirical grouping of objects is best solved by classification and regression trees, which provide both, the data segmentation, and an intuitively appealing visualisation and explanation of the derived groups. In order to understand multivariate relationships better, discrete graphical models are well suited. The procedures to carry out a number of the methods which cannot be found in general statistics packages are provided in the form of Genstat codes.
64

Dynamically generated multi-modal application interfaces / Dynamisch generierte multimodale Anwendungsschnittstellen

Kost, Stefan 28 May 2006 (has links) (PDF)
This work introduces a new UIMS (User Interface Management System), which aims to solve numerous problems in the field of user-interface development arising from hard-coded use of user interface toolkits. The presented solution is a concrete system architecture based on the abstract ARCH model consisting of an interface abstraction-layer, a dialog definition language called GIML (Generalized Interface Markup Language) and pluggable interface rendering modules. These components form an interface toolkit called GITK (Generalized Interface ToolKit). With the aid of GITK (Generalized Interface ToolKit) one can build an application, without explicitly creating a concrete end-user interface. At runtime GITK can create these interfaces as needed from the abstract specification and run them. Thereby GITK is equipping one application with many interfaces, even kinds of interfaces that did not exist when the application was written. It should be noted that this work will concentrate on providing the base infrastructure for adaptive/adaptable system, and does not aim to deliver a complete solution. This work shows that the proposed solution is a fundamental concept needed to create interfaces for everyone, which can be used everywhere and at any time. This text further discusses the impact of such technology for users and on the various aspects of software systems and their development. The targeted main audience of this work are software developers or people with strong interest in software development.
65

Overlay Window Management: User interaction with multiple security domains

Feske, Norman, Helmuth, Christian 14 November 2012 (has links)
Graphical user interfaces for high-assurance systems must fulfill a range of security requirements such as protected and reliable presentation, prevention of unauthorized cross-domain talk, and prevention of user-input eavesdropping. Additionally, it is desirable to support legacy applications running in confined compartments. Standard isolation methods such as virtual-machine monitors provide one frame buffer per security domain, where each frame buffer is managed by one legacy window system. This raises the question of how to safely integrate multiple (legacy) window systems and protect the displayed data while preserving the usability of modern user interfaces. Our paper describes the OverlayWindow System, a general mechanism for multiplexing windows of multiple distinct window systems into the host frame buffer. Thus, each legacy window appears to the user as one corresponding host window that can be moved and resized. To achieve this, only slight modifications of the legacy window system are required whereby, the source code does not have to be available. Our implementation of an Overlay Window System successfully multiplexes Linux, GEM and native L4 applications.
66

Dynamically generated multi-modal application interfaces

Kost, Stefan 15 June 2006 (has links)
This work introduces a new UIMS (User Interface Management System), which aims to solve numerous problems in the field of user-interface development arising from hard-coded use of user interface toolkits. The presented solution is a concrete system architecture based on the abstract ARCH model consisting of an interface abstraction-layer, a dialog definition language called GIML (Generalized Interface Markup Language) and pluggable interface rendering modules. These components form an interface toolkit called GITK (Generalized Interface ToolKit). With the aid of GITK (Generalized Interface ToolKit) one can build an application, without explicitly creating a concrete end-user interface. At runtime GITK can create these interfaces as needed from the abstract specification and run them. Thereby GITK is equipping one application with many interfaces, even kinds of interfaces that did not exist when the application was written. It should be noted that this work will concentrate on providing the base infrastructure for adaptive/adaptable system, and does not aim to deliver a complete solution. This work shows that the proposed solution is a fundamental concept needed to create interfaces for everyone, which can be used everywhere and at any time. This text further discusses the impact of such technology for users and on the various aspects of software systems and their development. The targeted main audience of this work are software developers or people with strong interest in software development.
67

Data Augmentation GUI Tool for Machine Learning Models

Sharma, Sweta 30 October 2023 (has links)
The industrial production of semiconductor assemblies is subject to high requirements. As a result, several tests are needed in terms of component quality. In the long run, manual quality assurance (QA) is often connected with higher expenditures. Using a technique based on machine learning, some of these tests may be carried out automatically. Deep neural networks (NN) have shown to be very effective in a diverse range of computer vision applications. Especially convolutional neural networks (CNN), which belong to a subset of NN, are an effective tool for image classification. Deep NNs have the disadvantage of requiring a significant quantity of training data to reach excellent performance. When the dataset is too small a phenomenon known as overfitting can occur. Massive amounts of data cannot be supplied in certain contexts, such as the production of semiconductors. This is especially true given the relatively low number of rejected components in this field. In order to prevent overfitting, a variety of image augmentation methods may be used to the process of artificially creating training images. However, many of those methods cannot be used in certain fields due to their inapplicability. For this thesis, Infineon Technologies AG provided the images of a semiconductor component generated by an ultrasonic microscope. The images can be categorized as having a sufficient number of good and a minority of rejected components, with good components being defined as components that have been deemed to have passed quality control and rejected components being components that contain a defect and did not pass quality control. The accomplishment of the project, the efficacy with which it is carried out, and its level of quality may be dependent on a number of factors; however, selecting the appropriate tools is one of the most important of these factors because it enables significant time and resource savings while also producing the best results. We demonstrate a data augmentation graphical user interface (GUI) tool that has been widely used in the domain of image processing. Using this method, the dataset size has been increased while maintaining the accuracy-time trade-off and optimizing the robustness of deep learning models. The purpose of this work is to develop a user-friendly tool that incorporates traditional, advanced, and smart data augmentation, image processing, and machine learning (ML) approaches. More specifically, the technique mainly uses are zooming, rotation, flipping, cropping, GAN, fusion, histogram matching, autoencoder, image restoration, compression etc. This focuses on implementing and designing a MATLAB GUI for data augmentation and ML models. The thesis was carried out for the Infineon Technologies AG in order to address a challenge that all semiconductor industries experience. The key objective is not only to create an easy- to-use GUI, but also to ensure that its users do not need advanced technical experiences to operate it. This GUI may run on its own as a standalone application. Which may be implemented everywhere for the purposes of data augmentation and classification. The objective is to streamline the working process and make it easy to complete the Quality assurance job even for those who are not familiar with data augmentation, machine learning, or MATLAB. In addition, research will investigate the benefits of data augmentation and image processing, as well as the possibility that these factors might contribute to an improvement in the accuracy of AI models.
68

Modellbildung dynamischer Systeme mittels Leistungsfluß

Geitner, Gert-Helge January 2009 (has links)
Im Beitrag wird zunächst die konventionelle auf Signalflüssen basierte Modellbildung mit modernen leistungsflussbasierten Methoden, die auf dem Prinzip von Aktion und Reaktion aufbauen, verglichen. BG (Bond Graph), POG (Power Oriented Graph) und EMR (Energetic Macroscopic representation) sind solche modernen Methoden die den Leistungsaustausch zwischen Teilsystemen als Grundlage für den Modellbildungsansatz nutzen. Diese Werkzeuge erhalten die physikalische Struktur, erlauben es in das dynamische System hineinzuschauen und unterstützen das Verständnis des Leistungsflusses. Unterschiede werden anhand verschiedener Eigenschaften in einer Tabelle angegeben. Nach Erläuterung der Grundlagen zu POG und BG erfolgt die Vorstellung einer Freeware Zusatzbibliothek zur Simulation von Bondgraphen. Spezielle Eigenschaften werden kurz umrissen. Diese Blockbibliothek läuft unter Simulink, besteht aus nur 9 mittels Menü konfigurierbaren Blöcken und realisiert bidirektionale Verbindungen. Die Beispiele Gleichstrommotor, Pulssteller und elastische Welle demonstrieren die Vorteile der leistungsflussorientierten Modellbildung. Zustandsregelung, Energieeffizienz und Simulink LTI Analysewerkzeuge führen in die Anwendung der vorgestellten Simulink Zusatzbibliothek für Bondgraphen ein.:Modellbildung dynamischer Systeme mittels Leistungsfluß 1. Leistungsfluß versus Signalfluß 2. Konjugierte Leistungsvariablen und Kausalität 3. Grundlagen Leistungsfluß orientierter Modellierung 3.1 Definitionen zum POG (Power Oriented Graph) 3.2 Definitionen zu Grundelementen für Bondgraphen (BG) 4. Freeware Bibliothek zur Simulation von Bondgraphen 4.1 Übersicht und Nutzerfreundlichkeit 4.2 Besonderheiten 5. Beispiele 5.1 Gleichstrommotor mit starrer Welle 5.2 Elastische Welle 5.3 Eingangsfilter und Pulssteller 5.4 Vereinfachter Antriebsstrang 6. Anwendung der Simulink Bondgraph Blockbibliothek 6.1 Beispiel elastische Welle 6.2 Zustandsregelung 6.3 Energieeffizienz 6.4 Simulink Analysewerkzeuge 7. Vorteile im Überblick / The paper starts with a comparison of the conventional modelling method based on signal flow and modern power flow oriented modelling methods based on the principle of action and reaction. BG (Bond Graph), POG (Power Oriented Graph) and EMR (Energetic Macroscopic representation) are such modern methods based on the power exchange between partial systems as a key element for the basic modelling approach. These tools preserve the physical structure, enable a view inside dynamical systems and support understanding the power flow. Relationships between these graphical representations will be given. After the explanation of basics for POG and BG an overview and special features of a freeware add-on library for simulation of BGs will be outlined. The block library runs under Simulink, consists of nine menu-driven customised blocks only and realises bidirectional connections. Examples DC motor, chopper and elastic shaft demonstrate the advantages of power flow oriented modelling. State space control, energy efficiency and Simulink LTI analysis tools exemplify the application of the presented Simulink add-on BG library.:Modellbildung dynamischer Systeme mittels Leistungsfluß 1. Leistungsfluß versus Signalfluß 2. Konjugierte Leistungsvariablen und Kausalität 3. Grundlagen Leistungsfluß orientierter Modellierung 3.1 Definitionen zum POG (Power Oriented Graph) 3.2 Definitionen zu Grundelementen für Bondgraphen (BG) 4. Freeware Bibliothek zur Simulation von Bondgraphen 4.1 Übersicht und Nutzerfreundlichkeit 4.2 Besonderheiten 5. Beispiele 5.1 Gleichstrommotor mit starrer Welle 5.2 Elastische Welle 5.3 Eingangsfilter und Pulssteller 5.4 Vereinfachter Antriebsstrang 6. Anwendung der Simulink Bondgraph Blockbibliothek 6.1 Beispiel elastische Welle 6.2 Zustandsregelung 6.3 Energieeffizienz 6.4 Simulink Analysewerkzeuge 7. Vorteile im Überblick
69

Rechnerunterstützung des Entwurfsprozesses durch funktional-technische Objektmodellierung

Zetzsche, Torsten 31 December 2000 (has links) (PDF)
Thema der Arbeit ist die Konzeption, Entwicklung und Einführung in die Anwendung eines Entwurfssystems, das die Leistungsfähigkeit der derzeit während des Entwurfsprozesses angewandten Programme durch neue Funktionen erweitert. Die implementierte integrative Schnittstellenlösung fasst die bisher genutzten Applikationen zu einem Gesamtsystem zusammen. Der bidirektionale Datenaustausch zwischen allen integrierten Modulen verhindert zur Zeit noch notwendige Mehrfacheingaben identischer Daten. Die für die Modellierung eingesetzten CAD-Systeme bieten für die rechnerinterne Abbildung der Geometrie von Bauteilen eine hohe Funktionalität. Ungenügend ist aber die Erstellung der Funktionsstruktur mit rechentechnischen Hilfsmitteln gelöst. Dieses führt zum Entwurf neuer Produkte nahezu ohne den Einsatz der Informationstechnik und zur anschließenden Anfertigung der CAD-Modelle und Zeichnungen, wenn die Bauteile bereits in ihrer Grundstruktur bestimmt sind. Auch die Vorteile der parametrischen 3D-Modellierung, die für die Beschreibung der bauteilinternen Abhängigkeiten anwendbar ist, werden nur begrenzt genutzt. Gründe dafür liegen in der komplizierten Definition eineindeutig bestimmter Modelle und im ungenügend gelösten Datenaustausch mit externen Applikationen. Während die Ergebnisse einer Konstruktion als rechnerinterne Geometriemodelle detailliert vorliegen, werden die Daten der zugrunde liegenden Funktionsstruktur nicht oder nur zum geringen Teil erfasst. Wichtige Informationen über den Entstehungsprozess sind somit nach Abschluss einer Konstruktion nicht mehr verfügbar. Aufgrund dessen muss die gleichwertige Modellierung von Funktions- und Wirkstruktur sowie der Geometrie realisiert werden. Mit dem beschriebenen Entwurfssystem werden diese Strukturen erstellt und in einem komplexen Modell gespeichert. Im Rahmen folgender Konstruktionen kann dann nicht nur auf die Geometriedaten, sondern auch auf die Beziehungen, auf denen die Bauteilstruktur basiert, zugegriffen werden.
70

Using Technology to Discover and Explore Linear Functions and Encourage Linear Modeling

Soucie, Tanja, Radović, Nikol, Svedrec, Renata, Car, Helena 09 May 2012 (has links) (PDF)
In our presentation we will show how technology enables us to improve the teaching and learning of linear functions at the middle school level. Through various classroom activities that involve technology such as dynamic geometry software, graphing calculators and Excel, students explore functions and discover basic facts about them on their own. Students then work with real life data and on real life problems to draw graphs and form linear models that correspond to given situations as well as draw inferences based on their models. Participants will receive complete classroom materials for the unit on linear functions.

Page generated in 0.048 seconds