• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 64
  • 9
  • 8
  • Tagged with
  • 157
  • 109
  • 109
  • 49
  • 37
  • 29
  • 22
  • 21
  • 21
  • 21
  • 17
  • 17
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Entwicklung einer gekoppelten FEM-DEM Simulation auf Basis ausgewählter Beispiele

Huang, Wenjie 22 August 2018 (has links)
Um das Fließverhalten von Granulaten in dünnwandigen Metallsilos auch mikroskopisch detailliert beschreiben zu können, ist es wichtig, beide Kontaktpartner (Granulat und elastische Wand) detailliert abbilden zu können. Granulate können vereinfacht als Kugeln betrachtet werden, weswegen die Diskrete-Elemente-Methode (DEM) hierfür geeignet ist. Die elastische Verformung der Metallwand kann mit Hilfe der Finiten-Elemente-Methode (FEM) berechnet werden. Ziel dieser Arbeit ist es, eine Simulation zu entwickeln, welche für beide Kontaktpartner eine gemeinsame Simulationsumgebung schafft. Dabei sollen zu Beginn einfache Beispiele für den Kontakt von Granulat und Festkörperstrukturen erarbeitet werden, die verschiedene Lastfälle abdecken. Um die Simulationsergebnisse bewerten zu können, sollen die Beispiele so gewählt werden, dass die Simulationen analytisch oder numerisch validiert werden können.
142

Decidable Verification of Golog Programs over Non-Local Effect Actions: Extended Version

Zarrieß, Benjamin, Claßen, Jens 20 June 2022 (has links)
The Golog action programming language is a powerful means to express high-level behaviours in terms of programs over actions defined in a Situation Calculus theory. In particular for physical systems, verifying that the program satisfies certain desired temporal properties is often crucial, but undecidable in general, the latter being due to the language’s high expressiveness in terms of first-order quantification and program constructs. So far, approaches to achieve decidability involved restrictions where action effects either had to be contextfree (i.e. not depend on the current state), local (i.e. only affect objects mentioned in the action’s parameters), or at least bounded (i.e. only affect a finite number of objects). In this paper, we present a new, more general class of action theories (called acyclic) that allows for context-sensitive, non-local, unbounded effects, i.e. actions that may affect an unbounded number of possibly unnamed objects in a state-dependent fashion. We contribute to the further exploration of the boundary between decidability and undecidability for Golog, showing that for acyclic theories in the two-variable fragment of first-order logic, verification of CTL properties of programs over ground actions is decidable.
143

SemProj: Ein Semantic Web – basiertes System zur Unterstützung von Workflow- und Projektmanagement

Langer, André 26 March 2008 (has links) (PDF)
Mit mehr als 120 Millionen registrierten Internetadressen (Stand: März 2007) symbolisiert das Internet heutzutage das größte Informationsmedium unserer Zeit. Täglich wächst das Internet um eine unüberschaubare Menge an Informationen. Diese Informationen sind häufig in Dokumenten hinterlegt, welche zur Auszeichnung die Hypertext Markup Language verwenden. Seit Beginn der Neunziger Jahre hat sich dieses System bewährt, da dadurch der einzelne Nutzer in die Lage versetzt wird, auf einfache und effiziente Weise Dokumentinhalte mit Darstellungsanweisungen zu versehen und diese eigenständig im Internet zu veröffentlichen. Diese Layoutinformationen können bei Abruf der entsprechenden Ressource durch ein Computerprogramm leicht ausgewertet und zur Darstellung der Inhalte genutzt werden. Obwohl sowohl die Layoutinformationen als auch die eigentlichen Dokumentinhalte in einem textuellen Format vorliegen, konnten die Nutzertextinhalte durch eine Maschine bisher nur sehr eingeschränkt verarbeitet werden. Während es menschlichen Nutzern keinerlei Probleme bereitet, die Bedeutung einzelner Texte auf einer Webseite zu identifizieren, stellen diese für einen Rechner prinzipiell nur eine Aneinanderreihung von ASCII-Zeichen dar. Sobald es möglich werden würde, die Bedeutung von Informationen durch ein Computerprogramm effizient zu erfassen und weiterzuverarbeiten, wären völlig neue Anwendungen mit qualitativ hochwertigeren Ergebnissen im weltweiten Datennetz möglich. Nutzer könnten Anfragen an spezielle Agenten stellen, welche sich selbstständig auf die Suche nach passenden Resultaten begeben; Informationen verschiedener Informationsquellen könnten nicht nur auf semantischer Ebene verknüpft, sondern daraus sogar neue, nicht explizit enthaltene Informationen abgeleitet werden. Ansätze dazu, wie Dokumente mit semantischen Metadaten versehen werden können, gibt es bereits seit einiger Zeit. Lange umfasste dies jedoch die redundante Bereitstellung der Informationen in einem eigenen Dokumentenformat, weswegen sich keines der Konzepte bis in den Privatbereich durchsetzen konnte und als Endkonsequenz in den vergangenen Monaten besonderes Forschungsinteresse darin aufkam, Möglichkeiten zu finden, wie semantische Informationen ohne großen Zusatzaufwand direkt in bestehende HTML-Dokumente eingebettet werden können. Die vorliegende Diplomarbeit möchte diese neuen Möglichkeiten im Bereich des kollaborativen Arbeitens näher untersuchen. Ziel ist es dazu, eine Webapplikation zur Abwicklung typischer Projektmanagement-Aufgaben zu entwickeln, welche jegliche Informationen unter einem semantischen Gesichtspunkt analysieren, aufbereiten und weiterverarbeiten kann und unabhängig von der konkreten Anwendungsdomain und Plattform systemübergreifend eingesetzt werden kann. Die Konzepte Microformats und RDFa werden dabei besonders herausgestellt und nach Schwächen und zukünftigen Potentialen hin untersucht. / The World Wide Web supposably symbolizes with currently more than 120 million registered internet domains (March 2007) the most comprehensive information reference of all times. The amount of information available increases by a storming bulk of data ever day. Those information is often embedded in documents which utilize the Hypertext Markup Language. This enables the user to mark out certain layout properties of a text in an easy and efficient fashion and to publish the final document containing both layout and data information. A computer application is then able to extract style information from the document resource and to use it in order to render the resulting website. Although layout information and data are both equally represented in a textual manner, a machine was hardly capable of processing user content so far. Whereas human consumers have no problem to identify and understand the sense of several paragraphs on a website, they basically represent only a concatenation of ASCII characters for a machine. If it were possible to efficiently disclose the sense of a word or phrase to a computer program in order to process it, new astounding applications with output results of high quality would be possible. Users could create queries for specialized agents which autonomously start to search the web for adequate result matches. Moreover, the data of multiple information sources could be linked and processed together on a semantic level so that above all new, not explicitly stated information could be inferred. Approaches already exist, how documents could be enhanced with semantic metadata, however, many of these involve the redundant provision of those information in a specialized document format. As a consequence none of these concepts succeeded in becoming a widely used method and research started again to find possibilities how to embed semantic annotations without huge additional efforts in an ordinary HTML document. The present thesis focuses on an analysis of these new concepts and possibilities in the area of collaborative work. The objective is to develop the prototype of a web application with which it is possible to manage typical challenges in the realm of project and workflow management. Any information available should be processable under a semantic viewpoint which includes analysis, conditioning and reuse independently from a specific application domain and a certain system platform. Microformats and RDFa are two of those relatively new concepts which enable an application to extract semantic information from a document resource and are therefore particularly exposed and compared with respect to advantages and disadvantages in the context of a “Semantic Web”.
144

Präsenzbewertung im Kommunikationsraum Telefonie

Gommlich, Frank 16 January 2020 (has links)
Präsenzbewertung im Kommunikationsraum der Telefonie ist ein zunehmend wichtiges Gebiet der Forschung. Ziel der Dissertation ist es, sich dem natürlichen Kommunikationsraum der verbalen und nonverbalen Kommunikation anzunähern. Im Kommunikationsraum Telefonie existieren noch keine Verfahren, die unterschiedliche Dringlichkeiten von Anrufen wiedergeben. Momentan ist die Signalart ausschließlich davon abhängig, wie der Angerufene sein Mobiltelefon eingestellt hat. In der Arbeit wurde ein Verfahren entwickelt, das unmittelbar vor der Signalisierung eines Anrufes die Signalart abhängig vom Kontext des Angerufenen individuell ermittelt und automatisch einstellt. Dabei werden Algorithmen aus dem Bereich der KI verwendet. Mit Hilfe von Lernalgorithmen werden die Ergebnisse der Präsenzbewertung kontinuierlich verbessert. Im Rahmen eines Experimentes konnten Präzisionen bei sechs verschiedenen Signalarten von bis zu 73 % erreicht werden. Dieses Verfahren ermöglicht eine deutliche Annäherung an den natürlichen Kommunikationsraum.
145

Modelling prehistoric terrain Models using LiDAR-data: A geomorphological approach

Höfler, Veit, Wessollek, Christine, Karrasch, Pierre 29 August 2019 (has links)
Terrain surfaces conserve human activities in terms of textures and structures. With reference to archaeological questions, the geological archive is investigated by means of models regarding anthropogenic traces. In doing so, the high-resolution digital terrain model is of inestimable value for the decoding of the archive. The evaluation of these terrain models and the reconstruction of historical surfaces is still a challenging issue. Due to the data collection by means of LiDAR systems (light detection and ranging) and despite their subsequent pre-processing and filtering, recently anthropogenic artefacts are still present in the digital terrain model. Analysis have shown that elements, such as contour lines and channels, can well be extracted from a highresolution digital terrain model. This way, channels in settlement areas show a clear anthropogenic character. This fact can also be observed for contour lines. Some contour lines representing a possibly natural ground surface and avoid anthropogenic artefacts. Comparable to channels, noticeable patterns of contour lines become visible in areas with anthropogenic artefacts. The presented work ow uses functionalities of ArcGIS and the programming language R.¹ The method starts with the extraction of contour lines from the digital terrain model. Through macroscopic analyses based on geomorphological expert knowledge, contour lines are selected representing the natural geomorphological character of the surface. In a first step, points are determined along each contour line in regular intervals. This points and the corresponding height information which is taken from an original digital terrain model is saved as a point cloud. Using the programme library gstat, a variographic analysis and the use of a Kriging-procedure based on this follow. The result is a digital terrain model filtered considering geomorphological expert knowledge showing no human degradation in terms of artefacts, preserving the landscape-genetic character and can be called a prehistoric terrain model.
146

Knowledge-based modelling of historical surfaces using lidar data

Höfler, Veit, Wessollek, Christine, Karrasch, Pierre 30 August 2019 (has links)
Currently in archaeological studies digital elevation models are mainly used especially in terms of shaded reliefs for the prospection of archaeological sites. Hesse (2010) provides a supporting software tool for the determination of local relief models during the prospection using LiDAR scans. Furthermore the search for relicts from WW2 is also in the focus of his research.¹ In James et al. (2006) the determined contour lines were used to reconstruct locations of archaeological artefacts such as buildings.² This study is much more and presents an innovative workflow of determining historical high resolution terrain surfaces using recent high resolution terrain models and sedimentological expert knowledge. Based on archaeological field studies (Franconian Saale near Bad Neustadt in Germany) the sedimentological analyses shows that archaeological interesting horizon and geomorphological expert knowledge in combination with particle size analyses (Köhn, DIN ISO 11277) are useful components for reconstructing surfaces of the early Middle Ages.³ Furthermore the paper traces how it is possible to use additional information (extracted from a recent digital terrain model) to support the process of determination historical surfaces. Conceptual this research is based on methodology of geomorphometry and geo-statistics. The basic idea is that the working procedure is based on the different input data. One aims at tracking the quantitative data and the other aims at processing the qualitative data. Thus, the first quantitative data were available for further processing, which were later processed with the qualitative data to convert them to historical heights. In the final stage of the work ow all gathered information are stored in a large data matrix for spatial interpolation using the geostatistical method of Kriging. Besides the historical surface, the algorithm also provides a first estimation of accuracy of the modelling. The presented workflow is characterized by a high exibility and the opportunity to include new available data in the process at any time.
147

Extraktion von Trends in der Phänologie komplexer Ökosysteme am Beispiel des westafrikanischen Niger Binnendeltas für den Zeitraum 1982‑2006 : Auswertung von NOAA‑AVHRR Zeitreihen

Seiler, Ralf 04 July 2016 (has links) (PDF)
Die vorliegende Arbeit analysiert die Phänologie photosynthetisch aktiver Vegetation mit Hilfe von NDVI Zeitreihen für einen Zeitraum von 24 Jahren (AVHRR‑GIMMS Daten). Neben einer Datierung des jahreszeitlichen Wechsels zwischen Wachstums-, Reife- und Seneszenzphase wird das Ziel verfolgt, Trends sowohl in phänologischen Ereignissen (Start-of-Season) als auch im NDVI zu identifizieren. Das, in der semi-ariden Sahelregion gelegene, Untersuchungsgebiet weist mit zwei sich teilweise überlagernden Vegetationsperioden eine komplexe Phänologie auf, deren Modellierung durch die sowohl in ihren Zeitpunkten als auch in ihren Ausprägungen hoch variablen Vegetationsabläufe erschwert wird. Vor diesem Hintergrund ist zunächst ein, auf der Fourieranalyse basierender, Ansatz zur flexiblen Glättung der NDVI Zeitreihen entwickelt worden. Um für die Trendanalyse lineare Regressionsverfahren einsetzen zu können, sind die Zeitreihen nach dem Komponentenmodell untergliedert worden (Subtraktion der Saisonfigur). Alternativ kam der saisonale MANN-KENDALL Trendtest zur Anwendung. Die NDVI Zeitreihen wurden ebenfalls auf Änderungen im mehrjährigen Mittelwert (Bruchpunkte) untersucht. Alle Auswertungen sind in einer eigenen Applikation umgesetzt worden. Es konnte gezeigt werden, daß Änderungen im NDVI Niveau eher abrupt als graduell verlaufen. Langfristige Trends weisen nur geringe Anstiege auf. Die Vegetation erholte sich von der Dürre 1984/85 nur im südlichen Teil des Untersuchungsgebietes, im Norden dominieren langfristig negative Trends. Brüche im mean der NDVI Zeitreihen korrelieren mit Brüchen im Abflußverhalten des Niger.
148

Categorical semantics and composition of tree transducers / Kategorielle Semantik und Komposition von Baumübersetzern

Jürgensen, Claus 28 December 2004 (has links) (PDF)
In this thesis we see two new approaches to compose tree transducers and more general to fuse functional programs. The first abroach is based on initial algebras. We prove a new variant of the acid rain theorem for mutually recursive functions where the build function is substituted by a concrete functor. Moreover, we give a symmetric form (i.e. consumer and producer have the same syntactic form) of our new acid rain theorem where fusion is composition in a category and thus in particular associative. Applying this to compose top-down tree transducers yields the same result (on a syntactic level) as the classical top-down tree transducer composition. The second approach is based on free monads and monad transformers. In the same way as monoids are used in the theory of character string automata, we use monads in the theory of tree transducers. We generalize the notion of a tree transducer defining the monadic transducer, and we prove an according fusion theorem. Moreover, we prove that homomorphic monadic transducers are semantically equivalent. The latter makes it possible to compose syntactic classes of tree transducers (or particular functional programs) by simply composing endofunctors.
149

Evaluierung von AJAX-basierten frameworks für das Web 2.0

Langer, André 20 April 2007 (has links) (PDF)
„Remote Scripting“-Anwendungen erleben seit einigen Jahren einen regelrechten Anfrageboom. Während aus usability-Sicht bisher eine strikte Unterscheidung zwischen Desktop-Anwendungen und Webapplikationen herrschte, finden sich seit einiger Zeit zunehmend Angebote im World Wide Web, die diese strikte Trennung verwischen lassen. Interaktive Nutzerdialoge, nebenläufige Prozessabarbeitung und visuelle Unterstützungsmittel wie Drag & Drop- Effekte halten auf Webseiten Einzug, die dem Nutzer bisher nur aus eigenständigen Softwareprodukten in einer spezifischen Betriebssystemumgebung bekannt waren. Viele dieser neuen Anwendungs- und Interaktionsmöglichkeiten im weltweiten Datennetz werden inzwischen unter dem Oberbegriff Web 2.0 zusammengefasst. Für den Nutzer bringt dieser neue Entwicklungstrend viele Vorteile: Ansprechende, intuitive Nutzerführungen ohne die Notwendigkeit, eine ganze Internetseite bei jedem Interaktionsschritt neu zu laden und ohne bemerkbaren zeitlichen Overhead. Was für den Nutzer Erleichterung bringen soll, bedeutet häufig für einen Programmierer zunächst Mehraufwand. Eine Technik zur Realisierung solcher so genannten Rich Internet Applications, die sich in den letzten beiden Jahren immer mehr in den Vordergrund gedrängt hat, wird unter der Bezeichnung AJAX zusammengefasst. Einen einheitlichen Standard gibt es dabei nicht, sodass fast täglich neue AJAX-basierte frameworks veröffentlicht werden, die dem Programmierer (wenigstens einen Teil der) Komplexität der Programmflusssteuerung abnehmen sollen. Aufgabe der Studienarbeit soll es daher sein, das inzwischen unüberschaubar gewordene Angebot an AJAX frameworks zu systematisieren und einen Überblick über Vor- und Nachteile ausgewählter Programmbibliotheken zu geben. Dafür ist ein Kriterienkatalog zu erarbeiten, der eine Bewertung der verschiedenen frameworks nach unterschiedlichen Gesichtspunkten ermöglicht. Besonderer Schwerpunkt ist dabei auf Kriterien aus Programmierersicht (Sprachunabhängigkeit, Overhead, Implementierungsmöglichkeiten,…) und Anwendersicht (Plattformanforderungen, Einarbeitungszeit, Ergebnisqualität, …) zu legen. Auf den Kriterienkatalog ist anschließend eine Auswahl an bereits existierenden, frei verfügbaren AJAX frameworks anzuwenden, die als zukünftig relevant eingeschätzt werden. Die Ergebnisse sind abschließend in einer Gesamtübersicht zu präsentieren, die eine objektive Empfehlung für Nutzer darstellen soll, die vor der Wahl stehen, welche AJAX Programmbibliothek sie zukünftig einsetzen sollten.
150

Language Family Engineering with Features and Role-Based Composition

Wende, Christian 19 June 2012 (has links) (PDF)
The benefits of Model-Driven Software Development (MDSD) and Domain-Specific Languages (DSLs) wrt. efficiency and quality in software engineering increase the demand for custom languages and the need for efficient methods for language engineering. This motivated the introduction of language families that aim at further reducing the development costs and the maintenance effort for custom languages. The basic idea is to exploit the commonalities and provide means to enable systematic variation among a set of related languages. Current techniques and methodologies for language engineering are not prepared to deal with the particular challenges of language families. First, language engineering processes lack means for a systematic analysis, specification and management of variability as found in language families. Second, technical approaches for a modular specification and realisation of languages suffer from insufficient modularity properties. They lack means for information hiding, for explicit module interfaces, for loose coupling, and for flexible module integration. Our first contribution, Feature-Oriented Language Family Engineering (LFE), adapts methods from Software Product Line Engineering to the domain of language engineering. It extends Feature-Oriented Software Development to support metamodelling approaches used for language engineering and replaces state-of-the-art processes by a variability- and reuse-oriented LFE process. Feature-oriented techniques are used as means for systematic variability analysis, variability management, language variant specification, and the automatic derivation of custom language variants. Our second contribution, Integrative Role-Based Language Composition, extends existing metamodelling approaches with roles. Role models introduce enhanced modularity for object-oriented specifications like abstract syntax metamodels. We introduce a role-based language for the specification of language components, a role-based composition language, and an extensible composition system to evaluate role-based language composition programs. The composition system introduces integrative, grey-box composition techniques for language syntax and semantics that realise the statics and dynamics of role composition, respectively. To evaluate the introduced approaches and to show their applicability, we apply them in three major case studies. First, we use feature-oriented LFE to implement a language family for the ontology language OWL. Second, we employ role-based language composition to realise a component-based version of the language OCL. Third, we apply both approaches in combination for the development of SumUp, a family of languages for mathematical equations.

Page generated in 0.3734 seconds