• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 50
  • 3
  • Tagged with
  • 104
  • 102
  • 54
  • 53
  • 52
  • 52
  • 52
  • 51
  • 49
  • 46
  • 42
  • 39
  • 39
  • 39
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Efficient Processing of Range Queries in Main Memory

Sprenger, Stefan 11 March 2019 (has links)
Datenbanksysteme verwenden Indexstrukturen, um Suchanfragen zu beschleunigen. Im Laufe der letzten Jahre haben Forscher verschiedene Ansätze zur Indexierung von Datenbanktabellen im Hauptspeicher entworfen. Hauptspeicherindexstrukturen versuchen möglichst häufig Daten zu verwenden, die bereits im Zwischenspeicher der CPU vorrätig sind, anstatt, wie bei traditionellen Datenbanksystemen, die Zugriffe auf den externen Speicher zu optimieren. Die meisten vorgeschlagenen Indexstrukturen für den Hauptspeicher beschränken sich jedoch auf Punktabfragen und vernachlässigen die ebenso wichtigen Bereichsabfragen, die in zahlreichen Anwendungen, wie in der Analyse von Genomdaten, Sensornetzwerken, oder analytischen Datenbanksystemen, zum Einsatz kommen. Diese Dissertation verfolgt als Hauptziel die Fähigkeiten von modernen Hauptspeicherdatenbanksystemen im Ausführen von Bereichsabfragen zu verbessern. Dazu schlagen wir zunächst die Cache-Sensitive Skip List, eine neue aktualisierbare Hauptspeicherindexstruktur, vor, die für die Zwischenspeicher moderner Prozessoren optimiert ist und das Ausführen von Bereichsabfragen auf einzelnen Datenbankspalten ermöglicht. Im zweiten Abschnitt analysieren wir die Performanz von multidimensionalen Bereichsabfragen auf modernen Serverarchitekturen, bei denen Daten im Hauptspeicher hinterlegt sind und Prozessoren über SIMD-Instruktionen und Multithreading verfügen. Um die Relevanz unserer Experimente für praktische Anwendungen zu erhöhen, schlagen wir zudem einen realistischen Benchmark für multidimensionale Bereichsabfragen vor, der auf echten Genomdaten ausgeführt wird. Im letzten Abschnitt der Dissertation präsentieren wir den BB-Tree als neue, hochperformante und speichereffziente Hauptspeicherindexstruktur. Der BB-Tree ermöglicht das Ausführen von multidimensionalen Bereichs- und Punktabfragen und verfügt über einen parallelen Suchoperator, der mehrere Threads verwenden kann, um die Performanz von Suchanfragen zu erhöhen. / Database systems employ index structures as means to accelerate search queries. Over the last years, the research community has proposed many different in-memory approaches that optimize cache misses instead of disk I/O, as opposed to disk-based systems, and make use of the grown parallel capabilities of modern CPUs. However, these techniques mainly focus on single-key lookups, but neglect equally important range queries. Range queries are an ubiquitous operator in data management commonly used in numerous domains, such as genomic analysis, sensor networks, or online analytical processing. The main goal of this dissertation is thus to improve the capabilities of main-memory database systems with regard to executing range queries. To this end, we first propose a cache-optimized, updateable main-memory index structure, the cache-sensitive skip list, which targets the execution of range queries on single database columns. Second, we study the performance of multidimensional range queries on modern hardware, where data are stored in main memory and processors support SIMD instructions and multi-threading. We re-evaluate a previous rule of thumb suggesting that, on disk-based systems, scans outperform index structures for selectivities of approximately 15-20% or more. To increase the practical relevance of our analysis, we also contribute a novel benchmark consisting of several realistic multidimensional range queries applied to real- world genomic data. Third, based on the outcomes of our experimental analysis, we devise a novel, fast and space-effcient, main-memory based index structure, the BB- Tree, which supports multidimensional range and point queries and provides a parallel search operator that leverages the multi-threading capabilities of modern CPUs.
12

Gender Budget

Korb, Susanne 26 December 2009 (has links)
Das internationale Konzept Gender Budget wurde entwickelt als Strategie zur Herstellung von Geschlechtergerechtigkeit in und mit öffentlichen Haushalten. Seine Wurzeln liegen in der internationalen Entwicklungspolitik ebenso wie in der Frauen- und Geschlechterforschung. Als finanzpolitische Komponente des universalen Programmes Gender Main-streaming erzielte es seinen öffentlichen Durchbruch seit der 4. Weltfrauen-konferenz 1995 in Peking. Die Europäische Union hat sich das Gedankengut zu eigen gemacht, in ihren Verträgen und Richtlinien juristisch festgeschrieben und somit den Mitgliedsstaaten zur Realisierung aufgetragen. In Deutschland erfolgt die Implementierung bisher eher punktuell und dilatorisch, so dass das Konzept auch Jahre nach seiner Entstehung nur wenige praktische Beispiele hervorgebracht hat. Hierunter befinden sich auf der operativen Ebene bereits einige Öffentliche Bibliotheken. Diesen mangelt es nicht an Erfahrung mit Reformprozessen – vom Wandel des Medienmarktes bis hin zu den Verwaltungsreformen. Bibliotheken erheben traditionell umfangreiches Datenmaterial und sind geübt im Umgang mit den Erfordernissen von Frauenarbeitsplätzen. Auf dieser Grundlage erweisen sich die Öffentlichen Bibliotheken als geeigneter Gegenstand für die Untersuchung von Bedeutung und prospektiven Auswirkungen des neuen Konzeptes. Nutzerschaft und Personal werden einer Gender-Analyse unterzogen und die Ansatzpunkte für künftige Gender Budgets explizit herausgearbeitet. Deutlich sichtbar wird hierdurch der Handlungsbedarf, der zu geschlechtergerechten Reformen führen soll. Der methodische Gender Budgeting-Prozess bedarf der Initiierung durch Politik und Verwaltungsspitze, um als Top-down-Prozess mit der erforderlichen Nachdrücklich-keit wirksam zu werden. Und er benötigt umfassenderes Datenmaterial aus allen Verwaltungsabteilungen zur Herstellung von Transparenz und zur gendergerechten Verteilung der Finanzmittel innerhalb des kommunalen Haushaltes. / The international concept of gender budget has been developed as a strategy to create gender equality for and with public funds. It is rooted in the international development policy as well as in gender studies. As a financial policy component of the universal programme of gender main-streaming it has had its public break-through since the 4th international women’s conference in Beijing in 1995. The European Union has adopted the ideas and stipulated them in its contracts and guidelines and, thus, entrusted the member states to put them into practise. In Germany, the implementation has been effected so far only in some places and in a dilatory way so that the concept has produced only few practical examples even years after its creation. Among these, there are already some public libraries on the level of operation. They are not lacking in experience with reform processes – from the change of the media market to the administrative reforms. Libraries traditionally gather comprehensive data material and are used to handling requirements regarding women’s workplaces. On this basis, the public libraries are a suitable subject as to the examination of the significance and prospective impacts of the concept. The users and the personnel are subject to a gender analysis and the starting points for future gender budgets are elaborated explicitly. Thereby, the need for action which shall lead to reforms regarding gender equality becomes clearly visible. The methodical gender budgeting process must be initiated by politics and the administrative management in order to become effective as a top-down process with the necessary emphasis. Moreover, it requires more extensive data material from all the administrative departments in order to create transparency and to allocate the funds of the communal budget in consideration of gender equality.
13

Describing data patterns

Voß, Jakob 07 August 2013 (has links)
Diese Arbeit behandelt die Frage, wie Daten grundsätzlich strukturiert und beschrieben sind. Im Gegensatz zu vorhandenen Auseinandersetzungen mit Daten im Sinne von gespeicherten Beobachtungen oder Sachverhalten, werden Daten hierbei semiotisch als Zeichen aufgefasst. Diese Zeichen werden in Form von digitalen Dokumenten kommuniziert und sind mittels zahlreicher Standards, Formate, Sprachen, Kodierungen, Schemata, Techniken etc. strukturiert und beschrieben. Diese Vielfalt von Mitteln wird erstmals in ihrer Gesamtheit mit Hilfe der phenomenologischen Forschungsmethode analysiert. Ziel ist es dabei, durch eine genaue Erfahrung und Beschreibung von Mitteln zur Strukturierung und Beschreibung von Daten zum allgemeinen Wesen der Datenstrukturierung und -beschreibung vorzudringen. Die Ergebnisse dieser Arbeit bestehen aus drei Teilen. Erstens ergeben sich sechs Prototypen, die die beschriebenen Mittel nach ihrem Hauptanwendungszweck kategorisieren. Zweitens gibt es fünf Paradigmen, die das Verständnis und die Anwendung von Mitteln zur Strukturierung und Beschreibung von Daten grundlegend beeinflussen. Drittens legt diese Arbeit eine Mustersprache der Datenstrukturierung vor. In zwanzig Mustern werden typische Probleme und Lösungen dokumentiert, die bei der Strukturierung und Beschreibung von Daten unabhängig von konkreten Techniken immer wieder auftreten. Die Ergebnisse dieser Arbeit können dazu beitragen, das Verständnis von Daten --- das heisst digitalen Dokumente und ihre Metadaten in allen ihren Formen --- zu verbessern. Spezielle Anwendungsgebiete liegen unter Anderem in den Bereichen Datenarchäologie und Daten-Literacy. / Many methods, technologies, standards, and languages exist to structure and describe data. The aim of this thesis is to find common features in these methods to determine how data is actually structured and described. Existing studies are limited to notions of data as recorded observations and facts, or they require given structures to build on, such as the concept of a record or the concept of a schema. These presumed concepts have been deconstructed in this thesis from a semiotic point of view. This was done by analysing data as signs, communicated in form of digital documents. The study was conducted by a phenomenological research method. Conceptual properties of data structuring and description were first collected and experienced critically. Examples of such properties include encodings, identifiers, formats, schemas, and models. The analysis resulted in six prototypes to categorize data methods by their primary purpose. The study further revealed five basic paradigms that deeply shape how data is structured and described in practice. The third result consists of a pattern language of data structuring. The patterns show problems and solutions which occur over and over again in data, independent from particular technologies. Twenty general patterns were identified and described, each with its benefits, consequences, pitfalls, and relations to other patterns. The results can help to better understand data and its actual forms, both for consumption and creation of data. Particular domains of application include data archaeology and data literacy.
14

Sozialer Wert der Stadtbibliothek Wolgast

Rambow, Angela Inge 11 July 2006 (has links)
Diese Arbeit verfolgt das Ziel, soziale Wirkungen einer ausgewählten Bibliothek gültig und verlässlich nachzuweisen. Sie beschäftigt sich mit dem vielschichtigen Problem, Tätigkeitszusammenhänge zu untersuchen, die bedeutsame Veränderungen hervorrufen und fragt nach dem Einfluss der Bibliothek in individueller und gesellschaftlicher Hinsicht. Dies steht im Zusammenhang mit der Leistungsbeurteilung einer Bibliothek. Ausgehend von verschiedenen Wirkungsdefinitionen im Kontext ihres theoretischen Hintergrundes (Kapitel eins) werden unterschiedliche Ansätze der Leistungs- und Wirkungsmessung verglichen (Kapitel zwei). Darauf aufbauend wird die Wahl des social-process-audit-Ansatzes begründet und führt im Kapitel drei zur Darstellung des Forschungsdesigns. Im Kapitel vier werden die Forschungsergebnisse vorgestellt. Die Ergebnisse dieser empirischen Untersuchung zeigen, dass die Wirkungen der ausgewählten Bibliothek gesellschaftlich bedeutsam sind. Durch ihr Angebot bewirkt diese Bibliothek nicht nur vielfältigen Nutzen, sondern auch Veränderungen innerhalb der Lebensbereiche ihrer Interessengruppen. Diese langfristigen sozialen Wirkungen können für die Bibliothek von strategischer Bedeutung sein. Die Besonderheiten der Arbeit bestehen darin, (1) dass gesellschaftliche Wirkungsbezüge gültig nachgewiesen worden sind, (2) dass nicht auf Nutzungszusammenhänge eingeschränkt, sondern im Kontext des Auftrages der Bibliothek untersucht wurde und (3) dass das Einbeziehen der Positionen aller relevanter Interessengruppen – sowohl in Hinblick auf das Ermitteln der erwünschten Wirkungen als auch der erreichten Wirkungen – eine entscheidende Grundlage darstellte. Die im Kapitel fünf enthaltenen Schlussbetrachtungen beschäftigen sich mit Problemen der wissenschaftlich-empirischen Methode des Interviewens, der Verallgemeinerung der Untersuchungsergebnisse und ausgewählten aktuellen Fragestellungen. / This thesis aims at validly and reliably proving social effects (Impact, Outcome) of a selected library. It deals with the complex problem of surveying the context of activities causing significant changes. Apart from that, it looks into the library''s influence on the individual and on society, thus furnishing results which facilitate the assessment of a library''s achievements. Starting with various definitions of outcomes in the context of their theoretical background (chapter one), different approaches to assessing performace, impact and outcome are compared (chapter two). Based on that, the selection of the social-process-audit approach is justified and then the research design described (chapter three). In chapter four, the results of the survey are presented. The empirical study proves that the effects of the selected library are socially significant. This library''s offer does not only bring about a variety of benefits, but it also causes changes in its stakeholders'' lives – long-term social effects that may be of strategic significance for the library. The special features of the thesis are (1) the valid proof of social effects, (2) the fact that the survey has not been restricted to ways of use, but has been carried out in the context of the library''s task and (3) that the inclusion of the positions of all relevant interest groups (stakeholders) – with regard to both determining the intended effects and the ones that have been actually reached – has built a decisive basis. The concluding remarks (chapter five) consider problems of the scientific-empirical method of interviewing and contain a generalization of the thesis''s results as well as selected topical questions.
15

Metadatenbasierte Kontextualisierung architektonischer 3D-Modelle

Blümel, Ina 18 December 2013 (has links)
Digitale 3D-Modelle der Architektur haben innerhalb der letzten fünf Jahrzehnte sowohl die analogen, auf Papier basierenden Zeichnungen als auch die physischen Modelle aus ihrer planungs-, ausführungs- und dokumentationsunterstützenden Rolle verdrängt. Als Herausforderungen bei der Integration von 3D-Modellen in digitale Bibliotheken und Archive sind zunächst die meist nur rudimentäre Annotation mit Metadaten seitens der Autoren und die nur implizit in den Modellen vorhandenen Informationen zu nennen. Aus diesen Defiziten resultiert ein aktuell starkes Interesse an inhaltsbasierter Erschließung durch vernetzte Nutzergruppen oder durch automatisierte Verfahren, die z.B. aufgrund von Form- oder Strukturmerkmalen eine automatische Kategorisierung von 3D-Modellen anhand gegebener Schemata ermöglichen. Die teilweise automatische Erkennung von objektinhärenter Semantik vergrößert die Menge an diskreten und semantisch unterscheidbaren Einheiten. 3D-Modelle als Content im World Wide Web können sowohl untereinander als auch mit anderen textuellen wie nichttextuellen Objekten verknüpft werden, also Teil von aggregierten Dokumenten sein. Die Aggregationen bzw. der Modellkontext sowie die inhärenten Entitäten erfordern Instrumente der Organisation, um dem Benutzer bei der Suche nach Informationen einen Mehrwert zu bieten, insbesondere dann, wenn textbasiert nach Informationen zum Modell und zu dessen Kontext gesucht wird. In der vorliegenden Arbeit wird ein Metadatenmodell zur gezielten Strukturierung von Information entwickelt, welche aus 3D-Architekturmodellen gewonnen wird. Mittels dieser Strukturierung kann das Modell mit weiterer Information vernetzt werden. Die Anwendung etablierter Ontologien sowie der Einsatz von URIs machen die Informationen nicht nur explizit, sondern beinhalten auch eine semantische Information über die Relation selbst, sodass eine Interoperabilität zu anderen verfügbaren Daten im Sinne der Grundprinzipien des Linked-Data-Ansatzes gewährleistet wird. / Digital 3D models from the domain of architecture have replaced analogue paper-based drawings as well as haptic scale models bit by bit during the last five decades. The main challenges for integrating 3D models in digital libraries and archives are posed by mostly only sparse annotation with metadata provided by the author and the fact that information is only implicitly available. This has recently led to an increased interest in context-based indexing using automatic approaches as well as social tagging. Computer based approaches usually rely on methods from artificial intelligence including machine learning for automated categorization based on geometric and structural properties according to a given classification scheme. The partially automated recognition of model-inherent semantics increases the number of discrete and semantically distinguishable entities. 3D models as parts of the World Wide Web can be interlinked which each other. Aggregations as well as the model context along with inherent entities require efficient tools for organization in order to provide real additional benefits for the user during its quest for information. Especially for text-based search on information about a 3D model and its context, a metadata model is an indispensable tool regarding the above described challenges. In this work we develop a metadata model for specific structuring of information, which is obtained from 3D architectural models. Using this structure, the model can be linked to further information. The application of established ontologies and the use of URIs make the information not only explicitly, but also provide semantic information about the relation itself. By that, interoperability according to the principles of the LOD approach is guaranteed.
16

Domain-Centered Product Line Testing

Lackner, Hartmut 11 July 2017 (has links)
Die Ansprüche von Kunden an neue (Software-)Produkte wachsen stetig. Produkte sollen genau auf die einzelnen Kundenwünsche zugeschnitten sein, sodass der Kunde genau die Funktionalität erhält und bezahlt die er benötigt. Hersteller reagieren auf diese gestiegenen Ansprüche mit immer mehr Varianten in denen sie ihre Produkte ihren Kunden anbieten. Die Variantenvielfalt hat in solchem Maß zugenommen, dass selbst in Massen gefertigte Produkte heute als Unikate produziert werden können. Neue Methoden wie Produktlinienentwicklung unterstützen die Entwicklung solcher variantenreicher Systeme. Während der Aufwand für die Entwicklung neuer Varianten nun sinkt, profitiert die Qualitätssicherung nicht vom Effizienzgewinn der Entwicklung. Im Gegenteil: Insbesondere beim Test wird zunächst jede Variante wie ein einzelnes Produkt behandelt. Bei variantenreichen Systemen ist dies aufwandsbedingt jedoch nicht mehr möglich. Die in dieser Arbeit vorgestellten Testentwurfsmethoden berücksichtigen die Variantenvielfalt in besonderem Maße. Bisher wurden, nach einer Stichprobenauswahl zur Reduktion des Testaufwands, die Testfälle auf Basis der konkreten Produkte entworfen. Statt nun auf Basis konkreter Produkte werden in dieser Arbeit zwei Ansätze vorgestellt, die die Phase des Testentwurfs auf die Produktlinienebene heben. Die bei Anwendung dieser Methoden entstehenden Testfälle enthalten, je nach Inhalt, Freiheitsgrade bzgl. ihrer Anforderungen an eine Variante, sodass ein Testfall auf ein oder mehrere Varianten angewendet wird. Ausgehend von solchen Testfällen werden in dieser Arbeit neue Kriterien zur Stichprobenauswahl entwickelt. Mit diesen Kriterien kann der Umfang der Stichprobe, aber auch Eigenschaften der zu testenden Varianten bzgl. eines gegebenes Testziel optimiert werden. So ist es möglich, z.B. sehr wenige oder sehr unterschiedliche Varianten zum Test auszuwählen. Insgesamt werden in dieser Arbeit fünf Kriterien definiert und auf ihr Fehleraufdeckungspotenzial untersucht. Zu diesem Zweck werden neue Bewertungskriterien zur Fehleraufdeckungswahrscheinlichkeit von Produktlinientests etabliert. Somit ist erstmalig eine quantitative sowie qualitative Bewertung von Produktlinientests möglich. Die Ergebnisse der vorgestellten Methoden und Auswahlkriterien werden sowohl untereinander evaluiert, als auch konventionellen Testmethoden für Produktliniensysteme gegenübergestellt. An vier Beispielen unterschiedlicher Gro{\"ss}e werden die in dieser Arbeit vorgestellten Methoden evaluiert. / Consumer expectations of (software-)products are growing continuously. They demand products that fit their exact needs, so they pay only for necessary functionalities. Producers react to those demands by offering more variants of a product. Product customization has reached a level where classically mass produced goods, like cars, can be configured to unique items. New paradigms facilitate the engineering of such variant-rich systems and reduce costs for development and production. While development and production became more efficient, quality assurance suffers from treating each variant as a distinct product. In particular, test effort is affected, since each variant must be tested sufficiently prior to production. For variant-rich systems this testing approach is not feasible anymore. The methods for test design presented in this thesis overcome this issue by integrating variability into the test design process. The resulting test cases include requirements for variants, which must be fulfilled to execute the test successfully. Hence multiple variants may fulfill these requirements, each test case may be applicable to more than only one variant. Having test cases with requirements enables sampling subsets of variants for the purpose of testing. Under the assumption that each test case must be executed once, variants can be sampled to meet predefined test goals, like testing a minimal or diverse subset of variants. In this thesis, five goals are defined and evaluated by assessing the tests for their fault detection potential. For this purpose, new criteria for assessing the fault detection capability of product line tests are established. These criteria enable quantitative as well as qualitative assessment of such test cases for the first time. The results of the presented methods are compared with each other and furthermore with state of the art methods for product line testing. This comparison is carried out on four examples of different sizes, from small to industry-grade.
17

Simulationssprachen - Effiziente Entwicklung und Ausführung

Blunk, Andreas 21 January 2019 (has links)
Simulationssprachen sind in Bezug auf die Unterstützung neuer domänenspezifischer Konzepte mit einer dem Problem entsprechenden prägnanten Darstellung nicht flexibel erweiterbar. Dies betrifft sowohl die Sprache in ihren Konzepten als auch die Unterstützung der Sprache durch Sprachwerkzeuge. In dieser Arbeit entsteht der neue Sprachentwicklungsansatz Discrete-Event Modelling with Extensibility (DMX) für die Entwicklung flexibel erweiterbarer Simulationssprachen für domänenspezifische Anwendungsfelder, der eine effiziente Entwicklung der Sprache und eine effiziente Ausführung von Modellen erlaubt. Der Fokus der Arbeit liegt auf der zeitdiskreten ereignisbasierten Simulation und einer prozessorientierten Beschreibung von Simulationsmodellen. Der Ansatz unterscheidet Basiskonzepte, die zur Basissprache gehören, und Erweiterungskonzepte, die Teil von Erweiterungsdefinitionen sind. Es wird untersucht, welche Basiskonzepte eine Simulationssprache bereitstellen muss, so dass eine laufzeiteffiziente Ausführung von prozessorientierten Modellen möglich ist. Die hohe Laufzeiteffizienz der Ausführung wird durch die Konzeption einer neuartigen Methode zur Abbildung von Prozesskontextwechseln auf ein C++-Programm gezeigt. Der Spracherweiterungsansatz ist nicht auf Simulationssprachen als Basissprachen beschränkt und wird daher allgemein beschrieben. Der Ansatz basiert auf einer Syntaxerweiterung einer Basissprache, die mit einem Metamodell und einer kontextfreien Grammatik definiert ist. Die Ausführung von Erweiterungskonzepten wird durch eine Konzeptreduktion auf Basiskonzepte erreicht. Der Ansatz stellt bestimmte Voraussetzungen an eine Basissprache und erlaubt bestimmte Arten von Erweiterungen, die in der Arbeit untersucht werden. Die Eignung des Anstatzes zur Entwicklung einer komplexen domänenspezifischen Simulationssprache wird an einer Sprache für Zustandsautomaten gezeigt. / Simulation languages are not extensible regarding the support of new domain-specific concepts with a concise representation. This includes the concepts of a language as well as the language tools. In this dissertation, the new approach Discrete-Event Modelling with Extensibility (DMX) is developed. DMX allows to create flexible domain-specific simulation languages by defining extensions to a base language. The approach allows to develop these languages efficiently and also to execute simulation models in a runtime efficient way. The focus of this dissertation is on process-oriented descriptions of discrete-event simulation models. The approach distinguishes base concepts which are part of the base language and extension concepts which are part of extension definitions. The dissertation investigates the necessary base concepts which should be included in a base simulation language in order to execute process-oriented models efficiently. The high runtime efficiency of executions is achieved by creating a new method for mapping process context switches to a program in C++. The runtime efficiency can be transferred to extension concepts as well. The extension approach is described in a general way because it is not limited to a simulation language as a base language. The approach is based on the syntax extension of a base language, which is defined by a metamodel and a context-free grammar. The execution of extension concepts is achieved by concept reduction to base concepts. The approach has a number of requirements to the base language and allows certain kinds of extensions, which are desribed in the dissertation. The possibility to define a complex domain-specific simulation language is shown by applying the approach to the development of a state machine language.
18

Indexing consistency between online catalogues

Chen, Xu 23 May 2008 (has links)
In der globalen Online-Umgebung stellen viele bibliographische Dienstleistungen integrierten Zugang zu unterschiedlichen internetbasierten OPACs zur Verfügung. In solch einer Umgebung erwarten Benutzer mehr Übereinstimmungen innerhalb und zwischen den Systemen zu sehen. Zweck dieser Studie ist, die Indexierungskonsistenz zwischen Systemen zu untersuchen. Währenddessen werden einige Faktoren, die die Indexierungskonsistenz beeinflussen können, untersucht. Wichtigstes Ziel dieser Studie ist, die Gründe für die Inkonsistenzen herauszufinden, damit sinnvolle Vorschläge gemacht werden können, um die Indexierungskonsistenz zu verbessern. Eine Auswahl von 3307 Monographien wurde aus zwei chinesischen bibliographischen Katalogen gewählt. Nach Hooper’s Formel war die durchschnittliche Indexierungskonsistenz für Indexterme 64,2% und für Klassennummern 61,6%. Nach Rolling’s Formel war sie für Indexterme 70,7% und für Klassennummern 63,4%. Mehrere Faktoren, die die Indexierungskonsistenz beeinflussen, wurden untersucht: (1) Indexierungsbereite; (2) Indexierungsspezifizität; (3) Länge der Monographien; (4) Kategorie der Indexierungssprache; (5) Sachgebiet der Monographien; (6) Entwicklung von Disziplinen; (7) Struktur des Thesaurus oder der Klassifikation; (8) Erscheinungsjahr. Gründe für die Inkonsistenzen wurden ebenfalls analysiert. Die Analyse ergab: (1) den Indexieren mangelt es an Fachwissen, Vertrautheit mit den Indexierungssprachen und den Indexierungsregeln, so dass viele Inkonsistenzen verursacht wurden; (2) der Mangel an vereinheitlichten oder präzisen Regeln brachte ebenfalls Inkonsistenzen hervor; (3) verzögerte Überarbeitungen der Indexierungssprachen, Mangel an terminologischer Kontrolle, zu wenige Erläuterungen und "siehe auch" Referenzen, sowie die hohe semantische Freiheit bei der Auswahl von Deskriptoren oder Klassen, verursachten Inkonsistenzen. / In the global online environment, many bibliographic services provide integrated access to different web-based OPACs. In such an environment, users expect to see more consistency within and between systems. In practice, indexers are not always consistent with each other, because subject indexing is essentially a subjective process. The purpose of this study is to investigate the indexing consistency between systems and to find out whether it is still frustrated in the new networked environment. Meanwhile, some factors which may influence indexing consistency will be examined. The most important aim of this study is to find out the reasons for inconsistencies, so that some reasonable suggestions can be made to improve indexing consistency. A sample of 3,307 monographs, i.e. 6,614 records was drawn from two Chinese bibliographic catalogues. According to Hooper¡¯s formula, the average consistency for index terms was 64.2% and for class numbers 61.6%. According to Rolling¡¯s formula, for index terms it was 70.7%, for class numbers 63.4%. Several factors affecting indexing consistency were examined: (1) exhaustivity of indexing; (2) specificity; (3) length of monographs indexed; (4) category of indexing languages; (5) subject area of monographs indexed; (6) development of disciplines; (7) structure of vocabulary; (8) year of publication. The reasons for inconsistencies were also analyzed. The analysis revealed that: (1) indexers¡¯ lack of subject knowledge, their unfamiliarity with indexing languages and indexing rules led to a lot of inconsistencies; (2) the lack of unified or detailed indexing policies brought about inconsistencies as well; (3) delayed revision of indexing languages, lack of vocabulary control, shortage of scope notes and ¡°see also¡± reference notes, and high semantic freedom by term or class choosing also caused inconsistencies.
19

Nichtgewerbliche AV-Medienarbeit im Umbruch

Pförsich, Peter 25 November 2013 (has links)
Die beiden großen christlichen Kirchen betreiben in Deutschland ein flächendeckendes Netz von Stellen zur Ausleihe von audiovisuellen Medien. Die Grundlagen für diese Arbeit wurden zumeist in den Jahren nach dem 2. Weltkrieg gelegt. Ein großer Schritt zur Weiterentwicklung der Verleihstellen erfolgte aufgrund der gesellschaftlichen Veränderungen in den 1960er Jahren. Die entliehenen Medien werden zu einem großen Teil im Religionsunterricht sowie in der kirchlichen Gemeindearbeit eingesetzt. Die Verleihstellen gleichen sich in ihren Kernaufgaben. In Bereichen wie dem Umfang des Medienangebots, der personellen und finanziellen Ausstattung sowie der Trägerschaft gibt es jedoch eine große Heterogenität. Die Gründe für diese Vielfalt sind oft in den Entwicklungsgeschichten der Stellen begründet. Die vorliegende Untersuchung bietet eine geschichtliche Veranschaulichung der kirchlichen AV-Medienarbeit, der Schwerpunkt liegt dabei auf der Evangelischen Kirche. Ferner werden in geringerem Umfang die Entwicklungen in der Katholischen Kirche und bei anderen staatlichen und privaten Trägern dargelegt. / The two major Christian churches in Germany run a nationwide agency network for rental of audiovisual media. The foundation of this network was predominantly set in the years following the second World War II set. A big step of the rental agency development was triggered by the societal changes in the 1960s. Rented media is predominantly used in the context of religious education and church community work. Rental agencies strongly resemble each other in their core business. Nevertheless, there is a great heterogeneity with regard to the extent of the media offer, the human and financial resources as well as the sponsorship. Reasons for this diversity often lie in the histories of the rental agencies. Thus, the present study provides a historical illustration of the audiovisual media work, whereas the focus lies on the Evangelical Church. In addition to that, developments in the Catholic Church and other governmental and private organizations are outlined to a smaller extent.
20

Zertifizierende verteilte Algorithmen

Völlinger, Kim 22 October 2020 (has links)
Eine Herausforderung der Softwareentwicklung ist, die Korrektheit einer Software sicherzustellen. Testen bietet es keine mathematische Korrektheit. Formale Verifikation ist jedoch oft zu aufwändig. Laufzeitverifikation steht zwischen den beiden Methoden. Laufzeitverifikation beantwortet die Frage, ob ein Eingabe-Ausgabe-Paar korrekt ist. Ein zertifizierender Algorithmus überzeugt seinen Nutzer durch ein Korrektheitsargument zur Laufzeit. Dafür berechnet ein zertifizierender Algorithmus für eine Eingabe zusätzlich zur Ausgabe noch einen Zeugen – ein Korrektheitsargument. Jeder zertifizierende Algorithmus besitzt ein Zeugenprädikat: Ist dieses erfüllt für eine Eingabe, eine Ausgabe und einen Zeugen, so ist das Eingabe-Ausgabe-Paar korrekt. Ein simpler Algorithmus, der das Zeugenprädikat für den Nutzer entscheidet, ist ein Checker. Die Korrektheit des Checkers ist folglich notwendig für den Ansatz und die formale Instanzverifikation, bei der wir Checker verifizieren und einen maschinen-geprüften Beweis für die Korrektheit eines Eingabe-Ausgabe-Paars zur Laufzeit gewinnen. Zertifizierende sequentielle Algorithmen sind gut untersucht. Verteilte Algorithmen, die auf verteilten Systemen laufen, unterscheiden sich grundlegend von sequentiellen Algorithmen: die Ausgabe ist über das System verteilt oder der Algorithmus läuft fortwährend. Wir untersuchen zertifizierende verteilte Algorithmen. Unsere Forschungsfrage ist: Wie können wir das Konzept zertifizierender sequentieller Algorithmen so auf verteilte Algorithmen übertragen, dass wir einerseits nah am ursprünglichen Konzept bleiben und andererseits die Gegebenheiten verteilter Systeme berücksichtigen? Wir stellen eine Methode der Übertragung vor. Die beiden Ziele abwägend entwickeln wir eine Klasse zertifizierender verteilter Algorithmen, die verteilte Zeugen berechnen und verteilte Checker besitzen. Wir präsentieren Fallstudien, Entwurfsmuster und ein Framework zur formalen Instanzverifikation. / A major problem in software engineering is to ensure the correctness of software. Testing offers no mathematical correctness. Formal verification is often too costly. Runtime verification stands between the two methods. Runtime verification answers the question whether an input-output pair is correct. A certifying algorithm convinces its user at runtime by offering a correctness argument. For each input, a certifying algorithm computes an output and additionally a witness. Each certifying algorithm has a witness predicate – a predicate with the property: being satisfied for an input, output and witness implies the input-output pair is correct. A simple algorithm deciding the witness predicate for the user is a checker. Hence, the checker’s correctness is crucial to the approach and motivates formal instance verification where we verify checkers and obtain machine-checked proofs for the correctness of an input-output pair at runtime. Certifying sequential algorithms are well-established. Distributed algorithms, designed to run on distributed systems, behave fundamentally different from sequential algorithms: their output is distributed over the system or they even run continuously. We investigate certifying distributed algorithms. Our research question is: How can we transfer the concept of certifying sequential algorithms to distributed algorithms such that we are in line with the original concept but also adapt to the conditions of distributed systems? In this thesis, we present a method to transfer the concept: Weighing up both sometimes conflicting goals, we develop a class of certifying distributed algorithms that compute distributed witnesses and have distributed checkers. We offer case studies, design patterns and a framework for formal instance verification. Additionally, we investigate other methods to transfer the concept of certifying algorithms to distributed algorithms.

Page generated in 0.2061 seconds