• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 21
  • 4
  • 1
  • Tagged with
  • 49
  • 34
  • 23
  • 23
  • 23
  • 12
  • 9
  • 8
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

O novo marco regulatório como instrumento para a efetivação de políticas públicas de democratização do acesso à educação superior / Die neue regulierung des hochschulwesens als mittel für eine wirkame politik der demokratisierung des zugangs zu höherer bildung

Braga, Claudio Mendonça 11 June 2013 (has links)
O presente estudo tem por objeto o estudo do marco regulatório da educação superior e de sua relação com a garantia de acesso à educação superior no Brasil. Para tanto, o direito à educação é estudado para que seja estabelecida sua relação com o direito da educação um conjunto de normas jurídicas que disciplinam a atividade educacional. Posteriormente, o direito da educação superior é analisado, com destaque na necessidade de autorização estatal e avaliação de qualidade. São estudados, também, os fundamentos da atividade regulatória do estado e a natureza jurídica da atividade educacional. Em seguida, é estudado o sistema regulatório da educação superior no Brasil, por meio de processo administrativo que, após a realização de avaliação de qualidade, expede atos administrativos regulatórios. Por fim, é analisada a relação da regulação da educação superior com políticas públicas de garantia de acesso à educação superior. / Diese These stellt sich die Aufgabe, das Studium der Regulierung der Hochschulbildung und ihre Beziehung zur Bereitstellung des Zugangs zu höherer Bildung in Brasilien. Daher wird das Recht auf Bildung und ihre Beziehung mit dem pädagogische Recht untersucht sein. Anschließend wird das Recht der Hochschulen analysiert, die die Notwendigkeit für staatliche Zulassung und Qualitätssicherung. Die Fundamente der regulierung aktivität des Staates und der Rechtsnatur des erzieherischen Tätigkeit werden ebenfalls untersucht.. Dann wird das regulatorische System der höheren Bildung in Brasilien durch Verwaltungsverfahren studiert, durch die Beurteilung und Expedition von regulatorischen Verwaltungsakte. Schließlich untersuchten wir die Beziehung der Regulierung der Hochschulbildung mit der Politik, den Zugang zu höherer Bildung.
32

Graph Traversals for Regular Path Queries

Tetzel, Frank, Kasperovics, Romans, Lehner, Wolfgang 15 June 2023 (has links)
Regular Path Queries (RPQs) are at the core of many recent declarative graph pattern matching languages. They leverage the compactness and expressiveness of regular expressions for matching recursive path structures. Unfortunately, most prior works on RPQs only consider breadth-first search as traversal strategy, neglecting other possible graph traversals like depth-first search or a combination of both. Within this paper, we conduct an analysis of graph traversals for RPQs by introducing a generalized graph traversal frame-work subsuming breadth-first search and depth-first search as extreme cases and thus opening up a new design space for graph traversals algorithms. We outline the underlying principles as well as provide comprehensive experimental evaluation using implementations which yield beneficial results regarding evaluation time and peak memory consumption.
33

Neue Ansätze zur Auswertung und Klassiffizierung von sehr hochauflösenden Daten

Hoffmann, Andrea 10 May 2001 (has links)
Auf dem Luftbildsektor vollziehen sich seit einigen Jahren grundsätzliche Veränderungen. Digitale flugzeuggetragene Kamerasysteme und hochauflösende Satellitensysteme bieten neue Potentiale der Datenakquise und -auswertung. Diese digitalen Datensätze werden in absehbarer Zeit das herkömmliche Luftbild ersetzen und Kartographie, Photogrammetrie und Fernerkundung erheblich verändern. Die neue Generation von digitalen Kameras wird zwei zentrale Bereiche der Kartographie einschneidend beeinflussen: Die Orthokartenherstellung und die Kartenaktualisierung. Der Bedarf aktueller Geobasisdaten macht Orthobilder besonders für Geoinformationssysteme interessant. Bisher standen als Basisdaten für Orthobildkarten großer Auflösung (> 1:10 000) lediglich Luftbilder zur Verfügung. Es wird gezeigt, daß die digitalen Daten der neuen Kamerageneration zur Erstellung von Orthobildkarten operationell einsetzbar sind. Durch die automatisierte Prozessierung werden sie den Anforderungen an schnelle aktuelle Kartenprodukte gerecht, mit ihrer hochgenauen Navigation bieten die digitalen Systeme die automatisierte Erstellung geometrisch sehr genauer Datensätze, die mit herkömmlichen Mitteln nur sehr aufwendig erreicht werden könnten. Ein Vergleich mit Luftbildern zeigt und bewertet die Unterschiede beider Aufnahmesysteme. Untersucht wurden Datensätze der digitalen Kamera HRSC-A des DLR Adlershof. Mit der HRSC-A (High Resolution Stereo Camera - Airborne) und der speziell für die Prozessierung dieser Daten entwickelten Software steht den Geoinformationsnutzern erstmals ein operationelles System zur Verfügung, das vollständig digital und vollautomatisch hochauflösende Orthobilddaten produziert. Die Pixelauflösung liegt zwischen 10 und 40 cm (Flughöhe von 2500 bis 10 000 m). Als vorteilhaft für die Analyse erweist sich die gleichzeitige Verfügbarkeit von hochauflösenden panchromatischen und multispektralen Datensätzen, die Verfügbarkeit eines hochauflösenden Geländemodells (x,y: 50 cm bzw. 1m, z: 10 cm) und die hohe Genauigkeit der Datensätze. Die Arbeit diskutiert die Problematik einer automatisierten Auswertung hochauflösender Daten. Diese Datensätze stellen neue Anforderungen an Auswertungsverfahren. Der Detailreichtum erschwert die Interpretation, gröbere räumliche Auflösungen glätten die Komplexität innerhalb heterogener Landnutzungen (besonders in urbanen Gebieten) und erleichtern so eine automatische Interpretation. Es wird gezeigt, daß "klassische" Auswertungsmethoden wie pixelbasierte Klassifizierungen (überwacht oder unüberwacht) zur Auswertung der hochauflösenden Daten nur bedingt geeignet sind. Im Rahmen der Arbeit werden zwei neue Ansätze entwickelt und untersucht, die nicht mehr pixelweise, sondern flächenhaft und objektorientiert arbeiten. Ein per-parcel-Ansatz zeigt gute Ergebnisse bei der Auswertung. Das Verfahren ermittelt zunächst mittels einer unüberwachten Klassifizierung Szenekomponenten in definierten Untereinheiten (parcel), die den Inhalt des Datensatzes repräsentieren. Die klassifizierten Pixel innerhalb der definierten parcel-Einheiten werden anschließend extrahiert und ihr Verhältnis zueinander weiter ausgewertet. Ergebnis ist zunächst die prozentuelle Verteilung der Szenekomponenten in den Einheiten, anschließend werden Zusammenhänge zwischen den vorhandenen Komponenten und der Landoberfläche definiert. Untersucht wurde ferner ein objektorientierter Ansatz, der die Interpretation von Einzelobjekten erlaubt. Hierbei wird das Bild in homogene Objekte segmentiert, die die Grundlage für die weitere Analyse bilden. Der diskutierte Ansatz besteht aus zwei Strategien: Mittels multiskalarer Segmentierung wird der Bilddatensatz zunächst in Einheiten strukturiert, verschiedene Maßstabsebenen sind gleichzeitig verfügbar. Grundidee ist die Schaffung eines hierarchischen Netzes von Bildobjekten. Diese gefundenen Einheiten werden anschließend spektral mittels Nearest Neighbour oder wissensbasiert mittels Fuzzy Logic Operatoren klassifiziert. Der Ansatz zeigt überzeugende Ergebnisse bei einer automatisierten Hauserkennung und der Aktualisierung bestehender Vektordatensätze. Die Einteilung der Bilddaten in Segmente, also zunächst eine Abstrahierung der Information vom Einzelpixel zu größeren semantischen Einheiten und die weitere Bearbeitung dieser Segmente erwies sich als sinnvoll. Es wurde ferner gezeigt, daß für die Analyse in städtischen Räumen die Einbeziehung von Oberflächeninformation unbedingt erforderlich ist. Durch die spektrale Ähnlichkeit von Bildelementen bietet die Einbeziehung des Oberflächenmodells die Möglichkeit, mittels einer zusätzlich bekannten Information über die Höhe der Objekte, diese Klassen zu trennen. / Remote sensing goes through times of fundamental changes. New digital airborne camera systems offer new potentials for data aquisition and interpretation. These data sets will replace aerial photography in the near future and change photogrammetry, cartography and remote sensing. The new camera generation will influence two central domains of cartography: Orthomap production and map updating. As a base for in-time updating orthomaps became more and more important. Up to now large scale mapping (scales > 1:10,000) is done nearly exclusively with aerial photographs. It can be shown that the digital data sets of the new camera generation can be used operationally for the production of orthomaps. A fully automated processing line provides the ortho images very shortly after aquisition, due to the used high precision navigation system the accuracy of the data is very high, even very big scales can be realized. A comparison of digital cameras and aerial photos discusses and rates the properties of the different aquisition systems and data sets. For interpretation data sets of the digital camera HRSC-A were used. The High Resolution Stereo Camera - Airborne (HRSC-A) digital photogrammetric camera and its processing software provides the geoinformation industry for the first time with an entirely digital and fully automatic process to produce highly accurate digital image data. The pixel size ranges between 10 and 40 cm (flight altitude 2500 - 10,000 m). The airborne camera combines high resolution, photogrammetric accuracy and all-digital acquisition and provides both multispectral and elevation information. The pushbroom instrument provides digital ortho-images and digital surface models with an accuracy of 10-20 cm. The use of this wide range of image information showed to be very helpful for data analysis. This investigation focuses on the problems of automated interpretation of high-resolution data. These data sets make high demands on automated interpretation procedures. The richness of details depicted in the data sets complicates the interpretation, coarser spatial resolutions smooth out spatial complexity within heterogeneous land cover types, such as urban, and make an automated interpretation easier. This report shows that conventional interpretation techniques like pixelbased classification (supervised or unsupervised) do not lead to satisfactory results. Two new object-oriented and region-oriented approaches for the interpretation of high resolution data sets were developped and discussed. The parcel-based approach showed good results in interpretation of the data. The proposed methodology begins with an unsupervised per-pixel classification to identify spectral clusters which represent the range of scene components present in the pre-defined land parcels. The per-parcel analysis extracts the pixels classified as scene components within the land parcel under examination and calculates the total numbers and fractions for each scene component present. To identify land cover types not represented by scene components at the land parcel level, it is necessary to process the scene component information and infer relationships between the scene components present and land cover type. A set of rules was devised to identify a range of land cover types from the mixtures of scene components found within each land parcel. Secondly an object-oriented and multi-scale image analysis approach was used for the interpretation of single objects. The procedure contains two basic domains. The strategy is to build up a hierarchical network of image objects which allows to represent the image information content at different resolutions (scales) simultaneously. In a second step the image objects were classified by means of fuzzy logic, either on features of objects and/or on relations between networked objects operating on the semantic network. The procedure showed very good results in detecting houses and updating vector data sets. Segmenting the data in semantic units and performing further analysis on these units showed to be very helpful for interpretation. It could be shown that for analysis of urban areas the use of a Digital Surface Model is necessary. Due to the spectral similarities of image elements the elevation information offers an important additional tool for analysis.
34

Einführung des betrieblichen Gesundheitsmanagements an einem Fachkrankenhaus für Neurologie und Psychiatrie

Daubner, Sigrid 06 November 2015 (has links)
In dieser Arbeit wird ein Konzept für das betriebliche Gesundheitsmanagement an einem Fachkrankenhaus für Neurologie und Psychiatrie erstellt. Hierbei werden zunächst allgemeine Grundlagen sowie die Entwicklung und Teilbereiche des betrieblichen Gesundheitsmanagements dargestellt. Darauf basierend wird anschließend am praktischen Beispiel eines Fachkrankenhauses für Neurologie und Psychiatrie mit Hilfe einer Mitarbeiterbefragung sowie einer Literaturrecherche ein organisatorisches und inhaltliches Konzept für das betriebliche Gesundheitsmanagement entworfen. Inhaltlich umfasst dieses die alters- und berufsgruppenspezifisch bedarfsorientierte Entwicklung von Maßnahmen und Angeboten an zwei Gesundheitstagen jährlich, sowie die dauerhafte Etablierung verschiedener Angebote zur Förderung der Gesundheit und Prävention von Erkrankungen der Mitarbeiter. Weiterhin werden die notwendigen organisatorischen Determinanten erarbeitet, die zur Einführung, Weiterentwicklung und Überprüfung der Wirksamkeit des BGM erforderlich sind. Im abschließenden Fazit erfolgen eine aktuelle Bewertung der Konzeption und ein Ausblick in die Zukunft.
35

The AIR model (Activities, Internal world, Relationships): a pragmatic framework for evaluating co-design

Gosling, Julie, Craven, Michael P., Dening, Tom, Coleston-Shields, Dons, Aberturas, Adriana G., Martin, Sandra G., Muñoz, Marcos, Ruiz, Guillermo B., Bueno, Yolanda, Almeida, Rosa, Català, Andreu, Diaz, Marta, Karahanoglu, Armağan, Ludden, Geke D. S., Smith, Tina, Niederer, Kristina, Lüneburg, Lisa-Marie, Tournier, Isabelle, Abrilahij, Afsaneh 18 December 2019 (has links)
A pragmatic model, AIR (Activities; Internal world; Relationships), is presented for co-design of technologies and products to support well-being of people living with dementia. This model, co-developed with people with lived experience, is aimed at including psychosocial aspects in the prototype development process. The model is then related to a form of mindful evaluation framework that can be employed during the prototype testing of co-designed solutions. The components of this evaluation framework and associated instruments are described.
36

Experimentelle Untersuchung von dispersen Zweiphasenströmungen in vertikalen Rohren mittels ultraschneller Röntgentomographie

Banowski, Manuel Johannes 09 August 2019 (has links)
Die Dissertation widmet sich der fortgeschrittenen experimentellen Analyse von dispersen Zweiphasenströmungen mittels ultraschneller Röntgentomographie. Hintergrund dieser Arbeit war die Zielsetzung, die Entwicklung und Validierung von Methoden der numerischen Strömungsberechnung (Computational Fluid Dynamics - CFD) durch experimentelle Studien zu unterstützen. Dazu wurden Blasenströmungen in einem Rohr mit einem weiten Bereich von Leerrohrgeschwindigkeiten und verschiedenen Hauptströmungsrichtungen untersucht. Dieses generische, experimentelle Szenario einer sich in einem vertikalen Kanal entwickelnden Zweiphasenströmung stellt einen anerkannten Benchmark-Fall für die numerische Strömungssimulation dar und ist darüber hinaus für viele praktische Anwendungen in der Energie- und Verfahrenstechnik von Bedeutung. Mit Anwendung der ultraschnellen Röntgentomographie war es im Rahmen dieser Arbeit erstmalig möglich, Zweiphasenströmungen in einer bisher nicht erreichbaren Detailtreue bildgebend zu erfassen. Allerdings bedarf es im Rahmen der angestrebten Validierung von numerischen Berechnungswerkzeugen für Zweiphasenströmungen einer möglichst genauen Extraktion quantitativer strömungsmechanischer Parameter. Während die Bestimmung von zeit- bzw. raumintegralen Gasgehaltsverteilungen mit Mittelungsverfahren nach dem Stand von Wissenschaft und Technik verhältnismäßig unkritisch ist, wurde im Rahmen dieser Arbeit der Fokus auf die nur mit der schnellen Röntgentomographie mögliche Bestimmung von Blasengrößen und Blasengeschwindigkeitsverteilungen aus tomographischen Bilddaten gelegt. Dazu wurden neue Bildauswerteverfahren entwickelt, validiert und angewendet.
37

Evaluating the Vector Supercomputer SX-Aurora TSUBASA as a Co-Processor for In-Memory Database Systems

Pietrzyk, Johannes, Habich, Dirk, Damme, Patrick, Focht, Erich, Lehner, Wolfgang 16 June 2023 (has links)
In-memory column-store database systems are state of the art for the efficient processing of analytical workloads. In these systems, data compression as well as vectorization play an important role. Currently, the vectorized processing is done using regular SIMD (Single Instruction Multiple Data) extensions of modern processors. For example, Intel’s latest SIMD extension supports 512-bit vector registers which allows the parallel processing of 8× 64-bit values. From a database system perspective, this vectorization technique is not only very interesting for compression and decompression to reduce the computational overhead, but also for all database operators like joins, scan, as well as groupings. In contrast to these SIMD extensions, NEC Corporation has recently introduced a novel pure vector engine (supercomputer) as a co-processor called SX-Aurora TSUBASA. This vector engine features a vector length of 16.384 bits with the world’s highest bandwidth of up to 1.2 TB/s, which perfectly fits to data-intensive applications like in-memory database systems. Therefore, we describe the unique architecture and properties of this novel vector engine in this paper. Moreover, we present selected in-memory column-store-specific evaluation results to show the benefits of this vector engine compared to regular SIMD extensions. Finally, we conclude the paper with an outlook on our ongoing research activities in this direction.
38

GignoMDA

Habich, Dirk, Richly, Sebastian, Lehner, Wolfgang 03 July 2023 (has links)
Database Systems are often used as persistent layer for applications. This implies that database schemas are generated out of transient programming class descriptions. The basic idea of the MDA approach generalizes this principle by providing a framework to generate applications (and database schemas) for different programming platforms. Within our GignoMDA project [3]--which is subject of this demo proposal--we have extended classic concepts for code generation. That means, our approach provides a single point of truth describing all aspects of database applications (e.g. database schema, project documentation,...) with great potential for cross-layer optimization. These new cross-layer optimization hints are a novel way for the challenging global optimization issue of multi-tier database applications. The demo at VLDB comprises an in-depth explanation of our concepts and the prototypical implementation by directly demonstrating the modeling and the automatic generation of database applications.
39

XML Stream Processing Quality

Schmidt, Sven, Gemulla, Rainer, Lehner, Wolfgang 12 January 2023 (has links)
Systems for selective dissemination of information (SDI) are used to efficiently filter, transform, and route incoming XML documents according to pre-registered XPath profiles to subscribers. Recent work focuses on the efficient implementation of the SDI core/filtering engine. Surprisingly, all systems are based on the best effort principle: The resulting XML document is delivered to the consumer as soon as the filtering engine has successfully finished. In this paper, we argue that a more specific Quality-of-Service consideration has to be applied to this scenario. We give a comprehensive motivation of quality of service in SDI-systems, discuss the two most critical factors of XML document size and shape and XPath structure and length, and finally outline our current prototype of a Quality-of-Service-based SDI-system implementation based on a real-time operating system and an extention of the XML toolkit.
40

Zur strukturierten Auswertung von Tiefeninterviews in der Personalauswahl

Gulba, Astrid 09 July 2004 (has links) (PDF)
In der vorliegenden Arbeit wird ein strukturiertes Vorgehen bei der Auswertung von Tiefeninterviews in der Personalauswahl vorgeschlagen. Ausgewählte Arbeitsschritte dieses strukturierten Vorgehens werden evaluiert: Identifikation relevanter Informationen, Zuordnung der Informationen zu Arbeitsanforderungen, Beurteilung des Bewerbers hinsichtlich der einzelnen Arbeitsanforderung und der Gesamteignung. Es wurden drei Interviewtranskripte von Tiefeninterviews konstruiert, zwei davon anhand eines simulierten, aber real durchgeführten Rollenspiels, eines anhand einer Modellperson. Die Untersuchungsteilnehmer hatten die Aufgabe, diese Interviewtranskripte auszuwerten und die Bewerber zu beurteilen. In Hauptuntersuchung I werden die klassischen Gütekriterien (Objektivität, Reliabilität und Validität) der strukturierten Auswertung bestimmt. In Hauptuntersuchung II wird geprüft, ob diese strukturierte Auswertung zu höheren Gütekriterien führt als eine nicht strukturierte Vorgehensweise. Die Ergebnisse zeigen ein heterogenes Bild der Gütekriterien der strukturierten Auswertung. Die Objektivität und Validität der Identifikation der Informationen kann als gut, die Retest-Reliabilität als zufriedenstellend bezeichnet werden. Die Retest-Reliabilität der korrekten Zuordnung der Informationen zu den Arbeitsanforderungen kann als zufriedenstellend gekennzeichnet werden, während die Validität dieses Auswertungsschrittes als mangelhaft anzusehen ist. Der Vergleich der strukturierten mit der nicht strukturierten Auswertung zeigt, dass die korrekte Identifikation der relevanten Informationen bei strukturierter Auswertung eher gelingt (Validität). Hinsichtlich der Objektivität zeigt sich bei diesem Auswertungsschritt kein statistischer Unterschied. Die Objektivität der Beurteilung der Arbeitsanforderungen ist hingegen bei strukturierter Auswertung signifikant höher. Eine höhere Validität ist hier nur für ein Interviewtranskript nachweisbar. In der vorliegenden Arbeit konnte gezeigt werden, dass der Auswertungsschritt der Zuordnung der Informationen zu den Arbeitsanforderungen schwierig ist. Eine verhaltensorientierte Definition der Arbeitsanforderungen scheint hierfür nicht auszureichen. Die Überlegenheit der strukturierten gegenüber einer nicht strukturierten Auswertung konnte aber teilweise gezeigt werden. Die Methode zur Auswertung von Tiefeninterviews in der Personalauswahl ergänzt bereits vorliegende Auswertungsvorschläge der strukturierten Interviewmethoden. Anhand der vorliegenden Arbeit lassen sich weitere Analysen der einzelnen Auswertungsschritte sowie die Entwicklung eines handhabbaren Auswertungsinstruments für Praktiker ableiten.

Page generated in 0.0512 seconds