• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 250
  • 53
  • 50
  • 40
  • 28
  • 22
  • 21
  • 17
  • 12
  • 8
  • 6
  • 5
  • 4
  • 4
  • 3
  • Tagged with
  • 597
  • 100
  • 66
  • 58
  • 58
  • 56
  • 52
  • 51
  • 47
  • 47
  • 47
  • 45
  • 43
  • 41
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Integration of Heterogeneous Web-based Information into a Uniform Web-based Presentation

Janga, Prudhvi 17 October 2014 (has links)
No description available.
182

"Doctor, use the Force" : En fenomenografisk studie av individers berättelser angående sitt religiösa intresse gentemot Temple of the Jedi Order och Whovianism / "Doctor, use the Force" : A phenomenographic study of individuals’ stories about their religious interests in Temple of the Jedi order and Whovianism

Andersson, Josefin January 2015 (has links)
In this paper I have studied the two new religious phenomena, Temple of the Jedi Order and Whovianism, based on the cognitive concept of man dominated by schemas that characterize the outcome of adequate response to new situations. This principle is about how man faces new situations through old knowledge and experience of similar events. For this study, I analyzed selected stories in which individuals describe their religious interest and involvement in the Star Wars movies, and the related religious community Temple of the Jedi Order, as well as the television series Doctor Who, with the associated religious community Whovianism. This study was inspired by phenomenographic method by which researchers focus on the perceived and how it is conveyed in the respective story. The results of this study show that new religious phenomena, such as the Temple of the Jedi Order and Whovianism, can be explained using the theory of cognitive schemas.  The study shows that the individuals, whose stories have been examined, use ancient knowledge and experiences on the different aspects conveyed by Star Wars and Doctor Who and through this a new religious community is born.
183

Protocoles d'échanges de clefs authentifiés : modèles de sécurité, analyses et constructions

Sarr, Augustin 18 October 2010 (has links) (PDF)
Une part importante des protocoles d'échange de clefs proposés se sont révélés vulnérables lorsqu'analysés au regard des définitions de sécurité les plus récentes. Les arguments de sécurité des protocoles récents sont généralement fournis avec les modèles de sécurités dits de Canetti–Krawczyk (CK) et Canetti–Krawczyk étendus (eCK). Nous montrons que ces définitions de sécurité présentent des subtilités qui font que certaines attaques, qui peuvent être menées en pratique, ne sont pas considérées dans les analyses de sécurité. Nous proposons une forte définition de sécurité, qui englobe le modèle eCK. Nous proposons une analyse complémentaire des schémas de signature XCR (“Exponential Challenge Response”) et DCR (“Dual exponential Challenge Response”), qui sont les briques du protocole HMQV. Sur la base de cette analyse, nous montrons la vulnérabilités des protocoles (C, H)MQV(–C) aux fuites d'informations spécifiques à une session. Nous montrons notamment que lorsqu'un attaquant accède à certaines informations de session, qui ne conduisent pas à une divulgation de la clef statique du détenteur de la session, il peut réussir une attaque par usurpation d'identité. Nous proposons les schémas de signature FXCR (“Full XCR”) et FDCR (“Full DCR”) à partir desquels nous construisons les protocoles FHMQV (“Fully Hashed MQV”) et SMQV (“Strengthened MQV”) qui préservent la performance remarquable des protocole (H)MQV, en plus d'une meilleure résistance aux fuites d'informations. Les protocoles FHMQV et SMQV sont particulièrement adaptés aux environnements dans lesquels une machine non digne de confiance est combinée avec un module matériel à faible capacité de calcul et résistant aux violations de sécurité. Dans un tel environnement, les opérations effectuées sur le module matériel hors temps mort se réduisent à des opérations peu coûteuses. Les protocoles FHMQV et SMQV satisfont notre définition de sécurité sous les hypothèses de l'oracle aléatoire et du problème échelon de Diffie-Hellman.
184

Optimization and Refinement of XML Schema Inference Approaches / Optimization and Refinement of XML Schema Inference Approaches

Klempa, Michal January 2011 (has links)
Although XML is a widely used technology, the majority of real-world XML documents does not conform to any particular schema. To fill the gap, the research area of automatic schema inference from XML documents has emerged. This work refines and extends recent approaches to the automatic schema inference mainly by exploiting an obsolete schema in the inference process, designing new MDL measures and heuristic excluding of excentric data inputs. The work delivers a ready-to-use and easy-to-extend implementation integrated into the jInfer framework (developed as a software project). Experimental results are a part of the work.
185

Extraction and integration of Web query interfaces

Kabisch, Thomas 20 October 2011 (has links)
Diese Arbeit fokussiert auf die Integration von Web Anfrageschnittstellen (Web Formularen). Wir identifizieren mehrere Schritte für den Integrationsprozess: Im ersten Schritt werden unbekannte Anfrageschnittstellen auf ihre Anwendungsdomäne hin analysiert. Im zweiten Schritt werden die Anfrageschnittstellen in ein maschinenlesbares Format transformiert (Extraktion). Im dritten Schritt werden Paare semantisch gleicher Elemente zwischen den verschiedenen zu integrierenden Anfragesschnittstellen identifiziert (Matching). Diese Schritte bilden die Grundlage, um Systeme, die eine integrierte Sicht auf die verschiedenen Datenquellen bieten, aufsetzen zu können. Diese Arbeit beschreibt neuartige Lösungen für alle drei der genannten Schritte. Der erste zentrale Beitrag ist ein Exktraktionsalgorithmus, der eine kleine Zahl von Designregeln dazu benutzt, um Schemabäume abzuleiten. Gegenüber früheren Lösungen, welche in der Regel lediglich eine flache Schemarepräsentation anbieten, ist der Schemabaum semantisch reichhaltiger, da er zusätzlich zu den Elementen auch Strukturinformationen abbildet. Der Extraktionsalgorithmus erreicht eine verbesserte Qualität der Element-Extraktion verglichen mit Vergängermethoden. Der zweite Beitrag der Arbeit ist die Entwicklung einer neuen Matching-Methode. Hierbei ermöglicht die Repräsentation der Schnittstellen als Schemabäume eine Verbesserung vorheriger Methoden, indem auch strukturelle Aspekte in den Matching-Algorithmus einfließen. Zusätzlich wird eine globale Optimierung durchgeführt, welche auf der Theorie der bipartiten Graphen aufbaut. Als dritten Beitrag entwickelt die Arbeit einen Algorithms für eine Klassifikation von Schnittstellen nach Anwendungsdomänen auf Basis der Schemabäume und den abgeleiteten Matches. Zusätzlich wird das System VisQI vorgestellt, welches die entwickelten Algorithmen implementiert und eine komfortable graphische Oberfläche für die Unterstützung des Integrationsprozesses bietet. / This thesis focuses on the integration of Web query interfaces. We model the integration process in several steps: First, unknown interfaces have to be classified with respect to their application domain (classification); only then a domain-wise treatment is possible. Second, interfaces must be transformed into a machine readable format (extraction) to allow their automated analysis. Third, as a pre-requisite to integration across databases, pairs of semantically similar elements among multiple interfaces need to be identified (matching). Only if all these tasks have been solved, systems that provide an integrated view to several data sources can be set up. This thesis presents new algorithms for each of these steps. We developed a novel extraction algorithm that exploits a small set of commonsense design rules to derive a hierarchical schema for query interfaces. In contrast to prior solutions that use mainly flat schema representations, the hierarchical schema better represents the structure of the interfaces, leading to better accuracy of the integration step. Next, we describe a multi-step matching method for query interfaces which builds on the hierarchical schema representation. It uses methods from the theory of bipartite graphs to globally optimize the matching result. As a third contribution, we present a new method for the domain classification problem of unknown interfaces that, for the first time, combines lexical and structural properties of schemas. All our new methods have been evaluated on real-life datasets and perform superior to previous works in their respective fields. Additionally, we present the system VisQI that implements all introduced algorithmic steps and provides a comfortable graphical user interface to support the integration process.
186

Investigating Persistence Layers for Notifications

Ghourchian, Isabel January 2019 (has links)
This work was carried out for Cisco at the Tail-f department. Cisco’s main focus is on network and telecommunication. The Tail-f department is the developer of a network service automatization product that allows customers to automate the process of adding, removing and manage their developed devices and services in their network. In the context of this network service, notifications will arise to notify operators when something has happened. The notifications are currently stored in a configurational database that is currently used for all the data in the network service. The customers have wished for more flexibility and functionality in terms of operating the notification data since they are limited in what queries they may perform in order to analyze their data. The purpose of this project is to find an alternative way of storing the notifications with better functionality and efficiency. A number of different databases were investigated with respect to the functionality and performance requirements of the system. A final storage system ElasticSearch was chosen. ElasticSearch provides flexible schema handling and complex queries which makes it a suitable choice that fulfills the customers’ needs. A generator and subscriber program were built in order to perform tests and insertion of notification data into ElasticSearch. The generator creates notifications manually and the subscriber receives them and performs some parsing and insertion into the storage. The queries and performance of ElasticSearch was measured. The query results show that the new system is able to perform much more complex queries than before such as range queries, filtering and full-text searches. The performance results show that the system is able to handle around 1000 notifications every other millisecond before the system will slow down. This is a sufficient number that satisfies the customers’ needs. / Detta arbete utfördes för Cisco vid Tail-f avdelningen. Cisco fokuserar på nätoch telekommunikation. Tail-f är utvecklare av en automatiseringsprodukt för nätverk som gör det möjligt för kunder att automatisera processen att lägga till, ta bort och hantera sina utvecklade enheter och tjänster i deras nätverk. I samband med nätverkstjänsten kommer notifikationer att meddela operatörer när något har hänt.Meddelandena lagras för tillfället i en konfigurationsdatabas som för närvarande används för lagring av all data inom nätverkstjänsten. Kunderna har önskat efter mer flexibilitet och funktionalitet när det gäller att hantera datat eftersom de är begränsade i vilka sökfrågor de kan utföra för att analysera deras notifikationsdata.Syftet med detta projekt är att hitta ett alternativt sätt att lagra notifikationerna med bättre funktionalitet och effektivitet. Ett antal olika databaser undersöktes med avseende på systemets funktionalitet och prestandakrav. Ett slutgiltigt lagringssystem ElasticSearch valdes. ElasticSearch erbjuder flexibel schema-hantering och komplexa sökfrågor som gör det till ett lämpligt val som uppfyller kundernas behov. En generator och subscriber program utvecklades för att utföra test och införande av notifikationsdata i ElasticSearch. Generatorn skapar meddelanden manuellt och subscribern tar emot dem och utför viss parsing och insättning i lagringssystemet.Sökfrågor och prestanda för ElasticSearch mättes. Sökfrågans resultat visar att det nya systemet kan utföra mycket mer komplexa sökfrågor än tidigare, såsom intervall-sökningar, filtrering och full-text sökning. Resultatet visar att systemet kan hantera cirka 1000 notifikationer varannan millisekund innan systemet saktar ner. Detta är ett tillräckligt antal som uppfyller kundernas behov.
187

Early maladaptive schemas and cognitive distortions in psychopathy and narcissism

Torres, Cristian, Cristian.Torres@act.gov.au January 2003 (has links)
Personality disorders have traditionally been considered refractory to psychological interventions. Two of the most common, and potentially harmful personality disorders are antisocial personality disorder / psychopathy, and narcissism. Although a great deal of conceptual overlap exists between psychopathy and narcissism, the empirical study of these constructs has proceeded largely independently of one another. Further complicating the discrimination of these constructs is the identification of the bi-factorial nature of psychopathy - conceptualised as primary and secondary psychopathy - as well as the identification of two distinct forms of narcissism, overt and covert. The recent resurgence of interest in the sub-clinical manifestations of these two constructs has led to the development of a number of easily administered instruments to measure each of the psychopathy and narcissism constructs, as dimensional traits, within normal populations. This has provided empirically validated and reliable instruments to further explicate these two overlapping constructs. The first of the two studies reported sought to discriminate between psychopathy and narcissism through the recharacterisation of these constructs in terms of the early maladaptive schemas outlined in Young’s early maladaptive schema theory (Young, 1999). Two hundred and ninety one participants completed questionnaires measuring primary and secondary psychopathy, overt and covert narcissism, and early maladaptive schemas. Findings are consistent with the hypothesis that psychopathy and narcissism are discriminable in cognitive-interpersonal terms, as operationalised by early maladaptive schemas. Findings also call into question the earlier observed hierarchical structure of the Young Schema Questionnaire. The current analysis identified a two-factor structure to the schema questionnaire, rather than the previously stated 5-factors. Having demonstrated the usefulness of understanding psychopathy and narcissism in cognitive-interpersonal terms, the second study sought to further clarify the association between psychopathy and narcissism through the reconceptualisation of these constructs in cognitive terms, through the identification of the cognitive distortions operative in each disorder. One hundred and thirty two participants completed a cognitive distortions questionnaire developed by the author, along with the same measures of primary and secondary psychopathy, and overt and covert narcissism, as those administered in study 1. Findings were interpreted as providing support for the notion of psychopathy representing a sub-category of narcissism. Findings also provide further supportive evidence for the validity of the primary / secondary psychopathy, and overt / covert narcissism distinctions. The further clarification of the factor structure of the Young Schema Questionnaire, and the replication of the reliability and construct validity of the measure of cognitive distortions developed for this research are highlighted as areas for future research.
188

Dependency discovery for data integration

Bauckmann, Jana January 2013 (has links)
Data integration aims to combine data of different sources and to provide users with a unified view on these data. This task is as challenging as valuable. In this thesis we propose algorithms for dependency discovery to provide necessary information for data integration. We focus on inclusion dependencies (INDs) in general and a special form named conditional inclusion dependencies (CINDs): (i) INDs enable the discovery of structure in a given schema. (ii) INDs and CINDs support the discovery of cross-references or links between schemas. An IND “A in B” simply states that all values of attribute A are included in the set of values of attribute B. We propose an algorithm that discovers all inclusion dependencies in a relational data source. The challenge of this task is the complexity of testing all attribute pairs and further of comparing all of each attribute pair's values. The complexity of existing approaches depends on the number of attribute pairs, while ours depends only on the number of attributes. Thus, our algorithm enables to profile entirely unknown data sources with large schemas by discovering all INDs. Further, we provide an approach to extract foreign keys from the identified INDs. We extend our IND discovery algorithm to also find three special types of INDs: (i) Composite INDs, such as “AB in CD”, (ii) approximate INDs that allow a certain amount of values of A to be not included in B, and (iii) prefix and suffix INDs that represent special cross-references between schemas. Conditional inclusion dependencies are inclusion dependencies with a limited scope defined by conditions over several attributes. Only the matching part of the instance must adhere the dependency. We generalize the definition of CINDs distinguishing covering and completeness conditions and define quality measures for conditions. We propose efficient algorithms that identify covering and completeness conditions conforming to given quality thresholds. The challenge for this task is twofold: (i) Which (and how many) attributes should be used for the conditions? (ii) Which attribute values should be chosen for the conditions? Previous approaches rely on pre-selected condition attributes or can only discover conditions applying to quality thresholds of 100%. Our approaches were motivated by two application domains: data integration in the life sciences and link discovery for linked open data. We show the efficiency and the benefits of our approaches for use cases in these domains. / Datenintegration hat das Ziel, Daten aus unterschiedlichen Quellen zu kombinieren und Nutzern eine einheitliche Sicht auf diese Daten zur Verfügung zu stellen. Diese Aufgabe ist gleichermaßen anspruchsvoll wie wertvoll. In dieser Dissertation werden Algorithmen zum Erkennen von Datenabhängigkeiten vorgestellt, die notwendige Informationen zur Datenintegration liefern. Der Schwerpunkt dieser Arbeit liegt auf Inklusionsabhängigkeiten (inclusion dependency, IND) im Allgemeinen und auf der speziellen Form der Bedingten Inklusionsabhängigkeiten (conditional inclusion dependency, CIND): (i) INDs ermöglichen das Finden von Strukturen in einem gegebenen Schema. (ii) INDs und CINDs unterstützen das Finden von Referenzen zwischen Datenquellen. Eine IND „A in B“ besagt, dass alle Werte des Attributs A in der Menge der Werte des Attributs B enthalten sind. Diese Arbeit liefert einen Algorithmus, der alle INDs in einer relationalen Datenquelle erkennt. Die Herausforderung dieser Aufgabe liegt in der Komplexität alle Attributpaare zu testen und dabei alle Werte dieser Attributpaare zu vergleichen. Die Komplexität bestehender Ansätze ist abhängig von der Anzahl der Attributpaare während der hier vorgestellte Ansatz lediglich von der Anzahl der Attribute abhängt. Damit ermöglicht der vorgestellte Algorithmus unbekannte Datenquellen mit großen Schemata zu untersuchen. Darüber hinaus wird der Algorithmus erweitert, um drei spezielle Formen von INDs zu finden, und ein Ansatz vorgestellt, der Fremdschlüssel aus den erkannten INDs filtert. Bedingte Inklusionsabhängigkeiten (CINDs) sind Inklusionsabhängigkeiten deren Geltungsbereich durch Bedingungen über bestimmten Attributen beschränkt ist. Nur der zutreffende Teil der Instanz muss der Inklusionsabhängigkeit genügen. Die Definition für CINDs wird in der vorliegenden Arbeit generalisiert durch die Unterscheidung von überdeckenden und vollständigen Bedingungen. Ferner werden Qualitätsmaße für Bedingungen definiert. Es werden effiziente Algorithmen vorgestellt, die überdeckende und vollständige Bedingungen mit gegebenen Qualitätsmaßen auffinden. Dabei erfolgt die Auswahl der verwendeten Attribute und Attributkombinationen sowie der Attributwerte automatisch. Bestehende Ansätze beruhen auf einer Vorauswahl von Attributen für die Bedingungen oder erkennen nur Bedingungen mit Schwellwerten von 100% für die Qualitätsmaße. Die Ansätze der vorliegenden Arbeit wurden durch zwei Anwendungsbereiche motiviert: Datenintegration in den Life Sciences und das Erkennen von Links in Linked Open Data. Die Effizienz und der Nutzen der vorgestellten Ansätze werden anhand von Anwendungsfällen in diesen Bereichen aufgezeigt.
189

Load-inducing factors in instructional design: Process-related advances in theory and assessment

Wirzberger, Maria 25 January 2019 (has links)
Die vorliegende Dissertation nähert sich aktuellen Kontroversen in der Forschung zur kognitiven Beanspruchung in Lehr-Lernsituationen im Zusammenhang mit der Abgrenzung und dem Zusammenspiel ressourcenbeanspruchender Faktoren unter einer zeitbezogenen Perspektive. In einem neuartigen Forschungsansatz werden zu diesem Zweck experimentelle Aufgaben aus der kognitiven Grundlagenforschung angewendet und verschiedene Methoden zur Erfassung der kognitiven Beanspruchung und der Betrachtung zugrunde liegender kognitiver Prozesse kombiniert. Zusammenfassend betonen die gewonnenen Erkenntnisse eine prozessgeleitete Rekonzeptualisierung des bestehenden theoretischen Rahmenmodells der kognitiven Beanspruchung und unterstreichen zusätzlich die Bedeutung eines multimethodischen Ansatzes zur kontinuierlichen Erfassung der kognitiven Beanspruchung. Auf praktischer Seite lassen sich zentrale Hinweise für die Entwicklung adaptiver Algorithmen sowie eine an den Lernenden orientierte Gestaltung instruktionaler Prozesse ableiten, welche den Weg zu intelligenten Lehr-Lernsystemen eröffnen. / This thesis addresses ongoing controversies in cognitive load research related to the scope and interplay of resource-demanding factors in instructional situations on a temporal perspective. In a novel approach, it applies experimental task frameworks from basic cognitive research and combines different methods for assessing cognitive load and underlying cognitive processes. Taken together, the obtained evidence emphasizes a process-related reconceptualization of the existing theoretical cognitive load framework and underlines the importance of a multimethod-approach to continuous cognitive load assessment. On a practical side, it informs the development of adaptive algorithms and the learner-aligned design of instructional support and thus leverages a pathway towards intelligent educational assistants.
190

Modelldriven arkitektur förbättrar hanteringen av problemet med import av data till ER-modeller / Model Driven Architecture improves managing the problem of migrating data to ER models

Freij, Urban January 2015 (has links)
I många sammanhang är det önskvärt att importera data från textfiler, excelfiler och liknande till en databas. För detta krävs att data i något skede översätts till en ER-modell (Entity Relationship), en modell som beskriver relevanta delar i ett databasschema. Modellen för hur denna översättning ser ut varierar från fall till fall. I det här examensarbetet har en applikation tagits fram för import av data till en ER-modell ur ett modellperspektiv i linje med Model Driven Architecture (MDA) ™. Vinsten ligger i att använda en metamodell som beskriver hur olika modeller för transformering från tabelldata till en ER-modell får se ut. Modellerna i sin tur beskriver hur transformeringen ska se ut. På så sätt kan flera olika modeller användas utan att ändringar i källkoden behöver göras. Metamodellen som beskriver transformeringen har visualiserats i ett klassdiagram. Klassdiagrammet beskriver schematiskt sambanden mellan tabeller som data ska importeras ifrån och den ER-modell som data ska överföras till. Metamodellen har transformerats till ett XML-schema.  Modellerna som ska användas har skrivits i en XML-fil som följer den transformerade metamodellen. / In many situations it is desirable to import data from text files, excel files and similar to a database. To do so the data needs to be translated at some stage to an ER model (Entity Relationship), i.e. a model describing relevant parts of a database schema. The approach for this translation varies from case to case. During this thesis an application has been developed to import data to an ER model from a modeling perspective, in line with the Model Driven Architecture (MDA) ™. The gain lies in using a metamodel that describes how different models for transformation from grid tables to an ER mode may look like. The models in turn describe how the transformation will look, thus allowing the usage of several different models without any need of changes to the source code. The metamodel describing the transformation of data can be visualized in a class diagram. The class diagram schematically describes the relationships between tables of data to be imported from and the ER model the data will be transferred to. Preferable is to write a model in an XML that conforms to the metamodel. Therefore the class diagram should be transformed into an XML schema that enables validation of the model in the XML file.

Page generated in 0.0171 seconds