• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 12
  • 11
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 81
  • 13
  • 11
  • 10
  • 10
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Can Infants Use Transitive Inference in Attribution of Goals to Others?

Robson, Scott J 14 August 2012 (has links)
Transitive inference refers to the ability to use knowledge of pre-existing relationships to infer relationships between entities that have not been directly compared. This form of logical inference is an important skill for many social species, and has been thought to arise in an immature form in humans between the ages of four and six years. The experimental methods used to test this ability in humans often require some verbal skill, gross or fine motor coordination, a memory capable of containing numerous relationships, and often a great deal of time and repetition in testing. These methods of testing may have been too demanding on other physical and cognitive abilities to be successfully completed by children under four years of age, regardless of their ability to make transitive inferences. The present study used methods sensitive to infant cognition to test the current theory that the ability to make transitive inferences does not develop until the age of four. Nine-month-old infants were tested in three separate experiments using a visual habituation paradigm similar to that used by Woodward (1998) and through investigation of infants’ own imitative actions. Experiment 1 verified that infants can track the goals of others in a habituation paradigm when the goal object changes position throughout habituation trials, both through looking time measures and imitative action. Experiment 2 used an extension of this paradigm to examine the ability to make transitive inferences across a three item chain, serially ordered by the actor’s object preference, and no evidence of transitive inference was observed. Experiment 3 tested infants’ ability to habituate to and recall multiple goals using context as a cue to actor choice. Infants were able to consistently track only one of the pairings, suggesting that avoidance, in addition to selection, may play a role in infant performance in the visual habituation paradigm. / Thesis (Master, Neuroscience Studies) -- Queen's University, 2012-08-14 09:10:37.385
22

Reticular Chemistry for the Highly Connected Porous Crystalline Frameworks and Their Potential Applications

Chen, Zhijie 31 March 2018 (has links)
Control at the molecular level over porous solid-state materials is of prime importance for fine-tuning the local structures, as well as the resultant properties. Traditional porous solid-state materials such as zeolite and activated carbon are the benchmarks in the current market with vital applications in sorption and heterogeneous catalysis. However, the adjustments of pore size and geometry of those materials, which are essential for the broader aspect of modern prominent applications, remain challenging. Reticular chemistry has emerged as a dominant tool toward the ‘designed syntheses’ of porous crystalline frameworks (e.g. metal-organic frameworks (MOFs)) with a specific pore system. This dissertation illustrates the power of reticular chemistry and its use in the directional assembly of highly coordinated MOF materials, as well as their potential applications such as gas storage, natural gas upgrading, and light hydrocarbon separation. Highly connected minimal edge-transitive derived and related nets, obtained via the deconstruction of nodes of the edge-transitive nets, are suitable blueprints and can potentially be deployed in the future ‘designed syntheses’ of MOFs. The further employment of the conceptual net-coded building units (e.g. highly connected MBBs and edge-transitive SBLs) in the practical reticular synthesis results in the rational design and construction of functional MOF platforms like shp-, alb-, kce-, kex- and eea- MOFs. In addition, the isoreticular synthesis of Al-cea-MOF-2 with functionalized pendant acid moieties inside pore channels in comparison to the parent Al-cea-MOF-1 led to enhanced light hydrocarbons separation performance. Moreover, controlling the molecular defects in Zr-fum-fcu-MOFs resulted in the development of an ultramicroporous adsorbent with an engineered aperture size for the highly efficient separation of butane/iso-butane.
23

Uncovering the Role of the Hippocampus in the Transitive Inference Task Utilizing Pharmacological and Genetic Manipulations: Implications for Patients with Schizophrenia

Andre, Jessica Marie January 2011 (has links)
Patients with schizophrenia show a number of cognitive deficits that may be related to abnormal hippocampal physiology and function. One such cognitive deficit is in transitive inference. Simply stated, transitive inference is the ability to infer A > C after directly learning A > B and B > C. The hippocampus has been implicated in transitive inference as lesions of the hippocampus in C57BL/6 mice after initial training and testing impairs transitive inference. Likewise, lesions of the hippocampus in rats prior to training also impair transitive inference. However, lesions of the whole hippocampus are not able to specifically examine the role of the dorsal versus ventral hippocampus in this task. This is important because studies suggest that the dorsal and ventral poles of the hippocampus may be functionally different. The present experiment used reversible inactivation of the dorsal and ventral hippocampus to examine the role of these structures in transitive inference. Mice were trained to learn that A>B, B>C, C>D, and D>E during training phases and then were tested to show if they learned that A>E (the novel control pairing) and that B>D (the novel pairing which requires transitive inference) during test sessions. Following these test sessions, cannulae were inserted into the hippocampus and the mice were allowed 5 days to recover. After the recovery period, mice underwent 4 more test sessions. The GABAA agonist muscimol or saline was infused into the dorsal or ventral hippocampus thirty minutes before each test session. The mice which received muscimol infusion into the dorsal hippocampus performed similarly to controls on the novel control pairing (A>E) but were significantly impaired on the novel pairing (B>D) which required transitive inference. The DBA/2 strain of mice have altered hippocampal function and has been used to model schizophrenia. The study also compared performance of DBA/2J and C57BL/6J inbred mice in TI, and foreground and background fear conditioning, which both involve the hippocampus. Separate mice were then trained with two different fear conditioning paradigms. For background fear conditioning, mice are trained with two paired presentations of a conditioned stimulus (CS, 30 second, 85 dB white noise) and an unconditioned stimulus (US, 2 second, 0.57 mA foot shock). Mice are then tested the next day for both freezing to the training context. Foreground fear conditioning differed in that the mice were presented with only the shocks during training. DBA/2J mice performed significantly worse than the C57BL/6J in both foreground and background fear conditioning and transitive inference. These results provide further support for the role of the dorsal hippocampus in transitive inference. Moreover, these results may help provide a better understanding of the cognitive deficits associated with schizophrenia. / Psychology
24

Asymptotic Lower Bound for Quasi Transitive Codes over Cubic Finite Fields

Ethamakula, Bharath Kumar January 2015 (has links) (PDF)
Algebraic geometric codes were first introduced by V.D.Goppa . They were well recognized and developed by Tsfasman, Vladut and Zink because they have parameters better than Gilbert-Varshmov bound and thus giving rise to Tsfasman Vladut-Zink bound. While the codes given by Ihara, Tsfasman, Vladut and Zink have complicated construction, Garcia and Stichtenoth on the other hand gave an explicit construction of codes attaining Tsfasman-Vlasut-Zink bound using the terminology of function fields. In coding theory one of the challenging problem is to find a sequence of cyclic codes that are asymptotically good. While this has not been achieved, Stichtenoth generalized cyclic codes to transitive codes and constructed a sequence of asymptotically good transitive codes on algebraic function fields over quadratic finite fields that attain Tsfasman-Vladut-Zink bound. In the case of cubic finite fields, Bezerra, Garcia and Stichtenoth constructed a tower of function fields over cubic finite fields whose limit attains a lower bound and the codes constructed over this tower turns out to be asymptotically good attaining a positive lower bound. Bassa used this tower and constructed quasi transitive codes which are a generalization of transitive codes and proved that they are also asymptotically good and attain the same positive lower bound. Later Bassa, Garcia and Stichtenoth constructed a new tower of function fields over cubic finite fields whose structure is less complicated compared to that of Bezerra, Garcia and Stichtenoths' and proved that codes constructed over it also attain the same positive lower bound. In this work along the lines of Bassa and Stichtenoth we construct quasi transitive codes over the tower given by Bassa, Garcia and Stichtenoth and prove that these quasi transitive codes are also asymptotically good and also attain the same lower bound.
25

5-sparse steiner triple systems

Wolfe, Adam J. 04 August 2005 (has links)
No description available.
26

Optional RHEMES and Omitted UNDERGOERS : An Event Structure Approach to Implicit Objects in Swedish

Prytz, Johanna January 2016 (has links)
The aim of this thesis is to define the essential syntactic-semantic properties of three types of objectless sentences in present-day Swedish. The three types of objectless sentences are labeled descriptively as follows: Implicit Object Read type (IOR) with pseudo-transitive verbs like läsa ‘read’; Implicit Object Open type (IOO), which involves various sets of transitive verbs like öppna ‘open’ and bära ‘carry’; and Implicit Object Kill type (IOK), which typically involves destruction verbs like döda ‘kill’. The study is framed within Ramchand’s (2008) syntactic model with a three-partite decomposed verb phrase, which distinguishes between two types of objects: RHEMES, which are inserted into a complement position in the verb phrase, and UNDERGOERS, which are inserted into a specifier position. In this work, IOR is argued to be an objectless version of pseudo-transitive verbs with optional RHEMES, whereas IOO and IOK are argued to involve ‘true’ transitive verbs with omitted UNDERGOER objects. As a consequence, the IOR verbs are analyzed as sharing their structure with some verbs usually regarded as intransitive, such as springa ‘run’ and arbeta ‘work’, which can also marginally take RHEME objects. This opens up for a discussion on the transitive- intransitive distinction and the object status of RHEMES, as well as a discussion of lexical knowledge versus encyclopedic knowledge. The distinction of optional RHEMES and syntactically obligatory UNDERGOER objects is argued to arise from event structural differences among sets of verbs, as well as from different verb-object relations that are made possible within the three-partite verb phrase. The structural verb-object relations are argued to be influenced further by encyclopedic associations of particular verbs and by knowledge about the world. In contrast to IOR, IOO and IOK are both argued to involve the omission of an UNDERGOER object of a true transitive verb. In the case of IOO, the object referent is salient and specific, whereas for IOK, the object referent is non-specific. Thus, the restriction on IOO as well as on IOK can be informally phrased in terms of the object only being omissible if it is interpretable, or somewhat more formally, if the free variable can be bound. However, the variable binding is assumed to occur in two distinct ways, further motivating the distinction of IOO and IOK. Whereas the free variable of an IOO object is pragmatically bound, the variable of an IOK object is instead bound by an existential operator above the VP.
27

Effiziente MapReduce-Parallelisierung von Entity Resolution-Workflows

Kolb, Lars 11 December 2014 (has links) (PDF)
In den vergangenen Jahren hat das neu entstandene Paradigma Infrastructure as a Service die IT-Welt massiv verändert. Die Bereitstellung von Recheninfrastruktur durch externe Dienstleister bietet die Möglichkeit, bei Bedarf in kurzer Zeit eine große Menge von Rechenleistung, Speicherplatz und Bandbreite ohne Vorabinvestitionen zu akquirieren. Gleichzeitig steigt sowohl die Menge der frei verfügbaren als auch der in Unternehmen zu verwaltenden Daten dramatisch an. Die Notwendigkeit zur effizienten Verwaltung und Auswertung dieser Datenmengen erforderte eine Weiterentwicklung bestehender IT-Technologien und führte zur Entstehung neuer Forschungsgebiete und einer Vielzahl innovativer Systeme. Ein typisches Merkmal dieser Systeme ist die verteilte Speicherung und Datenverarbeitung in großen Rechnerclustern bestehend aus Standard-Hardware. Besonders das MapReduce-Programmiermodell hat in den vergangenen zehn Jahren zunehmend an Bedeutung gewonnen. Es ermöglicht eine verteilte Verarbeitung großer Datenmengen und abstrahiert von den Details des verteilten Rechnens sowie der Behandlung von Hardwarefehlern. Innerhalb dieser Dissertation steht die Nutzung des MapReduce-Konzeptes zur automatischen Parallelisierung rechenintensiver Entity Resolution-Aufgaben im Mittelpunkt. Entity Resolution ist ein wichtiger Teilbereich der Informationsintegration, dessen Ziel die Entdeckung von Datensätzen einer oder mehrerer Datenquellen ist, die dasselbe Realweltobjekt beschreiben. Im Rahmen der Dissertation werden schrittweise Verfahren präsentiert, welche verschiedene Teilprobleme der MapReduce-basierten Ausführung von Entity Resolution-Workflows lösen. Zur Erkennung von Duplikaten vergleichen Entity Resolution-Verfahren üblicherweise Paare von Datensätzen mithilfe mehrerer Ähnlichkeitsmaße. Die Auswertung des Kartesischen Produktes von n Datensätzen führt dabei zu einer quadratischen Komplexität von O(n²) und ist deswegen nur für kleine bis mittelgroße Datenquellen praktikabel. Für Datenquellen mit mehr als 100.000 Datensätzen entstehen selbst bei verteilter Ausführung Laufzeiten von mehreren Stunden. Deswegen kommen sogenannte Blocking-Techniken zum Einsatz, die zur Reduzierung des Suchraums dienen. Die zugrundeliegende Annahme ist, dass Datensätze, die eine gewisse Mindestähnlichkeit unterschreiten, nicht miteinander verglichen werden müssen. Die Arbeit stellt eine MapReduce-basierte Umsetzung der Auswertung des Kartesischen Produktes sowie einiger bekannter Blocking-Verfahren vor. Nach dem Vergleich der Datensätze erfolgt abschließend eine Klassifikation der verglichenen Kandidaten-Paare in Match beziehungsweise Non-Match. Mit einer steigenden Anzahl verwendeter Attributwerte und Ähnlichkeitsmaße ist eine manuelle Festlegung einer qualitativ hochwertigen Strategie zur Kombination der resultierenden Ähnlichkeitswerte kaum mehr handhabbar. Aus diesem Grund untersucht die Arbeit die Integration maschineller Lernverfahren in MapReduce-basierte Entity Resolution-Workflows. Eine Umsetzung von Blocking-Verfahren mit MapReduce bedingt eine Partitionierung der Menge der zu vergleichenden Paare sowie eine Zuweisung der Partitionen zu verfügbaren Prozessen. Die Zuweisung erfolgt auf Basis eines semantischen Schlüssels, der entsprechend der konkreten Blocking-Strategie aus den Attributwerten der Datensätze abgeleitet ist. Beispielsweise wäre es bei der Deduplizierung von Produktdatensätzen denkbar, lediglich Produkte des gleichen Herstellers miteinander zu vergleichen. Die Bearbeitung aller Datensätze desselben Schlüssels durch einen Prozess führt bei Datenungleichverteilung zu erheblichen Lastbalancierungsproblemen, die durch die inhärente quadratische Komplexität verschärft werden. Dies reduziert in drastischem Maße die Laufzeiteffizienz und Skalierbarkeit der entsprechenden MapReduce-Programme, da ein Großteil der Ressourcen eines Clusters nicht ausgelastet ist, wohingegen wenige Prozesse den Großteil der Arbeit verrichten müssen. Die Bereitstellung verschiedener Verfahren zur gleichmäßigen Ausnutzung der zur Verfügung stehenden Ressourcen stellt einen weiteren Schwerpunkt der Arbeit dar. Blocking-Strategien müssen stets zwischen Effizienz und Datenqualität abwägen. Eine große Reduktion des Suchraums verspricht zwar eine signifikante Beschleunigung, führt jedoch dazu, dass ähnliche Datensätze, z. B. aufgrund fehlerhafter Attributwerte, nicht miteinander verglichen werden. Aus diesem Grunde ist es hilfreich, für jeden Datensatz mehrere von verschiedenen Attributen abgeleitete semantische Schlüssel zu generieren. Dies führt jedoch dazu, dass ähnliche Datensätze unnötigerweise mehrfach bezüglich verschiedener Schlüssel miteinander verglichen werden. Innerhalb der Arbeit werden deswegen Algorithmen zur Vermeidung solch redundanter Ähnlichkeitsberechnungen präsentiert. Als Ergebnis dieser Arbeit wird das Entity Resolution-Framework Dedoop präsentiert, welches von den entwickelten MapReduce-Algorithmen abstrahiert und eine High-Level-Spezifikation komplexer Entity Resolution-Workflows ermöglicht. Dedoop fasst alle in dieser Arbeit vorgestellten Techniken und Optimierungen in einem nutzerfreundlichen System zusammen. Der Prototyp überführt nutzerdefinierte Workflows automatisch in eine Menge von MapReduce-Jobs und verwaltet deren parallele Ausführung in MapReduce-Clustern. Durch die vollständige Integration der Cloud-Dienste Amazon EC2 und Amazon S3 in Dedoop sowie dessen Verfügbarmachung ist es für Endnutzer ohne MapReduce-Kenntnisse möglich, komplexe Entity Resolution-Workflows in privaten oder dynamisch erstellten externen MapReduce-Clustern zu berechnen.
28

Effiziente MapReduce-Parallelisierung von Entity Resolution-Workflows

Kolb, Lars 08 December 2014 (has links)
In den vergangenen Jahren hat das neu entstandene Paradigma Infrastructure as a Service die IT-Welt massiv verändert. Die Bereitstellung von Recheninfrastruktur durch externe Dienstleister bietet die Möglichkeit, bei Bedarf in kurzer Zeit eine große Menge von Rechenleistung, Speicherplatz und Bandbreite ohne Vorabinvestitionen zu akquirieren. Gleichzeitig steigt sowohl die Menge der frei verfügbaren als auch der in Unternehmen zu verwaltenden Daten dramatisch an. Die Notwendigkeit zur effizienten Verwaltung und Auswertung dieser Datenmengen erforderte eine Weiterentwicklung bestehender IT-Technologien und führte zur Entstehung neuer Forschungsgebiete und einer Vielzahl innovativer Systeme. Ein typisches Merkmal dieser Systeme ist die verteilte Speicherung und Datenverarbeitung in großen Rechnerclustern bestehend aus Standard-Hardware. Besonders das MapReduce-Programmiermodell hat in den vergangenen zehn Jahren zunehmend an Bedeutung gewonnen. Es ermöglicht eine verteilte Verarbeitung großer Datenmengen und abstrahiert von den Details des verteilten Rechnens sowie der Behandlung von Hardwarefehlern. Innerhalb dieser Dissertation steht die Nutzung des MapReduce-Konzeptes zur automatischen Parallelisierung rechenintensiver Entity Resolution-Aufgaben im Mittelpunkt. Entity Resolution ist ein wichtiger Teilbereich der Informationsintegration, dessen Ziel die Entdeckung von Datensätzen einer oder mehrerer Datenquellen ist, die dasselbe Realweltobjekt beschreiben. Im Rahmen der Dissertation werden schrittweise Verfahren präsentiert, welche verschiedene Teilprobleme der MapReduce-basierten Ausführung von Entity Resolution-Workflows lösen. Zur Erkennung von Duplikaten vergleichen Entity Resolution-Verfahren üblicherweise Paare von Datensätzen mithilfe mehrerer Ähnlichkeitsmaße. Die Auswertung des Kartesischen Produktes von n Datensätzen führt dabei zu einer quadratischen Komplexität von O(n²) und ist deswegen nur für kleine bis mittelgroße Datenquellen praktikabel. Für Datenquellen mit mehr als 100.000 Datensätzen entstehen selbst bei verteilter Ausführung Laufzeiten von mehreren Stunden. Deswegen kommen sogenannte Blocking-Techniken zum Einsatz, die zur Reduzierung des Suchraums dienen. Die zugrundeliegende Annahme ist, dass Datensätze, die eine gewisse Mindestähnlichkeit unterschreiten, nicht miteinander verglichen werden müssen. Die Arbeit stellt eine MapReduce-basierte Umsetzung der Auswertung des Kartesischen Produktes sowie einiger bekannter Blocking-Verfahren vor. Nach dem Vergleich der Datensätze erfolgt abschließend eine Klassifikation der verglichenen Kandidaten-Paare in Match beziehungsweise Non-Match. Mit einer steigenden Anzahl verwendeter Attributwerte und Ähnlichkeitsmaße ist eine manuelle Festlegung einer qualitativ hochwertigen Strategie zur Kombination der resultierenden Ähnlichkeitswerte kaum mehr handhabbar. Aus diesem Grund untersucht die Arbeit die Integration maschineller Lernverfahren in MapReduce-basierte Entity Resolution-Workflows. Eine Umsetzung von Blocking-Verfahren mit MapReduce bedingt eine Partitionierung der Menge der zu vergleichenden Paare sowie eine Zuweisung der Partitionen zu verfügbaren Prozessen. Die Zuweisung erfolgt auf Basis eines semantischen Schlüssels, der entsprechend der konkreten Blocking-Strategie aus den Attributwerten der Datensätze abgeleitet ist. Beispielsweise wäre es bei der Deduplizierung von Produktdatensätzen denkbar, lediglich Produkte des gleichen Herstellers miteinander zu vergleichen. Die Bearbeitung aller Datensätze desselben Schlüssels durch einen Prozess führt bei Datenungleichverteilung zu erheblichen Lastbalancierungsproblemen, die durch die inhärente quadratische Komplexität verschärft werden. Dies reduziert in drastischem Maße die Laufzeiteffizienz und Skalierbarkeit der entsprechenden MapReduce-Programme, da ein Großteil der Ressourcen eines Clusters nicht ausgelastet ist, wohingegen wenige Prozesse den Großteil der Arbeit verrichten müssen. Die Bereitstellung verschiedener Verfahren zur gleichmäßigen Ausnutzung der zur Verfügung stehenden Ressourcen stellt einen weiteren Schwerpunkt der Arbeit dar. Blocking-Strategien müssen stets zwischen Effizienz und Datenqualität abwägen. Eine große Reduktion des Suchraums verspricht zwar eine signifikante Beschleunigung, führt jedoch dazu, dass ähnliche Datensätze, z. B. aufgrund fehlerhafter Attributwerte, nicht miteinander verglichen werden. Aus diesem Grunde ist es hilfreich, für jeden Datensatz mehrere von verschiedenen Attributen abgeleitete semantische Schlüssel zu generieren. Dies führt jedoch dazu, dass ähnliche Datensätze unnötigerweise mehrfach bezüglich verschiedener Schlüssel miteinander verglichen werden. Innerhalb der Arbeit werden deswegen Algorithmen zur Vermeidung solch redundanter Ähnlichkeitsberechnungen präsentiert. Als Ergebnis dieser Arbeit wird das Entity Resolution-Framework Dedoop präsentiert, welches von den entwickelten MapReduce-Algorithmen abstrahiert und eine High-Level-Spezifikation komplexer Entity Resolution-Workflows ermöglicht. Dedoop fasst alle in dieser Arbeit vorgestellten Techniken und Optimierungen in einem nutzerfreundlichen System zusammen. Der Prototyp überführt nutzerdefinierte Workflows automatisch in eine Menge von MapReduce-Jobs und verwaltet deren parallele Ausführung in MapReduce-Clustern. Durch die vollständige Integration der Cloud-Dienste Amazon EC2 und Amazon S3 in Dedoop sowie dessen Verfügbarmachung ist es für Endnutzer ohne MapReduce-Kenntnisse möglich, komplexe Entity Resolution-Workflows in privaten oder dynamisch erstellten externen MapReduce-Clustern zu berechnen.
29

Spectral Realizations of Symmetric Graphs, Spectral Polytopes and Edge-Transitivity

Winter, Martin 29 June 2021 (has links)
A spectral graph realization is an embedding of a finite simple graph into Euclidean space that is constructed from the eigenvalues and eigenvectors of the graph's adjacency matrix. It has previously been observed that some polytopes can be reconstructed from their edge-graphs by taking the convex hull of a spectral realization of this edge-graph. These polytopes, which we shall call spectral polytopes, have remarkable rigidity and symmetry properties and are a source for many open questions. In this thesis we aim to further the understanding of this phenomenon by exploring the geometric and combinatorial properties of spectral polytopes on several levels. One of our central questions is whether already weak forms of symmetry can be a sufficient reason for a polytope to be spectral. To answer this, we derive a geometric criterion for the identification of spectral polytopes and apply it to prove that indeed all polytopes of combined vertex- and edge-transitivity are spectral, admit a unique reconstruction from the edge-graph and realize all the symmetries of this edge-graph. We explore the same questions for graph realizations and find that realizations of combined vertex- and edge-transitivity are not necessarily spectral. Instead we show that we require a stronger form of symmetry, called distance-transitivity. Motivated by these findings we take a closer look at the class of edge-transitive polytopes, for which no classification is known. We state a conjecture for a potential classification and provide complete classifications for several sub-classes, such as distance-transitive polytopes and edge-transitive polytopes that are not vertex-transitive. In particular, we show that the latter class contains only polytopes of dimension d <= 3. As a side result we obtain the complete classification of the vertex-transitive zonotopes and a new characterization for root systems.
30

A Description Logic with Transitive and Converse Roles and Role Hierarchies

Horrocks, Ian, Sattler, Ulrike 19 May 2022 (has links)
Aus der Einleitung: „As widely argued [Horrocks&Gough,1997; Sattler,1996], transitive roles play an important role in the adequate representation of aggregated objects: they allow these objects to be described by referring to their parts without specifying a level of decomposition. In [Horrocks&Gough,1997], the Description Logic (DL) ALCHR+ is presented, which extends ALC with transitive roles and a role hierarchy. It is argued in [Sattler,1998] that ALCHR+ is well-suited to the representation of aggregated objects in applications that require various part-whole relations to be distinguished, some of which are transitive. However, ALCHR+ allows neither the description of parts by means of the whole to which they belong, or vice versa. To overcome this limitation, we present the DL ALCHIR+ which allows the use of, for example, has part as well as is part of. To achieve this, ALCHR+ was extended with inverse roles. It could be argued that, instead of defining yet another DL, one could make use of the results presented in [De Giacomo&Lenzerini,1996] and use ALC extended with role expressions which include transitive closure and inverse operators. The reason for not proceeding like this is the fact that transitive roles can be implemented more eficiently than the transitive closure of roles (see [Horrocks&Gough,1997]), although they lead to the same complexity class (ExpTime-hard) when added, together with role hierarchies, to ALC. Furthermore, it is still an open question whether the transitive closure of roles together with inverse roles necessitates the use of the cut rule [DeGiacomo&Massacci,1998], and this rule leads to an algorithm with very bad behaviour. We will present an algorithm for ALCHIR+ without such a rule.” / An abridged version will appear in the Proceedings of the International Workshop on Description Logics, Trento, Italy, 1998.

Page generated in 0.0384 seconds