• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 8
  • 2
  • 2
  • Tagged with
  • 21
  • 8
  • 7
  • 7
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Probleme der Wissensgesellschaft und ihrer Wissens-Wissenschaften Thesen zur Neukonturierung der Erwerbsarbeit

Moldaschl, Manfred F. 05 November 2007 (has links) (PDF)
Die Transformation der Industriegesellschaft zur „Wissensgesellschaft“ ist ein in vielen Punk-ten erst noch zu verstehender und zu erforschender Prozess. Man muss sich nicht lange mit der scholastischen Frage aufhalten, ob man aktuelle Umbrüche in Erwerbsarbeit und Gesell-schaft unter diesem Label angemessen zusammenfassen kann, solange man den Begriff als eine unter verschiedenen möglichen „Brillen“ betrachtet, die die Aufmerksamkeit auf be-stimmte Trends lenkt und die Annahmen bezüglich ihrer inneren Zusammenhänge klar formu-liert.
12

Learning Terminological Knowledge with High Confidence from Erroneous Data

Borchmann, Daniel 17 September 2014 (has links) (PDF)
Description logics knowledge bases are a popular approach to represent terminological and assertional knowledge suitable for computers to work with. Despite that, the practicality of description logics is impaired by the difficulties one has to overcome to construct such knowledge bases. Previous work has addressed this issue by providing methods to learn valid terminological knowledge from data, making use of ideas from formal concept analysis. A basic assumption here is that the data is free of errors, an assumption that can in general not be made for practical applications. This thesis presents extensions of these results that allow to handle errors in the data. For this, knowledge that is "almost valid" in the data is retrieved, where the notion of "almost valid" is formalized using the notion of confidence from data mining. This thesis presents two algorithms which achieve this retrieval. The first algorithm just extracts all almost valid knowledge from the data, while the second algorithm utilizes expert interaction to distinguish errors from rare but valid counterexamples.
13

A knowledge-based framework for the alignment of prokaryotic genomes

Wetjen, Tom H. Unknown Date (has links) (PDF)
University, Diss., 2005--Bremen.
14

Probleme der Wissensgesellschaft und ihrer Wissens-Wissenschaften Thesen zur Neukonturierung der Erwerbsarbeit

Moldaschl, Manfred F. 05 November 2007 (has links)
Die Transformation der Industriegesellschaft zur „Wissensgesellschaft“ ist ein in vielen Punk-ten erst noch zu verstehender und zu erforschender Prozess. Man muss sich nicht lange mit der scholastischen Frage aufhalten, ob man aktuelle Umbrüche in Erwerbsarbeit und Gesell-schaft unter diesem Label angemessen zusammenfassen kann, solange man den Begriff als eine unter verschiedenen möglichen „Brillen“ betrachtet, die die Aufmerksamkeit auf be-stimmte Trends lenkt und die Annahmen bezüglich ihrer inneren Zusammenhänge klar formu-liert.
15

Computational methods for counterterrorism

Argamon, Shlomo January 2009 (has links)
Literaturangaben
16

Learning Terminological Knowledge with High Confidence from Erroneous Data

Borchmann, Daniel 09 September 2014 (has links)
Description logics knowledge bases are a popular approach to represent terminological and assertional knowledge suitable for computers to work with. Despite that, the practicality of description logics is impaired by the difficulties one has to overcome to construct such knowledge bases. Previous work has addressed this issue by providing methods to learn valid terminological knowledge from data, making use of ideas from formal concept analysis. A basic assumption here is that the data is free of errors, an assumption that can in general not be made for practical applications. This thesis presents extensions of these results that allow to handle errors in the data. For this, knowledge that is "almost valid" in the data is retrieved, where the notion of "almost valid" is formalized using the notion of confidence from data mining. This thesis presents two algorithms which achieve this retrieval. The first algorithm just extracts all almost valid knowledge from the data, while the second algorithm utilizes expert interaction to distinguish errors from rare but valid counterexamples.
17

Web Mining - die Fallstudie Swarovski : theoretische Grundlagen und praktische Anwendungen /

Linder, Alexander, Wehrli, Hans Peter. January 2005 (has links) (PDF)
Zugleich: Diss. Wirtschaftswiss. Zürich, 2004. / Im Buchh.: Wiesbaden : Deutscher Universitäts-Verlag. Literaturverz.
18

Signal-metabolome interactions in plants

Birkemeyer, Claudia Sabine January 2005 (has links)
From its first use in the field of biochemistry, instrumental analysis offered a variety of invaluable tools for the comprehensive description of biological systems. Multi-selective methods that aim to cover as many endogenous compounds as possible in biological samples use different analytical platforms and include methods like gene expression profile and metabolite profile analysis. The enormous amount of data generated in application of profiling methods needs to be evaluated in a manner appropriate to the question under investigation. The new field of system biology rises to the challenge to develop strategies for collecting, processing, interpreting, and archiving this vast amount of data; to make those data available in form of databases, tools, models, and networks to the scientific community.<br><br> On the background of this development a multi-selective method for the determination of phytohormones was developed and optimised, complementing the profile analyses which are already in use (Chapter I). The general feasibility of a simultaneous analysis of plant metabolites and phytohormones in one sample set-up was tested by studies on the analytical robustness of the metabolite profiling protocol. The recovery of plant metabolites proved to be satisfactory robust against variations in the extraction protocol by using common extraction procedures for phytohormones; a joint extraction of metabolites and hormones from plant tissue seems practicable (Chapter II).<br><br> Quantification of compounds within the context of profiling methods requires particular scrutiny (Chapter II). In Chapter III, the potential of stable-isotope in vivo labelling as normalisation strategy for profiling data acquired with mass spectrometry is discussed. First promising results were obtained for a reproducible quantification by stable-isotope in vivo labelling, which was applied in metabolomic studies.<br><br> In-parallel application of metabolite and phytohormone analysis to seedlings of the model plant Arabidopsis thaliana exposed to sulfate limitation was used to investigate the relationship between the endogenous concentration of signal elements and the ‘metabolic phenotype’ of a plant. An automated evaluation strategy was developed to process data of compounds with diverse physiological nature, such as signal elements, genes and metabolites – all which act in vivo in a conditional, time-resolved manner (Chapter IV). Final data analysis focussed on conditionality of signal-metabolome interactions. / Die instrumentelle Analytik stellt mit ihrem unschätzbaren Methodenreichtum Analysenwerkzeuge zur Verfügung, die seit ihrem Einzug in die Biologie die Aufzeichnung immer komplexerer ‚Momentaufnahmen’ von biologischen Systemen ermöglichen. Konkret hervorzuheben sind dabei vor allem die sogenannten ‚Profilmethoden’. Die Anwendung von Profilmethoden zielt darauf ab, aus einer bestimmten Stoffklasse so viele zugehörige Komponenten wie nur möglich gleichzeitig zu erfassen. <br><br> Für die Auswertung derart komplexer Daten müssen nun auch entsprechende Auswertungsmethoden bereit gestellt werden. Das neu entstandene Fachgebiet der Systembiologie erarbeitet deshalb Strategien zum Sammeln, Auswerten und Archivieren komplexer Daten, um dieses gesammelte Wissen in Form von Datenbanken, Modellen und Netzwerken der allgemeinen Nutzung zugänglich zu machen.<br><br> Vor diesem Hintergrund wurde den vorhandenen Profilanalysen eine Methode zur Erfassung von Pflanzenhormonen hinzugefügt. Verschiedene Experimente bestätigten die Möglichkeit zur Kopplung von Pflanzenhormon- und Pflanzeninhaltsstoff(=metabolit)-Profilanalyse. In weiteren Untersuchungen wurde das Potential einer innovativen Standardisierungstechnologie für die mengenmässige Erfassung von Pflanzeninhaltsstoffen in biologischen Proben betrachtet (in vivo labelling mit stabilen Isotopen).<br><br> Hormon- und Metabolitprofilanalyse wurden dann parallel angewandt, um Wechselwirkungen zwischen der Konzentration von Signalkomponenten und der Ausprägung des Stoffwechsels in Keimlingen der Modellpflanze Arabidopsis thaliana zu untersuchen. Es wurde eine Prozessierungsmethode entwickelt, die es auf einfache Art und Weise erlaubt, Daten oder Komponenten verschiedenen Ursprungs wie Signalelemente, Gene und Metabolite, die in biologischen Systemen zeitlich versetzt aktiv oder verändert erscheinen, im Zusammenhang zu betrachten. Die abschließende Analyse aller Daten richtet sich auf die Abschätzung der Bedingtheit von Signal-Metabolismus Interaktionen.
19

Konzeption und Entwicklung eines automatisierten Workflows zur geovisuellen Analyse von georeferenzierten Textdaten(strömen) / Microblogging Content / Concept and development of an automated workflow for geovisual analytics of georeferenced text data (streams) / microblogging content

Gröbe, Mathias 27 October 2016 (has links) (PDF)
Die vorliegende Masterarbeit behandelt den Entwurf und die exemplarische Umsetzung eines Arbeitsablaufs zur Aufbereitung von georeferenziertem Microblogging Content. Als beispielhafte Datenquelle wurde Twitter herangezogen. Darauf basierend, wurden Überlegungen angestellt, welche Arbeitsschritte nötig und mit welchen Mitteln sie am besten realisiert werden können. Dabei zeigte sich, dass eine ganze Reihe von Bausteinen aus dem Bereich des Data Mining und des Text Mining für eine Pipeline bereits vorhanden sind und diese zum Teil nur noch mit den richtigen Einstellungen aneinandergereiht werden müssen. Zwar kann eine logische Reihenfolge definiert werden, aber weitere Anpassungen auf die Fragestellung und die verwendeten Daten können notwendig sein. Unterstützt wird dieser Prozess durch verschiedenen Visualisierungen mittels Histogrammen, Wortwolken und Kartendarstellungen. So kann neues Wissen entdeckt und nach und nach die Parametrisierung der Schritte gemäß den Prinzipien des Geovisual Analytics verfeinert werden. Für eine exemplarische Umsetzung wurde nach der Betrachtung verschiedener Softwareprodukte die für statistische Anwendungen optimierte Programmiersprache R ausgewählt. Abschließend wurden die Software mit Daten von Twitter und Flickr evaluiert. / This Master's Thesis deals with the conception and exemplary implementation of a workflow for georeferenced Microblogging Content. Data from Twitter is used as an example and as a starting point to think about how to build that workflow. In the field of Data Mining and Text Mining, there was found a whole range of useful software modules that already exist. Mostly, they only need to get lined up to a process pipeline using appropriate preferences. Although a logical order can be defined, further adjustments according to the research question and the data are required. The process is supported by different forms of visualizations such as histograms, tag clouds and maps. This way new knowledge can be discovered and the options for the preparation can be improved. This way of knowledge discovery is already known as Geovisual Analytics. After a review of multiple existing software tools, the programming language R is used to implement the workflow as this language is optimized for solving statistical problems. Finally, the workflow has been tested using data from Twitter and Flickr.
20

Tracking domain knowledge based on segmented textual sources

Kalledat, Tobias 11 May 2009 (has links)
Die hier vorliegende Forschungsarbeit hat zum Ziel, Erkenntnisse über den Einfluss der Vorverarbeitung auf die Ergebnisse der Wissensgenerierung zu gewinnen und konkrete Handlungsempfehlungen für die geeignete Vorverarbeitung von Textkorpora in Text Data Mining (TDM) Vorhaben zu geben. Der Fokus liegt dabei auf der Extraktion und der Verfolgung von Konzepten innerhalb bestimmter Wissensdomänen mit Hilfe eines methodischen Ansatzes, der auf der waagerechten und senkrechten Segmentierung von Korpora basiert. Ergebnis sind zeitlich segmentierte Teilkorpora, welche die Persistenzeigenschaft der enthaltenen Terme widerspiegeln. Innerhalb jedes zeitlich segmentierten Teilkorpus können jeweils Cluster von Termen gebildet werden, wobei eines diejenigen Terme enthält, die bezogen auf das Gesamtkorpus nicht persistent sind und das andere Cluster diejenigen, die in allen zeitlichen Segmenten vorkommen. Auf Grundlage einfacher Häufigkeitsmaße kann gezeigt werden, dass allein die statistische Qualität eines einzelnen Korpus es erlaubt, die Vorverarbeitungsqualität zu messen. Vergleichskorpora sind nicht notwendig. Die Zeitreihen der Häufigkeitsmaße zeigen signifikante negative Korrelationen zwischen dem Cluster von Termen, die permanent auftreten, und demjenigen das die Terme enthält, die nicht persistent in allen zeitlichen Segmenten des Korpus vorkommen. Dies trifft ausschließlich auf das optimal vorverarbeitete Korpus zu und findet sich nicht in den anderen Test Sets, deren Vorverarbeitungsqualität gering war. Werden die häufigsten Terme unter Verwendung domänenspezifischer Taxonomien zu Konzepten gruppiert, zeigt sich eine signifikante negative Korrelation zwischen der Anzahl unterschiedlicher Terme pro Zeitsegment und den einer Taxonomie zugeordneten Termen. Dies trifft wiederum nur für das Korpus mit hoher Vorverarbeitungsqualität zu. Eine semantische Analyse auf einem mit Hilfe einer Schwellenwert basierenden TDM Methode aufbereiteten Datenbestand ergab signifikant unterschiedliche Resultate an generiertem Wissen, abhängig von der Qualität der Datenvorverarbeitung. Mit den in dieser Forschungsarbeit vorgestellten Methoden und Maßzahlen ist sowohl die Qualität der verwendeten Quellkorpora, als auch die Qualität der angewandten Taxonomien messbar. Basierend auf diesen Erkenntnissen werden Indikatoren für die Messung und Bewertung von Korpora und Taxonomien entwickelt sowie Empfehlungen für eine dem Ziel des nachfolgenden Analyseprozesses adäquate Vorverarbeitung gegeben. / The research work available here has the goal of analysing the influence of pre-processing on the results of the generation of knowledge and of giving concrete recommendations for action for suitable pre-processing of text corpora in TDM. The research introduced here focuses on the extraction and tracking of concepts within certain knowledge domains using an approach of horizontally (timeline) and vertically (persistence of terms) segmenting of corpora. The result is a set of segmented corpora according to the timeline. Within each timeline segment clusters of concepts can be built according to their persistence quality in relation to each single time-based corpus segment and to the whole corpus. Based on a simple frequency measure it can be shown that only the statistical quality of a single corpus allows measuring the pre-processing quality. It is not necessary to use comparison corpora. The time series of the frequency measure have significant negative correlations between the two clusters of concepts that occur permanently and others that vary within an optimal pre-processed corpus. This was found to be the opposite in every other test set that was pre-processed with lower quality. The most frequent terms were grouped into concepts by the use of domain-specific taxonomies. A significant negative correlation was found between the time series of different terms per yearly corpus segments and the terms assigned to taxonomy for corpora with high quality level of pre-processing. A semantic analysis based on a simple TDM method with significant frequency threshold measures resulted in significant different knowledge extracted from corpora with different qualities of pre-processing. With measures introduced in this research it is possible to measure the quality of applied taxonomy. Rules for the measuring of corpus as well as taxonomy quality were derived from these results and advice suggested for the appropriate level of pre-processing.

Page generated in 0.1021 seconds