Spelling suggestions: "subject:"2analysis off data"" "subject:"2analysis off mata""
81 |
Metody dolování relevantních dat z prostředí webu s využitím sociálních sítí / Datamining of Relevenat Information from WWW with Using Social NetworksSmolík, Jakub January 2013 (has links)
This thesis focuses on solving problems related to searching of relevant data on the internet. In text is presented possible solution in form of application capable of automated extraction and aggregation of data from web and their presentation, based on input key words. For this purpouse there were studied and discribed possibilities of automated extraction from three chosen data types, mainly used as data storages on the internet. Furthermore it focuses on ways of data mining from social networks. As a result it pressents planning, implementation, realization and testing of created appliation which can easily find, display and let user easy access searched informations.
|
82 |
Dolování sekvenčních vzorů / Sequential Pattern MiningTisoň, Zdeněk January 2012 (has links)
This master's thesis is focused on knowledge discovery from databases, especially on methods of mining sequential patterns. Individual methods of mining sequential patterns are described in detail. Further, this work deals with extending the platform Microsoft SQL Server Analysis Services of new mining algorithms. In the practical part of this thesis, plugins for mining sequential patterns are implemented into MS SQL Server. In the last part, these algorithms are compared on different data sets.
|
83 |
Big data analýzy a statistické zpracování metadat v archivu obrazové zdravotnické dokumentace / Big Data Analysis and Metadata Statistics in Medical Images ArchivesPšurný, Michal January 2017 (has links)
This Diploma thesis describes issues of big data in healthcare focus on picture archiving and communication system. DICOM format are store images with header where it could be other valuable information. This thesis mapping data from 1215 studies.
|
84 |
Impact of pre-imputation SNP-filtering on genotype imputation resultsRoshyara, Nab Raj, Kirsten, Holger, Horn, Katrin, Ahnert, Peter, Scholz, Markus January 2014 (has links)
Background: Imputation of partially missing or unobserved genotypes is an indispensable tool for SNP data analyses. However, research and understanding of the impact of initial SNP-data quality control on imputation results is still limited. In this paper, we aim to evaluate the effect of different strategies of pre-imputation quality filtering on the performance of the widely used imputation algorithms MaCH and IMPUTE. Results: We considered three scenarios: imputation of partially missing genotypes with usage of an external reference panel, without usage of an external reference panel, as well as imputation of ompletely un-typed SNPs using an external reference panel. We first created various datasets applying different SNP quality filters and masking certain percentages of randomly selected high-quality SNPs. We imputed these SNPs and compared the results between the different filtering scenarios by using established and newly proposed measures of imputation quality. While the established measures assess certainty of imputation results, our newly proposed measures focus on the agreement with true genotypes. These measures showed that pre-imputation SNP-filtering might be detrimental regarding imputation quality. Moreover, the strongest drivers of imputation quality were in general the burden of missingness and the number of SNPs used for imputation. We also found that using a reference panel always improves imputation quality of partially missing genotypes. MaCH performed slightly better than IMPUTE2 in most of our scenarios. Again, these results were more pronounced when using our newly defined measures of imputation quality. Conclusion: Even a moderate filtering has a detrimental effect on the imputation quality. Therefore little or no SNP filtering prior to imputation appears to be the best strategy for imputing small to moderately sized datasets. Our results also showed that for these datasets, MaCH performs slightly better than IMPUTE2 in most scenarios at the cost of increased computing time.
|
85 |
Flächennutzungsmonitoring VIMeinel, Gotthard, Schumacher, Ulrich, Behnisch, Martin 09 September 2015 (has links)
Das Thema Fläche gewinnt angesichts zunehmender Flächenkonkurrenzen und ambitionierter Flächensparziele an Bedeutung. Ein der Nachhaltigkeit verpflichtetes Flächenmanagement und ein zuverlässiges Flächennutzungsmonitoring sind für die Flächenhaushaltspolitik und die Bewertung der Flächenentwicklung unerlässlich. Doch wie implementiert man ein effizientes Siedlungsflächenmanagement und wie entwickeln sich die dafür notwendigen Geobasisdaten? Darauf neue Antworten aus Wissenschaft und Praxis zu geben ist Ziel der Buchreihe Flächennutzungsmonitoring. Im sechsten Band werden aktuelle Entwicklungen der Flächenhaushaltspolitik, der modellhafte Handel mit Flächenzertifikaten, die Erfassung von Innenentwicklungspotenzialen, Methoden zur Generierung kleinräumiger Daten, Indikatoren zur Beschreibung von Zersiedelung und Biodiversität, der Entwicklungsstand relevanter Geobasisdaten, sowie Methoden der Regional- und Städtestatistik einschließlich Prognosetechniken vorgestellt.
|
86 |
Die Datenbankforschungsgruppe der Technischen Universität Dresden stellt sich vorWolfgang, Lehner 27 January 2023 (has links)
Im Herbst 2012 feiert der Lehrstuhl Datenbanken an der Technischen Universität Dresden sein 10-jähriges Bestehen unter der Leitung von Wolfgang Lehner. In diesem Zeitraum wurde die inhaltliche Ausrichtung im Bereich der Datenbankunterstützung zur Auswertung großer Datenbestände weiter fokussiert sowie auf Systemebene deutlich ausgeweitet. Die Forschungsgruppe um Wolfgang Lehner ist dabei sowohl auf internationaler Ebene durch Publikationen und Kooperationen sichtbar als auch in Forschungsverbünden auf regionaler Ebene aktiv, um sowohl an der extrem jungen und agilen Software-Industrie in Dresden zu partizipieren und, soweit eine Forschungsgruppe dies zu leisten vermag, auch unterstützend zu wirken. [Aus: Einleitung]
|
87 |
Automated and robust geometric and spectral fusion of multi-sensor, multi-spectral satellite imagesScheffler, Daniel 02 January 2023 (has links)
Die in den letzten Jahrzehnten aufgenommenen Satellitenbilder zur Erdbeobachtung bieten eine ideale Grundlage für eine genaue Langzeitüberwachung und Kartierung der Erdoberfläche und Atmosphäre. Unterschiedliche Sensoreigenschaften verhindern jedoch oft eine synergetische Nutzung. Daher besteht ein dringender Bedarf heterogene Multisensordaten zu kombinieren und als geometrisch und spektral harmonisierte Zeitreihen nutzbar zu machen. Diese Dissertation liefert einen vorwiegend methodischen Beitrag und stellt zwei neu entwickelte Open-Source-Algorithmen zur Sensorfusion vor, die gründlich evaluiert, getestet und validiert werden. AROSICS, ein neuer Algorithmus zur Co-Registrierung und geometrischen Harmonisierung von Multisensor-Daten, ermöglicht eine robuste und automatische Erkennung und Korrektur von Lageverschiebungen und richtet die Daten an einem gemeinsamen Koordinatengitter aus. Der zweite Algorithmus, SpecHomo, wurde entwickelt, um unterschiedliche spektrale Sensorcharakteristika zu vereinheitlichen. Auf Basis von materialspezifischen Regressoren für verschiedene Landbedeckungsklassen ermöglicht er nicht nur höhere Transformationsgenauigkeiten, sondern auch die Abschätzung einseitig fehlender Spektralbänder. Darauf aufbauend wurde in einer dritten Studie untersucht, inwieweit sich die Abschätzung von Brandschäden aus Landsat mittels synthetischer Red-Edge-Bänder und der Verwendung dichter Zeitreihen, ermöglicht durch Sensorfusion, verbessern lässt. Die Ergebnisse zeigen die Effektivität der entwickelten Algorithmen zur Verringerung von Inkonsistenzen bei Multisensor- und Multitemporaldaten sowie den Mehrwert einer geometrischen und spektralen Harmonisierung für nachfolgende Produkte. Synthetische Red-Edge-Bänder erwiesen sich als wertvoll bei der Abschätzung vegetationsbezogener Parameter wie z. B. Brandschweregraden. Zudem zeigt die Arbeit das große Potenzial zur genaueren Überwachung und Kartierung von sich schnell entwickelnden Umweltprozessen, das sich aus einer Sensorfusion ergibt. / Earth observation satellite data acquired in recent years and decades provide an ideal data basis for accurate long-term monitoring and mapping of the Earth's surface and atmosphere. However, the vast diversity of different sensor characteristics often prevents synergetic use. Hence, there is an urgent need to combine heterogeneous multi-sensor data to generate geometrically and spectrally harmonized time series of analysis-ready satellite data. This dissertation provides a mainly methodical contribution by presenting two newly developed, open-source algorithms for sensor fusion, which are both thoroughly evaluated as well as tested and validated in practical applications. AROSICS, a novel algorithm for multi-sensor image co-registration and geometric harmonization, provides a robust and automated detection and correction of positional shifts and aligns the data to a common coordinate grid. The second algorithm, SpecHomo, was developed to unify differing spectral sensor characteristics. It relies on separate material-specific regressors for different land cover classes enabling higher transformation accuracies and the estimation of unilaterally missing spectral bands. Based on these algorithms, a third study investigated the added value of synthesized red edge bands and the use of dense time series, enabled by sensor fusion, for the estimation of burn severity and mapping of fire damage from Landsat. The results illustrate the effectiveness of the developed algorithms to reduce multi-sensor, multi-temporal data inconsistencies and demonstrate the added value of geometric and spectral harmonization for subsequent products. Synthesized red edge information has proven valuable when retrieving vegetation-related parameters such as burn severity. Moreover, using sensor fusion for combining multi-sensor time series was shown to offer great potential for more accurate monitoring and mapping of quickly evolving environmental processes.
|
88 |
Algorithmen zur automatisierten Dokumentation und Klassifikation archäologischer GefäßeHörr, Christian 23 June 2011 (has links)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Algorithmen und Methoden mit dem Ziel, Archäologen bei der täglichen wissenschaftlichen Arbeit zu unterstützen.
Im Teil I werden Ideen präsentiert, mit denen sich die extrem zeitintensive und stellenweise stupide Funddokumentation beschleunigen lässt. Es wird argumentiert, dass das dreidimensionale Erfassen der Fundobjekte mittels Laser- oder Streifenlichtscannern trotz hoher Anschaffungskosten wirtschaftlich und vor allem qualitativ attraktiv ist. Mithilfe von nicht fotorealistischen Visualisierungstechniken können dann wieder aussagekräftige, aber dennoch objektive Bilder generiert werden. Außerdem ist speziell für Gefäße eine vollautomatische und umfassende Merkmalserhebung möglich.
Im II. Teil gehen wir auf das Problem der automatisierten Gefäßklassifikation ein. Nach einer theoretischen Betrachtung des Typbegriffs in der Archäologie präsentieren wir eine Methodologie, in der Verfahren sowohl aus dem Bereich des unüberwachten als auch des überwachten Lernens zum Einsatz kommen. Besonders die letzteren haben sich dabei als überaus praktikabel erwiesen, um einerseits unbekanntes Material einer bestehenden Typologie zuzuordnen, andererseits aber auch die Struktur der Typologie selbst kritisch zu hinterfragen. Sämtliche Untersuchungen haben wir beispielhaft an den bronzezeitlichen Gräberfeldern von Kötitz, Altlommatzsch (beide Lkr. Meißen), Niederkaina (Lkr. Bautzen) und Tornow (Lkr. Oberspreewald-Lausitz) durchgeführt und waren schließlich sogar in der Lage, archäologisch relevante Zusammenhänge zwischen diesen Fundkomplexen herzustellen. / The topic of the dissertation at hand is the development of algorithms and methods aiming at supporting the daily scientific work of archaeologists.
Part I covers ideas for accelerating the extremely time-consuming and often tedious documentation of finds. It is argued that digitizing the objects with 3D laser or structured light scanners is economically reasonable and above all of high quality, even though those systems are still quite expensive. Using advanced non-photorealistic visualization techniques, meaningful but at the same time objective pictures can be generated from the virtual models. Moreover, specifically for vessels a fully-automatic and comprehensive feature extraction is possible.
In Part II, we deal with the problem of automated vessel classification. After a theoretical consideration of the type concept in archaeology we present a methodology, which employs approaches from the fields of both unsupervised and supervised machine learning. Particularly the latter have proven to be very valuable in order to assign unknown entities to an already existing typology, but also to challenge the typology structure itself. All the analyses have been exemplified by the Bronze Age cemeteries of Kötitz, Altlommatzsch (both district of Meißen), Niederkaina (district of Bautzen), and Tornow (district Oberspreewald-Lausitz). Finally, we were even able to discover archaeologically relevant relationships between these sites.
|
89 |
Zwangsmobilität und Verkehrsmittelorientierung junger Erwachsener: Eine TypologisierungWittwer, Rico 12 December 2014 (has links)
In der Mobilitätsforschung entstand in den vergangenen Jahrzehnten eine breite Wissensbasis für das Verständnis von Verkehrsursachen und Zusammenhängen, die das Verkehrsverhalten determinieren. Mit der Entwicklung von Verkehrsmodellen lag das Forschungsinteresse zunächst primär bei Ökonomen und Ökonometrikern sowie Verkehrsingenieuren. Bald kamen andere Wissenschaftsbereiche wie die Psychologie oder die Geowissenschaften hinzu, welche sich in der Folge zunehmend mit dem Thema Mobilität befassten und die zur Erklärung des menschlichen Verhaltens ganz unterschiedliche Methoden und Maßstäbe nutzten. Heute versuchen zumeist handlungsorientierte Ansätze, auf Individualebene, Faktoren zu bestimmen, die Aufschluss über die Verhaltensvariabilität in der Bevölkerung geben und damit einen möglichst großen Beitrag zur Varianzaufklärung leisten. Werden Einflussfaktoren in geeigneter Weise identifiziert und quantifiziert, können Defizite und Chancen erkannt und das Verhalten steuernde Maßnahmen entworfen werden. Mit deren Hilfe wird ungewollten Entwicklungen entgegengesteuert.
Junge Erwachsene stellen aufgrund ihrer sehr unterschiedlichen Phasen im Lebenszyklus, z. B. gerade anstehender oder abgeschlossener Ausbildung, Umzug in eine eigene Wohnung, Familiengründung, Neuorientierung in Arbeitsroutinen oder das Einleben in ein anderes Lebensumfeld einer fremden Stadt, intuitiv eine sehr heterogene Gruppe dar. Die Modellierung des Verhaltens ist für diese Altersgruppe besonders schwierig. Aus der Komplexität dieser Problemstellung heraus ist ersichtlich, dass fundierte Analysen zur Mobilität junger Erwachsener notwendig sind, um verkehrsplanerische Defizite aufzudecken und Chancen zu erkennen.
Der methodische Schwerpunkt des Beitrages liegt auf der Bildung einer Typologie des Verkehrsverhaltens junger Erwachsener. Die verwendete Datengrundlage ist das „Deutsche Mobilitätspanel – MOP“. Dabei wird der Versuch unternommen, zunächst Variablen aller relevanten Dimensionen des handlungsorientierten, aktivitätsbasierten Verkehrsverhaltens zusammenzustellen und für eine entsprechende Analyse aufzubereiten. Im Anschluss werden geeignete und in den Sozialwissenschaften erprobte Verfahren zur Ähnlichkeitsmessung eingesetzt, um möglichst verhaltensähnliche Personen zu typologisieren. Im Weiteren finden konfirmatorische Analysetechniken Anwendung, mit deren Hilfe Verhaltenshintergründe erklärt und inferenzstatistisch geprüft werden.
Als Ergebnis wird eine clusteranalytische Typologisierung vorgestellt, die im Anschluss anhand soziodemografischer Indikatoren und raumstruktureller Kriterien der Lagegunst beschrieben wird. Aufgrund der gewonnenen Erkenntnisse können objektive und im Idealfall quantifizierbare, d. h. prognosefähige Merkmale zur Bildung verkehrssoziologischer und weitgehend verhaltensähnlicher Personengruppen genutzt werden. / Over the last few decades of mobility research, a wide base of knowledge for understanding travel determinants and causal relationships in mobility behavior has been established. The development of travel models was at first of interest primarily to economists and econometricians as well as transportation engineers. They were soon joined by other scientific areas such as psychology or the geosciences, which as a result increasingly addressed the theme of mobility and used quite different methodologies and criteria for explaining human behavior. Today, activity-oriented approaches generally attempt to determine individual-level factors that provide information on behavioral variability within the population, thereby contributing greatly to explaining variances. If explanatory factors can be properly identified and quantified, then deficiencies and opportunities can be recognized and measures for influencing behavior can be conceptualized. With their help, undesirable developments can be avoided.
Because of their highly differing stages in life, e.g. upcoming or recently completed education, moving into their own apartment, starting a family, becoming oriented in a work routine or adapting to a new environment in a different city, young adults are intuitively a very heterogeneous group. Modeling the behavior of this age group is particularly difficult. This problem makes it clear that founded analysis of the mobility of young adults is necessary in order to recognize deficiencies and opportunities in transportation planning.
The methodological focus of this work is on creating a typology of young adults’ travel behavior. The base data is from the “Deutsches Mobilitätspanel – MOP” (German Mobility Panel). An attempt is made to gather and prepare all relevant dimensions of decision-oriented, activity-based travel behavior for a corresponding analysis. Afterward, appropriate and proven methods from the social sciences are used to test for similarity in order to identify groups of persons which are as behaviorally homogeneous as possible. In addition, confirmatory data analysis is utilized which helps explain and test, through inferential statistics, determinants of behavior.
The resulting typology from the cluster analysis is presented and followed by a description using sociodemographic indicators and spatial criteria of accessibility. The findings make it possible to use objective and, ideally, quantifiable and therefore forecastable characteristics for identifying sociological population groups within which similar travel behavior is displayed.
|
90 |
Identifikation und Quantifizierung korrelativer Zusammenhänge zwischen elektrischer sowie klimatischer Umgebung und ElektroenergiequalitätDomagk, Max 19 October 2015 (has links)
Eine angemessene Qualität der Elektroenergie ist Grundvoraussetzung für den störungsfreien Betrieb aller angeschlossenen Geräte und Anlagen und spielt in den Verteilungsnetzen moderner Industriegesellschaften wie Deutschland eine zentrale Rolle. Die Elektroenergiequalität (EEQ) wird in Strom- und Spannungsqualität unterteilt. Während die Stromqualität maßgeblich im Verantwortungsbereich der Hersteller von Geräten und Anlagen liegt, sind für die Sicherung einer angemessenen Spannungsqualität im Wesentlichen die Netzbetreiber verantwortlich.
Durch die technische Weiterentwicklung bspw. neuer Gerätetechnologien und die zunehmende Integration dezentraler Erzeugungsanlagen wie Photovoltaikanlagen ist zu erwarten, dass die EEQ auch künftig weiter an Bedeutung gewinnt. Die EEQ im Niederspannungsverteilungsnetz ist abhängig von Ort und Zeit und wird durch verschiedene Qualitätskenngrößen beschrieben. Die örtliche und zeitliche Abhängigkeit resultieren aus einer Vielzahl verschiedener Einflussfaktoren, welche sich entweder der elektrischen oder der nicht-elektrischen Umgebung des betrachteten Verteilungsnetzes zuordnen lassen. Die elektrische Umgebung wird durch die Art und Anzahl angeschlossener Verbraucher bzw. Erzeuger (Abnehmer- bzw. Erzeugerstruktur) sowie Struktur und technische Parameter des Verteilungsnetzes (Netzstruktur) bestimmt. Die nicht-elektrische Umgebung umfasst u.a. Einflüsse der klimatischen Umgebung wie bspw. Temperatur oder Globalstrahlung.
Ziel dieser Arbeit ist die systematische Identifikation korrelativer Zusammenhänge zwischen den genannten Umgebungseinflüssen und der EEQ sowie deren Quantifizierung auf Basis geeigneter Indizes und Kenngrößen. Die Ergebnisse der Arbeit helfen grundlegende Prinzipien der Ausprägung der Elektroenergiequalität im öffentlichen Verteilungsnetz besser zu verstehen sowie die Verteilungsnetze im Hinblick auf die Elektroenergiequalität zu charakterisieren und zu klassifizieren. Analog zu den Standard-Lastprofilen erfolgt die Definition von Standard-Qualitätsprofilen. / Power quality levels in public low voltage grids are influenced by many factors which can either be assigned to the electrical environment (connected consumers, connected genera-tion, network characteristics) or to the non-electrical environment (e.g. climatic conditions) at the measurement site. Type and amount of connected consumers (consumer topology) are expected to have a very high impact on power quality (PQ) levels. The generation topology is characterized by number and kind of equipment and generating installations like photovoltaic systems which are connected to the LV grid. The electrical parameters of the grid define the network topology. The parameters which are most suitable to describe each of the three topologies and the climatic environment will be identified.
Voltage and current quality in public low voltage (LV) grids vary depending on location and time. They are quantified by a set of different parameters which either belong to events (e.g. dips) or to variations (e.g. harmonics). This thesis exclusively addresses continuous parameters describing variations. Continuous phenomena like harmonics are closely linked to an one-day-cycle which implies a more or less periodic behavior of the continuous power quality parameters. Consumer topologies such as office buildings or residential areas differ in their use of equipment. Time series analysis is used to distinguish between different consumer topologies and to identify characteristic weeks. The clustering of one-day time series is applied to identify characteristic days within the weeks of certain topologies. Based on the results, emission profiles for certain current quality parameters of different consumer topologies will be defined. Due to the characteristic harmonic current emission of certain consumer topologies which represents the typical user behaviour a classification system is developed. It is used to automatically classify the emission profiles of harmonic currents for unknown measurements and to estimate a likely consumer topology. A classification measure is introduced in order to identify unusual or false classified emission profiles.
The usage behaviour of equipment by customers usually varies over the year. Subsequently, the levels of PQ parameters like harmonics may show seasonal variations which are identified by using newly defined parameters. The introduction of new device technologies on a large scale like the transition from incandescent to LED lamps might result in long-term changes to the levels of PQ parameters (e.g. harmonics). The analysis of the long-term behavior (trend) will be applied in order to quantify global trends (looking on the measurement duration as a whole) and local trends (looking on individual segments of the whole time series).
|
Page generated in 0.0798 seconds