• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 188
  • 56
  • 24
  • 10
  • 9
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 383
  • 232
  • 87
  • 73
  • 70
  • 66
  • 48
  • 46
  • 46
  • 40
  • 39
  • 37
  • 35
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Analýza kvality ovzduší v kancelářských a obytných prostorech / Air Quality Analysis in Office and Residential Areas

Tisovčík, Peter January 2019 (has links)
The goal of the thesis was to study the indoor air quality measurement focusing on the concentration of carbon dioxide. Within the theoretical part, data mining including basic classification methods and approaches to dimensionality reduction was introduced. In addition, the principles of the developed system within IoTCloud project and available possibilities for measurement of necessary quantities were studied. In the practical part, the suitable sensors for given rooms were selected and long-term measurement was performed. Measured data was used to create the system for window opening detection and for the design of appropriate way of air change regulation in a room. The aim of regulation was to improve air quality using natural ventilation.
342

Nalezení pozice stanic v Internetu pomocí umělých souřadnicových systémů / Internet nodes localization using synthetic coordinate systems

Švéda, Jaroslav January 2009 (has links)
This thesis deals with predicting the latency between two network nodes, such as the two stations, two servers or server and station. The main reason for adoption of effective latency prediction techniques is the elimination of network load caused by unnecessary repeated transmissios or by direct measurement of the latency. Of the many proposed methods of latency estimation, this thesis is focused on methods using artificial coordinate systems with primary focus on the Vivaldi algorithm. Characteristics of the latency prediction methods and properties of various coordinate systems used in practice are evaluated. The issue of the number of dimensions of space defined only by the latency matrix between nodes is also mentioned. Furthermore, some other systems, based on logical clustering of nearby nodes, are mentioned. Description of simulation software VivaldiMonitor developed as part of the thesis is included. The primary purpose is analysis of the behavior of overlay networks implementing Vivaldi algorithm with less than a few hundred nodes. The Vivaldi algorithm is assessed by several simulations carried out using the aforementioned software.
343

Nové ekologické paradigma jako výzkumný přístup v České republice. Analýza enviromentálních postojů Čechů / New Ecological Paradigm as a research approach in the Czech Republic: An analysis of environmental attitudes of Czechs

Vaněk, Jiří January 2017 (has links)
This thesis focus on the New Ecological Paradigm (NEP) and its measurement instrument New Ecological Paradigm scale. Thesis introduces the New Ecological Paradigm as opposite type of thinking to the Human Exemptionalism Paradigm and provides historical context of the creation of the revised version of the New Ecological Paradigm scale. We carried out a secondary analysis of the data from survey about the European climate change policy acceptance conducted by Ščasný et al in year 2015. Thesis then examined the extent to which people from the Czech Republic, the Great Britain and the Poland endorse the New Ecological Paradigm and found out that the Czechs have the higher environmental concern than people from the Great Britain and the Poland. Furthermore, this thesis use Cronbach`s and factor analysis to discover, that the New ecological paradigm scale is internally consistent yet multidimensional instrument in case of the three surveyed countries. Regression analysis discovered that not only gender and age are significant socio-demographic predictors for the NEP results as income, education, size of municipality and current occupation are also relevant across the three surveyed countries. Lastly, regression analysis verified that the direct correlation between the general environmental values measured by the...
344

Die visuelle Interpretation von Fernerkundungsdaten

Donner, Ralf 20 June 2008 (has links)
Die Fähigkeit, in Luft- und Satellitenbildern Objekte wiederzuerkennen, kann folgendermaßen erklärt werden: Aus der Kenntnis einer Landschaft und ihrer Abbildung im Bild werden Interpretationsregeln entwickelt, die bestimmten Kombinationen von Bildmerkmalen wie Farbe, Form, Größe, Textur oder Kontext festgelegte Bedeutungen zuordnen. Kommt es nicht auf das Wiedererkennen mit festen Wahrnehmungsmustern an, stellt sich die bislang offene Frage nach einer wissenschaftlichen Kriterien genügenden Methode, wie der gedankliche Zusammenhang zwischen den Sinneswahrnehmungen erfasst werden kann. Die Erfahrung von Umkehrbildern und optischen Täuschungen führt zur Frage nach dem festen Element bei der visuellen Interpretation von Fernerkundungsdaten. Galileis Antwort, Messwerte als Ausgangspunkt naturwissenschaftlicher Erkenntnis zu nehmen, löst die Mehrdeutigkeiten und Unsicherheiten gedanklicher Interpretationen nicht auf, denn zu jeder Zahl gehört bereits eine gedankliche Bestimmung darüber, was sie bedeutet: Äpfel, Birnen, Höhendifferenzen … Daher muss für die begriffliche Interpretation der Wahrnehmungen ein anderer Ausgangspunkt bestimmt werden: Weder kann der Mensch beobachten oder wahrnehmen, ohne seine Erlebnisse gedanklich zu fassen und zu ordnen, noch ist die Sinnesempfindung ein subjektives, vom Gegenstand abgespaltenes, nur persönliches Erlebnis. Wahrnehmung realisiert sich als Einheit von Wahrnehmendem und Wahrgenommenen. Demzufolge gibt es keine binäre Unterscheidung von objektiver Tatsache und subjektiver Interpretation. Wahrnehmung findet zwischen den Polen reiner Empfindung eines gegebenen und sinnlichkeitsfreien Denkens statt. Die reinen Erlebnisqualitäten der Sinnesempfindungen (warm, kalt, hell, rau) stellen sich als die am wenigsten von der subjektiven gedanklichen Interpretation abhängigen Elemente des Erkenntnisprozesses dar. Diesem Verhältnis von Beobachtung und gedanklicher Deutung entspricht ein phänomenologischer Untersuchungsansatz. Mit ihm bekommen Erfahrungen als absolute Elemente der Wahrnehmung primäre Bedeutung, gedankliche Interpretationen werden zu Abhängigen. Daher werden in der Untersuchung Ergebnisse phänomenologischer Arbeiten bevorzugt. Auch die eigene Bearbeitung des Themas geht von einer konsequent empirischen Position aus. Um einen Sachverhalt zu verstehen, genügt es nicht, bei den Sinnesempfindungen stehen zu bleiben, denn zu ihrem Verständnis fehlt der gedankliche Zusammenhang, die Erlebnisse müssen begrifflich interpretiert werden. Dabei ist die Doppelrolle der Begriffe von entscheidender Bedeutung: In der Analyse grenzen sie innerhalb des Erfahrungsfeldes Teilaspekte gegeneinander ab, welche in der Synthese durch dieselben Begriffe gedanklich verbunden werden. Diese Funktion der Begriffe wird ausgenutzt, um Wiedererkennen und Bildung von Verständnis zu differenzieren: Die Interpretation der Erfahrung nach a priori vorgegebenen Mustern zielt auf das Wiedererkennen. Im Gegensatz dazu emergiert Verständnis im Prozess der Begriffsbildung aus den Beobachtungen: Man sucht erst nach einer Gliederung, welche eine gedankliche Synthese plausibel erscheinen lässt. Das Konzept der Selbstorganisation hat in der Ökologie mechanistische Vorstellungen weitgehend abgelöst und im letzten Jahrzehnt auch in die Technik Eingang gefunden. Mit den Worten dieses Konzeptes kann die Begriffsbildung als Erkenntnisprozess beschrieben werden, in welchem sich gedankliche und nichtgedankliche Wahrnehmungen selbst organisieren. Sinnesempfindungen haben auch in anderen Zugangsweisen zur Natur eine dominierende Stellung. Daher können Goetheanismus, wissenschaftliche Ästhetik und Kunst zu einer voraussetzungslosen Naturerkundung beitragen. Die nahe Verwandtschaft von Phänomenologie, Ästhetik und Kunst lässt künstlerisches Schaffen als Vervollkommnung des in der Natur Veranlagten erscheinen. Weitere Querbeziehungen ergeben sich aus der Interpretation topografischer oder thematischer Karten oder sonstiger visualisierter raumbezogener Daten. Parallelen und Unterschiede werden herausgearbeitet. Moderne Naturwissenschaft ist quantitativ. Daher ist zu klären, was mathematische Modellierung zur Verständnisbildung beiträgt. In diesem Teil der Arbeit ist es der folgende Gedanke, welcher über die hinlänglich bekannte Nützlichkeit mathematischer Modellierungen, Vorausberechnungen und Simulationen hinausgeht: Die Mathematik überzeugt durch ihre logische Strenge in der Ableitung und Beweisführung: Aus Obersatz und Untersatz folgt die Konklusion. Eine Beobachtungsmethode, bei welcher eine Beobachtung an die nächste gereiht wird, so dass sich das Eine aus dem Anderen ergibt, wobei kein Sprung die Folge unterbricht, käme der Notwendigkeit eines mathematischen Beweises gleich. Diese strenge Folge des Einen aus dem Anderen tritt in der wissenschaftlichen Argumentation an die Stelle der spontanen Intuition mit Verifikation, Falsifikation und bestätigendem Beispiel. Auf diese Weise kann durch die Anwendung der mathematischen Methode eine realitätsnahe Begriffsbildung erreicht werden. Die bis hierher dargelegten Aspekte der Wahrnehmung, der Ästhetik, der Kunst und der Mathematik werden in der Methode einer voraussetzungslosen Begriffsentwicklung zusammengefasst. Damit ist das Hauptziel der Untersuchung, die Entwicklung einer auf das Verständnis gerichteten erfahrungsbasierten Beobachtungsmethode, erreicht. Die Abhandlung wird mit der Anwendung der entwickelten Methode auf einen Grundbegriff der Geoinformatik in folgender Weise fortgesetzt: Für die Geoinformatik ist der Raumbegriff von grundlegender Bedeutung. Daher bietet es sich an, diesen Begriff unter Anwendung der entwickelten Methode zu untersuchen. Unter phänomenologischen Gesichtspunkten stehen Raum und Zeit in einem engen Zusammenhang. Beide werden in der Bewegung erfahren. Interpretiert man Bewegung mit den Begriffen des Nebeneinander und des Nacheinander, entsteht Wissen von Raum und Zeit. Mit anderen Worten: Die am Leib erfahrene Bewegung wird durch Interpretation mit dem Raumbegriff zur Vorstellung durchlaufener Orte. Je nachdem, welche Sinneserfahrungen, allgemeiner: Beobachtungen, zugrunde gelegt werden, hat der Raum unterschiedliche geometrische Eigenschaften. Die Erfahrungen des Tastsinnes begründen euklidische Beobachtungen. Die Begriffe Raum und Zeit haben für die Verständnisbildung eine fundamentale Bedeutung. Mit ihrer Hilfe können die Erlebnisse als zugleich und nebeneinander oder als nacheinander geordnet werden. Sie ermöglichen Erkenntnis durch Analyse und Synthese. Wesentliches Motiv der Untersuchung ist die Frage nach der Bildung von Verständnis im Rahmen der visuellen Interpretation. Das Erkennen von Objekten stellt sich als synästhetische Synthese der Sinnesempfindungen und gedanklicher Inhalte dar. Unterschiedliche Gewichtungen der Gedankeninhalte lassen zwei Vorgehensweisen unterscheiden: 1, Für das Erkennen von Neuem ist es von grundlegender Bedeutung, dass die gedanklichen Inhalte den nichtgedanklichen Sinnesempfindungen untergeordnet sind, das heißt von diesen modifiziert werden können. Vorgewussten Begriffen kommt die Rolle von Hypothesen zu. 2, Beim Wiedererkennen haben gedankliche Inhalte eine dominierende Rolle – anhand von Interpretationsmerkmalen sollen Bildinhalten Bedeutungen zugewiesen werden. Das Bild wird hierzu nach Bildflächen mit solchen Kombinationen von Farben, Formen, Mustern, Texturen und räumlichen Anordnungen durchsucht, die dem zu suchenden Begriff entsprechen können. Oder das Bild wird, bei Verwendung einer Art Beispielschlüssel, nach Übereinstimmungen mit kompletten Bildmustern durchsucht. Auch das ist eine Form des Wiedererkennens. Um ein Phänomen zu verstehen, kommt es darauf an, in der Regelmäßigkeit der äußeren Form den Zusammenhang zu entdecken, der den verschiedenartigen Ausgestaltungen als regelndes Element zugrunde liegt. Dazu muss über eine Klassifizierung von Interpretationsmerkmalen hinausgegangen werden. Die gedankliche Auseinandersetzung mit den visualisierten Repräsentanzen der Phänomene unterstützt die Bildung eines solchen ideellen Zusammenhangs, welcher das in aller Mannigfaltigkeit der natürlichen Erscheinungen Gleichbleibende, Ruhende darstellt, aus welchem die Einzelphänomene hervorgegangen sein könnten. Die Funktionen beschreiben die Wechselwirkungen zwischen den räumlichen Elementen, welche sich in Austauschprozessen von Energie, Material und Stoffen ausdrücken. Überall dort, wo räumliche Anordnung ein Ausdruck funktionaler Beziehungen ist, unterstützt die visuelle Wahrnehmung der räumlichen Beziehungen die Einsicht in die sachlichen. In den Schlussfolgerungen wird die Visualisierung von Geodaten als Mittel zur Sichtbarmachung des Zusammenhanges zwischen den Erscheinungen charakterisiert. Die Bezugnahme zur Fernerkundung führt zu der Feststellung, dass die Anwendung der vorgeschlagenen Forschungsstrategie im Bereich der Geofernerkundung nur eingeschränkt möglich ist.
345

Investigating the Correlation Between Marketing Emails and Receivers Using Unsupervised Machine Learning on Limited Data : A comprehensive study using state of the art methods for text clustering and natural language processing / Undersökning av samband mellan marknadsföringsemail och dess mottagare med hjälp av oövervakad maskininlärning på begränsad data

Pettersson, Christoffer January 2016 (has links)
The goal of this project is to investigate any correlation between marketing emails and their receivers using machine learning and only a limited amount of initial data. The data consists of roughly 1200 emails and 98.000 receivers of these. Initially, the emails are grouped together based on their content using text clustering. They contain no information regarding prior labeling or categorization which creates a need for an unsupervised learning approach using solely the raw text based content as data. The project investigates state-of-the-art concepts like bag-of-words for calculating term importance and the gap statistic for determining an optimal number of clusters. The data is vectorized using term frequency - inverse document frequency to determine the importance of terms relative to the document and to all documents combined. An inherit problem of this approach is high dimensionality which is reduced using latent semantic analysis in conjunction with singular value decomposition. Once the resulting clusters have been obtained, the most frequently occurring terms for each cluster are analyzed and compared. Due to the absence of initial labeling an alternative approach is required to evaluate the clusters validity. To do this, the receivers of all emails in each cluster who actively opened an email is collected and investigated. Each receiver have different attributes regarding their purpose of using the service and some personal information. Once gathered and analyzed, conclusions could be drawn that it is possible to find distinguishable connections between the resulting email clusters and their receivers but to a limited extent. The receivers from the same cluster did show similar attributes as each other which were distinguishable from the receivers of other clusters. Hence, the resulting email clusters and their receivers are specific enough to distinguish themselves from each other but too general to handle more detailed information. With more data, this could become a useful tool for determining which users of a service should receive a particular email to increase the conversion rate and thereby reach out to more relevant people based on previous trends. / Målet med detta projekt att undersöka eventuella samband mellan marknadsföringsemail och dess mottagare med hjälp av oövervakad maskininlärning på en brgränsad mängd data. Datan består av ca 1200 email meddelanden med 98.000 mottagare. Initialt så gruperas alla meddelanden baserat på innehåll via text klustering. Meddelandena innehåller ingen information angående tidigare gruppering eller kategorisering vilket skapar ett behov för ett oövervakat tillvägagångssätt för inlärning där enbart det råa textbaserade meddelandet används som indata. Projektet undersöker moderna tekniker så som bag-of-words för att avgöra termers relevans och the gap statistic för att finna ett optimalt antal kluster. Datan vektoriseras med hjälp av term frequency - inverse document frequency för att avgöra relevansen av termer relativt dokumentet samt alla dokument kombinerat. Ett fundamentalt problem som uppstår via detta tillvägagångssätt är hög dimensionalitet, vilket reduceras med latent semantic analysis tillsammans med singular value decomposition. Då alla kluster har erhållits så analyseras de mest förekommande termerna i vardera kluster och jämförs. Eftersom en initial kategorisering av meddelandena saknas så krävs ett alternativt tillvägagångssätt för evaluering av klustrens validitet. För att göra detta så hämtas och analyseras alla mottagare för vardera kluster som öppnat något av dess meddelanden. Mottagarna har olika attribut angående deras syfte med att använda produkten samt personlig information. När de har hämtats och undersökts kan slutsatser dras kring hurvida samband kan hittas. Det finns ett klart samband mellan vardera kluster och dess mottagare, men till viss utsträckning. Mottagarna från samma kluster visade likartade attribut som var urskiljbara gentemot mottagare från andra kluster. Därav kan det sägas att de resulterande klustren samt dess mottagare är specifika nog att urskilja sig från varandra men för generella för att kunna handera mer detaljerad information. Med mer data kan detta bli ett användbart verktyg för att bestämma mottagare av specifika emailutskick för att på sikt kunna öka öppningsfrekvensen och därmed nå ut till mer relevanta mottagare baserat på tidigare resultat.
346

Complexity and Conflict: Modeling Contests with Exogenous and Endogenous Noise

Richard Mickelsen (12476793) 28 April 2022 (has links)
<p>Contest outcomes often involve some mix of skill and chance.  In three essays, I vary the sources of noise and show how player actions either influence, or are influenced by, noise.  I begin with a classic multi-battle contest, the Colonel Blotto game.  Due to his disadvantage in resources, the weak player in this contest stochastically distributes resources to a subset of battlefields while neglecting all others in an attempt to achieve a positive payoff.  In contrast, the strong player evenly distributes his resources in order to defend all battlefields, while randomly assigning extra resources to some.  Because the weak player benefits from randomizing over larger numbers of battlefields, a strong player has incentive to decrease the range over which the weak player can randomize.  When battlefields are exogenously partitioned into subsets, or \textit{fronts}, he is able to do this by decentralizing his forces to each front in a stage prior to the distribution of forces to battlefields and actual conflict.  These allocations are permanent, and each subset of battlefields effectively becomes its own, independent Blotto subgame.  I show that there exist parameter regions in which the strong player's unique equilibrium payoffs with decentralization are strictly higher than the unique equilibrium payoffs without decentralization.</p> <p><br></p> <p>In my second paper, I show how sources of exogenous noise, what Clausewitz referred to as the ``fog of war," obscure developments on the battlefield from the view of a military leader, while individual inexperience and lack of expertise in a particular situation influence his decisionmaking.  I model both forms of uncertainty using the decentralized Colonel Blotto game from the first chapter.  To do so, I first test the robustness of allocation-stage subgame perfect equilibria by changing the contest success function to a lottery, then I find the players' quantal response equilibria (QRE) to show how individual decision-making is impacted by bounded rationality and noisy best responses, represented by a range of psi values in the logit QRE.  I find that player actions rely significantly less on decentralization strategies under the lottery CSF compared to the case of the all-pay auction, owing mainly to the increased exogenous noise.  Moreover, agent QRE and heterogeneous QRE approximate subgame perfect equilibria for high values of psi in the case of an all-pay auction, but under the lottery CSF, QRE is largely unresponsive to changes in psi due to the increase in exogenous noise.</p> <p><br></p> <p>Finally, I examine a potential method for introducing noise into the all-pay auction (APA) contest success function (CSF) utilized in the Colonel Blotto games of the first two chapters.  Many contests are fundamentally structured as APA, yet there is a tendency in the empirical literature to utilize a lottery CSF when stochastic outcomes are possible or the tractability of pure strategy equilibria is desired.  However, previous literature has shown that using a lottery CSF sacrifices multiple distinguishing characteristics of the APA, such as the mixed strategy equilibria described by Baye, Kovenock, and de Vries (1996), the exclusion principle of Baye, Kovenock, and de Vries (1993), and the caps on lobbying principle of Che and Gale (1998).  I overcome this by formulating an APA that incorporates noise and retains the defining characteristics of an auction by forming a convex combination of the APA and fair lottery with the risk parameter lambda.  I prove that equilibria hold by following the proofs of Baye et al. (1996, 1993) and Che and Gale (1998), and I show the new CSF satisfies the axioms of Skaperdas (1996).  While player and auctioneer actions, payments, and revenues in the noisy APA adhere closely to the those of the APA for low levels of noise, the effect of discounted expected payoffs results in lower aggregate payments and payoffs when noise is high.  Finally, I show the noisy APA is only noise equivalent to the lottery CSF when lambda = 0, i.e., the fair lottery.</p>
347

Modelling Low Dimensional Neural Activity / Modellering av lågdimensionell neural aktivitet

Wärnberg, Emil January 2016 (has links)
A number of recent studies have shown that the dimensionality of the neural activity in the cortex is low. However, what network structures are capable of producing such activity is not theoretically well understood. In this thesis, I discuss a few possible solutions to this problem, and demonstrate that a network with a multidimensional attractor can give rise to such low dimensional activity. The network is created using the Neural Engineering Framework, and exhibits several biologically plausible features, including a log-normal distribution of the synaptic weights. / Ett antal nyligen publicerade studier has visat att dimensionaliten för neural aktivitet är låg. Dock är det inte klarlagt vilka nätverksstrukturer som kan uppbringa denna typ av aktivitet. I denna uppsats diskuterar jag möjliga lösningsförslag, och demonstrerar att ett nätverk med en flerdimensionell attraktor ger upphov till lågdimensionell aktivitet. Nätverket skapas med hjälp av the Neural Engineering Framework, och uppvisar ett flertal biologiskt trovärdiga egenskaper. I synnerhet är fördelningen av synapsvikter log-normalt fördelad.
348

Linear and Nonlinear Dimensionality-Reduction-Based Surrogate Models for Real-Time Design Space Exploration of Structural Responses

Bird, Gregory David 03 August 2020 (has links)
Design space exploration (DSE) is a tool used to evaluate and compare designs as part of the design selection process. While evaluating every possible design in a design space is infeasible, understanding design behavior and response throughout the design space may be accomplished by evaluating a subset of designs and interpolating between them using surrogate models. Surrogate modeling is a technique that uses low-cost calculations to approximate the outcome of more computationally expensive calculations or analyses, such as finite element analysis (FEA). While surrogates make quick predictions, accuracy is not guaranteed and must be considered. This research addressed the need to improve the accuracy of surrogate predictions in order to improve DSE of structural responses. This was accomplished by performing comparative analyses of linear and nonlinear dimensionality-reduction-based radial basis function (RBF) surrogate models for emulating various FEA nodal results. A total of four dimensionality reduction methods were investigated, namely principal component analysis (PCA), kernel principal component analysis (KPCA), isometric feature mapping (ISOMAP), and locally linear embedding (LLE). These methods were used in conjunction with surrogate modeling to predict nodal stresses and coordinates of a compressor blade. The research showed that using an ISOMAP-based dual-RBF surrogate model for predicting nodal stresses decreased the estimated mean error of the surrogate by 35.7% compared to PCA. Using nonlinear dimensionality-reduction-based surrogates did not reduce surrogate error for predicting nodal coordinates. A new metric, the manifold distance ratio (MDR), was introduced to measure the nonlinearity of the data manifolds. When applied to the stress and coordinate data, the stress space was found to be more nonlinear than the coordinate space for this application. The upfront training cost of the nonlinear dimensionality-reduction-based surrogates was larger than that of their linear counterparts but small enough to remain feasible. After training, all the dual-RBF surrogates were capable of making real-time predictions. This same process was repeated for a separate application involving the nodal displacements of mode shapes obtained from a FEA modal analysis. The modal assurance criterion (MAC) calculation was used to compare the predicted mode shapes, as well as their corresponding true mode shapes obtained from FEA, to a set of reference modes. The research showed that two nonlinear techniques, namely LLE and KPCA, resulted in lower surrogate error in the more complex design spaces. Using a RBF kernel, KPCA achieved the largest average reduction in error of 13.57%. The results also showed that surrogate error was greatly affected by mode shape reversal. Four different approaches of identifying reversed mode shapes were explored, all of which resulted in varying amounts of surrogate error. Together, the methods explored in this research were shown to decrease surrogate error when performing DSE of a turbomachine compressor blade. As surrogate accuracy increases, so does the ability to correctly make engineering decisions and judgements throughout the design process. Ultimately, this will help engineers design better turbomachines.
349

Evaluation of Archetypal Analysis and Manifold Learning for Phenotyping of Acute Kidney Injury

Dylan M Rodriquez (10695618) 07 May 2021 (has links)
Disease subtyping has been a critical aim of precision and personalized medicine. With the potential to improve patient outcomes, unsupervised and semi-supervised methods for determining phenotypes of subtypes have emerged with a recent focus on matrix and tensor factorization. However, interpretability of proposed models is debatable. Principal component analysis (PCA), a traditional method of dimensionality reduction, does not impose non-negativity constraints. Thus coefficients of the principal components are, in cases, difficult to translate to real physical units. Non-negative matrix factorization (NMF) constrains the factorization to positive numbers such that representative types resulting from the factorization are additive. Archetypal analysis (AA) extends this idea and seeks to identify pure types, archetypes, at the extremes of the data from which all other data can be expressed as a convex combination, or by proportion, of the archetypes. Using AA, this study sought to evaluate the sufficiency of AKI staging criteria through unsupervised subtyping. Archetype analysis failed to find a direct 1:1 mapping of archetypes to physician staging and also did not provide additional insight into patient outcomes. Several factors of the analysis such as quality of the data source and the difficulty in selecting features contributed to the outcome. Additionally, after performing feature selection with lasso across data subsets, it was determined that current staging criteria is sufficient to determine patient phenotype with serum creatinine at time of diagnosis to be a necessary factor.
350

Navigating the Metric Zoo: Towards a More Coherent Model For Quantitative Evaluation of Generative ML Models

Dozier, Robbie 26 August 2022 (has links)
No description available.

Page generated in 0.1068 seconds