201 |
Prediction games : machine learning in the presence of an adversaryBrückner, Michael January 2012 (has links)
In many applications one is faced with the problem of inferring some functional relation between input and output variables from given data. Consider, for instance, the task of email spam filtering where one seeks to find a model which automatically assigns new, previously unseen emails to class spam or non-spam. Building such a predictive model based on observed training inputs (e.g., emails) with corresponding outputs (e.g., spam labels) is a major goal of machine learning.
Many learning methods assume that these training data are governed by the same distribution as the test data which the predictive model will be exposed to at application time. That assumption is violated when the test data are generated in response to the presence of a predictive model. This becomes apparent, for instance, in the above example of email spam filtering. Here, email service providers employ spam filters and spam senders engineer campaign templates such as to achieve a high rate of successful deliveries despite any filters.
Most of the existing work casts such situations as learning robust models which are unsusceptible against small changes of the data generation process. The models are constructed under the worst-case assumption that these changes are performed such to produce the highest possible adverse effect on the performance of the predictive model. However, this approach is not capable to realistically model the true dependency between the model-building process and the process of generating future data. We therefore establish the concept of prediction games: We model the interaction between a learner, who builds the predictive model, and a data generator, who controls the process of data generation, as an one-shot game. The game-theoretic framework enables us to explicitly model the players' interests, their possible actions, their level of knowledge about each other, and the order at which they decide for an action.
We model the players' interests as minimizing their own cost function which both depend on both players' actions. The learner's action is to choose the model parameters and the data generator's action is to perturbate the training data which reflects the modification of the data generation process with respect to the past data.
We extensively study three instances of prediction games which differ regarding the order in which the players decide for their action. We first assume that both player choose their actions simultaneously, that is, without the knowledge of their opponent's decision. We identify conditions under which this Nash prediction game has a meaningful solution, that is, a unique Nash equilibrium, and derive algorithms that find the equilibrial prediction model. As a second case, we consider a data generator who is potentially fully informed about the move of the learner. This setting establishes a Stackelberg competition. We derive a relaxed optimization criterion to determine the solution of this game and show that this Stackelberg prediction game generalizes existing prediction models. Finally, we study the setting where the learner observes the data generator's action, that is, the (unlabeled) test data, before building the predictive model. As the test data and the training data may be governed by differing probability distributions, this scenario reduces to learning under covariate shift. We derive a new integrated as well as a two-stage method to account for this data set shift.
In case studies on email spam filtering we empirically explore properties of all derived models as well as several existing baseline methods. We show that spam filters resulting from the Nash prediction game as well as the Stackelberg prediction game in the majority of cases outperform other existing baseline methods. / Eine der Aufgabenstellungen des Maschinellen Lernens ist die Konstruktion von Vorhersagemodellen basierend auf gegebenen Trainingsdaten. Ein solches Modell beschreibt den Zusammenhang zwischen einem Eingabedatum, wie beispielsweise einer E-Mail, und einer Zielgröße; zum Beispiel, ob die E-Mail durch den Empfänger als erwünscht oder unerwünscht empfunden wird. Dabei ist entscheidend, dass ein gelerntes Vorhersagemodell auch die Zielgrößen zuvor unbeobachteter Testdaten korrekt vorhersagt.
Die Mehrzahl existierender Lernverfahren wurde unter der Annahme entwickelt, dass Trainings- und Testdaten derselben Wahrscheinlichkeitsverteilung unterliegen. Insbesondere in Fällen in welchen zukünftige Daten von der Wahl des Vorhersagemodells abhängen, ist diese Annahme jedoch verletzt. Ein Beispiel hierfür ist das automatische Filtern von Spam-E-Mails durch E-Mail-Anbieter. Diese konstruieren Spam-Filter basierend auf zuvor empfangenen E-Mails. Die Spam-Sender verändern daraufhin den Inhalt und die Gestaltung der zukünftigen Spam-E-Mails mit dem Ziel, dass diese durch die Filter möglichst nicht erkannt werden.
Bisherige Arbeiten zu diesem Thema beschränken sich auf das Lernen robuster Vorhersagemodelle welche unempfindlich gegenüber geringen Veränderungen des datengenerierenden Prozesses sind. Die Modelle werden dabei unter der Worst-Case-Annahme konstruiert, dass diese Veränderungen einen maximal negativen Effekt auf die Vorhersagequalität des Modells haben. Diese Modellierung beschreibt die tatsächliche Wechselwirkung zwischen der Modellbildung und der Generierung zukünftiger Daten nur ungenügend. Aus diesem Grund führen wir in dieser Arbeit das Konzept der Prädiktionsspiele ein. Die Modellbildung wird dabei als mathematisches Spiel zwischen einer lernenden und einer datengenerierenden Instanz beschrieben. Die spieltheoretische Modellierung ermöglicht es uns, die Interaktion der beiden Parteien exakt zu beschreiben. Dies umfasst die jeweils verfolgten Ziele, ihre Handlungsmöglichkeiten, ihr Wissen übereinander und die zeitliche Reihenfolge, in der sie agieren.
Insbesondere die Reihenfolge der Spielzüge hat einen entscheidenden Einfluss auf die spieltheoretisch optimale Lösung. Wir betrachten zunächst den Fall gleichzeitig agierender Spieler, in welchem sowohl der Lerner als auch der Datengenerierer keine Kenntnis über die Aktion des jeweils anderen Spielers haben. Wir leiten hinreichende Bedingungen her, unter welchen dieses Spiel eine Lösung in Form eines eindeutigen Nash-Gleichgewichts besitzt. Im Anschluss diskutieren wir zwei verschiedene Verfahren zur effizienten Berechnung dieses Gleichgewichts. Als zweites betrachten wir den Fall eines Stackelberg-Duopols. In diesem Prädiktionsspiel wählt der Lerner zunächst das Vorhersagemodell, woraufhin der Datengenerierer in voller Kenntnis des Modells reagiert. Wir leiten ein relaxiertes Optimierungsproblem zur Bestimmung des Stackelberg-Gleichgewichts her und stellen ein mögliches Lösungsverfahren vor. Darüber hinaus diskutieren wir, inwieweit das Stackelberg-Modell bestehende robuste Lernverfahren verallgemeinert. Abschließend untersuchen wir einen Lerner, der auf die Aktion des Datengenerierers, d.h. der Wahl der Testdaten, reagiert. In diesem Fall sind die Testdaten dem Lerner zum Zeitpunkt der Modellbildung bekannt und können in den Lernprozess einfließen. Allerdings unterliegen die Trainings- und Testdaten nicht notwendigerweise der gleichen Verteilung. Wir leiten daher ein neues integriertes sowie ein zweistufiges Lernverfahren her, welche diese Verteilungsverschiebung bei der Modellbildung berücksichtigen.
In mehreren Fallstudien zur Klassifikation von Spam-E-Mails untersuchen wir alle hergeleiteten, sowie existierende Verfahren empirisch. Wir zeigen, dass die hergeleiteten spieltheoretisch-motivierten Lernverfahren in Summe signifikant bessere Spam-Filter erzeugen als alle betrachteten Referenzverfahren.
|
202 |
Compression of visual data into symbol-like descriptors in terms of a cognitive real-time vision system / Die Verdichtung der Videoeingabe in symbolische Deskriptoren im Rahmen des kognitiven EchtzeitvisionsystemsAbramov, Alexey 18 July 2012 (has links)
No description available.
|
203 |
Active evaluation of predictive modelsSawade, Christoph January 2012 (has links)
The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert.
This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution.
We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains.
Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs. / Maschinelles Lernen befasst sich mit Algorithmen zur Inferenz von Vorhersagemodelle aus komplexen Daten. Vorhersagemodelle sind Funktionen, die einer Eingabe – wie zum Beispiel dem Text einer E-Mail – ein anwendungsspezifisches Zielattribut – wie „Spam“ oder „Nicht-Spam“ – zuweisen. Sie finden Anwendung beim Filtern von Spam-Nachrichten, bei der Text- und Gesichtserkennung oder auch bei der personalisierten Empfehlung von Produkten. Um ein Modell in der Praxis einzusetzen, ist es notwendig, die Vorhersagequalität bezüglich der zukünftigen Anwendung zu schätzen. Für diese Evaluierung werden Instanzen des Eingaberaums benötigt, für die das zugehörige Zielattribut bekannt ist. Instanzen, wie E-Mails, Bilder oder das protokollierte Nutzerverhalten von Kunden, stehen häufig in großem Umfang zur Verfügung. Die Bestimmung der zugehörigen Zielattribute ist jedoch ein manueller Prozess, der kosten- und zeitaufwendig sein kann und mitunter spezielles Fachwissen erfordert.
Ziel dieser Arbeit ist die genaue Schätzung der Vorhersagequalität eines gegebenen Modells mit einer minimalen Anzahl von Testinstanzen. Wir untersuchen aktive Evaluierungsprozesse, die mit Hilfe einer Wahrscheinlichkeitsverteilung Instanzen auswählen, für die das Zielattribut bestimmt wird. Die Vorhersagequalität kann anhand verschiedener Kriterien, wie der Fehlerrate, des mittleren quadratischen Verlusts oder des F-measures, bemessen werden. Wir leiten die Wahrscheinlichkeitsverteilungen her, die den Schätzfehler bezüglich eines gegebenen Maßes minimieren. Der verbleibende Schätzfehler lässt sich anhand von Konfidenzintervallen quantifizieren, die sich aus der Verteilung des Schätzers ergeben. In vielen Anwendungen bestimmen individuelle Eigenschaften der Instanzen die Kosten, die für die Bestimmung des Zielattributs anfallen. So unterscheiden sich Dokumente beispielsweise in der Textlänge und dem technischen Anspruch. Diese Eigenschaften beeinflussen die Zeit, die benötigt wird, mögliche Zielattribute wie das Thema oder die Relevanz zuzuweisen. Wir leiten unter Beachtung dieser instanzspezifischen Unterschiede die optimale Verteilung her. Die entwickelten Evaluierungsmethoden werden auf verschiedenen Datensätzen untersucht. Wir analysieren in diesem Zusammenhang Bedingungen, unter denen die aktive Evaluierung genauere Schätzungen liefert als der Standardansatz, bei dem Instanzen zufällig aus der Testverteilung gezogen werden.
Eine verwandte Problemstellung ist der Vergleich von zwei Modellen. Um festzustellen, welches Modell in der Praxis eine höhere Vorhersagequalität aufweist, wird eine Menge von Testinstanzen ausgewählt und das zugehörige Zielattribut bestimmt. Ein anschließender statistischer Test erlaubt Aussagen über die Signifikanz der beobachteten Unterschiede. Die Teststärke hängt von der Verteilung ab, nach der die Instanzen ausgewählt wurden. Wir bestimmen die Verteilung, die die Teststärke maximiert und damit die Wahrscheinlichkeit minimiert, sich für das schlechtere Modell zu entscheiden. Des Weiteren geben wir eine Möglichkeit an, den entwickelten Ansatz für den Vergleich von mehreren Modellen zu verwenden. Wir zeigen empirisch, dass die aktive Evaluierungsmethode im Vergleich zur zufälligen Auswahl von Testinstanzen in vielen Anwendungen eine höhere Teststärke aufweist.
Im letzten Teil der Arbeit werden das Konzept der aktiven Evaluierung und das des aktiven Modellvergleichs auf Rankingprobleme angewendet. Wir leiten die optimalen Verteilungen für das Schätzen der Qualitätsmaße Discounted Cumulative Gain und Expected Reciprocal Rank her. Eine empirische Studie zur Evaluierung von Suchmaschinen zeigt, dass die neu entwickelten Verfahren signifikant genauere Schätzungen der Rankingqualität liefern als die untersuchten Referenzverfahren.
|
204 |
Algebraic decoder specification: coupling formal-language theory and statistical machine translationBüchse, Matthias 28 January 2015 (has links) (PDF)
The specification of a decoder, i.e., a program that translates sentences from one natural language into another, is an intricate process, driven by the application and lacking a canonical methodology. The practical nature of decoder development inhibits the transfer of knowledge between theory and application, which is unfortunate because many contemporary decoders are in fact related to formal-language theory. This thesis proposes an algebraic framework where a decoder is specified by an expression built from a fixed set of operations. As yet, this framework accommodates contemporary syntax-based decoders, it spans two levels of abstraction, and, primarily, it encourages mutual stimulation between the theory of weighted tree automata and the application.
|
205 |
Graph matching filtering databases of graphs using machine learning techniquesIrniger, Christophe-André January 2005 (has links)
Zugl.: Bern, Univ., Diss., 2005
|
206 |
New Paradigms for Automated Classification of PotteryHörr, Christian, Lindinger, Elisabeth, Brunnett, Guido 14 September 2009 (has links) (PDF)
This paper describes how feature extraction on ancient pottery can be combined with recent developments in artificial intelligence to draw up an automated, but still flexible classification system. These features include for instance several dimensions of the vessel's body, ratios thereof, an abstract representation of the overall shape, the shape of vessel segments and the number and type of attachments such as handles, lugs and feet. While most traditional approaches to classification are based on statistical analysis or the search for fuzzy clusters in high-dimensional spaces, we apply machine learning techniques, such as decision tree algorithms and neural networks. These methods allow for an objective and reproducible classification process. Conclusions about the "typability" of data, the evolution of types and the diagnostic attributes of the types themselves can be drawn as well.
|
207 |
Applications of Advanced Analytics to the Promotion of Freemium GoodsRunge, Julian 06 October 2020 (has links)
“Freemium” (Free + Premium) hat sich zu einem führenden Preismodell für digitale Güter entwickelt. Dabei kann die Basisversion eines Produkts, z.B. von Handy-Applikationen (“Apps”), unbegrenzt kostenlos genutzt werden und Firmen bieten Premium-Erweiterungen gegen Bezahlung an. Konsumenten haben in 2018 194 Milliarden mal Apps heruntergeladen und 101 Milliarden US-Dollar für In-App-Einkäufe ausgegeben. Beinahe 80% des Umsatzes auf App-Stores wird dabei durch Handyspiele generiert. 2,4 Milliarden Menschen haben in 2019 Handyspiele gespielt, was der Hälfte aller App-Nutzer im gleichen Zeitraum entspricht.
Die Hauptthese dieser Dissertation ist, dass preisreduzierende Sonderangebote von großer Wichtigkeit für das Vermarkten von Freemium-Gütern sind: Obwohl Freemium bereits eine extreme Preis-Reduktion darstellt, indem es ein Produkt Konsumenten kostenlos zum Ausprobieren zur Verfügung stellt, können demnach Firmen durch die Nutzung weiterer Sonderangebotstaktiken höhere Profite generieren. Die Arbeit postuliert weiter (und beweist dies empirisch), dass lange angenommene Risiken in der Nutzung von Sonderangeboten, die vor allem bei klassischen Konsumgütern etabliert wurden, im Freemium-Bereich in dieser Form nicht zutreffen. Diese Perspektive entwickelt und vertieft der Autor über vier individuelle Papiere, die zusammen mit einer einleitenden Zusammenfassung die fünf Kapitel dieser Dissertation ausmachen.
Die vorliegende Arbeit ist empirischer Natur und wendet “Advanced Analytics”, insbesondere Feldexperimente und maschinelles Lernen, in Zusammenarbeit mit Firmen an. Als repräsentativer Forschungsgrund dienen dabei Freemium-Handyspiele, in denen Firmen detaillierte Daten über Interaktionen mit Kunden sammeln. Anhand dieser Daten leitet der Autor neue Kenntnisse über Kundenverhalten ab und entwickelt Entscheidungsunterstützungssysteme, die es Firmen ermöglichen, höhere Gewinne beim Verkauf von Freemium-Gütern zu erzielen. / “Freemium” (free + premium) has become a workhorse pricing model in the digital economy: A basic version of a product or service, e.g., mobile applications (“apps”), can be used for free in perpetuity and premium upgrades are available against payment of a fee. Consumers downloaded apps 194 billion times in 2018 and spent $101 billion on in-app purchases in the same time period. Accounting for almost 80% of that revenue, gaming in particular has seen an unparalleled expansion of demand. It is estimated that 50% of mobile app users play games regularly and that a global total of 2.4 billion people will play mobile games in 2019.
The core thesis of this dissertation is that promotions are essential to the marketing of freemium goods such as mobile apps and games. While freemium already represents a promotional pricing tactic in using a zero price for free sampling, the author conjectures that firms can operate their freemium offerings more profitably by using further promotional tactics, especially targeted and personalized promotions, to sell premium upgrades. The author also argues (and shows) that widespread concerns around the use of promotions, particularly developed in the setting of consumer packaged goods, do not apply in the same way in this setting. This thinking is qualified and developed across four chapters that represent individual papers after providing an introduction to the work in the first chapter.
The work is empirical in nature and applies advanced analytics, in particular field experimentation and machine learning, in collaboration with firms. As representative of the freemium app economy, the collaborating firms observe dense user data that enable the author to both derive insights on consumer behavior that extend existing conceptual thinking in the field of marketing and to devise decision support and expert systems that allow firms to operate more profitably in this setting.
|
208 |
Logistic Regression for Prospectivity ModelingKost, Samuel 02 December 2020 (has links)
The thesis proposes a method for automated model selection using a logistic regression model in the context of prospectivity modeling, i.e. the exploration of minearlisations. This kind of data is characterized by a rare positive event and a large dataset. We adapted and combined the two statistical measures Wald statistic and Bayes' information criterion making it suitable for the processing of large data and a high number of variables that emerge in the nonlinear setting of logistic regression.
The obtained models of our suggested method are parsimonious allowing for an interpretation and information gain. The advantages of our method are shown by comparing it to another model selection method and to arti cial neural networks on several datasets. Furthermore we introduced a possibility to induce spatial dependencies which are important in such geological settings.
|
209 |
Simulations and data-based models for electrical conductivities of graphene nanolaminatesRothe, Tom 13 August 2021 (has links)
Graphene-based conductor materials (GCMs) consist of stacked and decoupled layers of graphene flakes and could potentially transfer graphene’s outstanding material properties like its exceptional electrical conductivity to the macro scale, where alternatives to the heavy and expensive metallic conductors are desperately needed. To reach super-metallic conductivity however, a systematic electrical conductivity optimization regarding the structural and physical input parameters is required. Here, a new trend in the field of process and material optimization are data-based models which utilize data science methods to quickly identify and abstract information and relationships from the available data. In this work such data-based models for the conductivity of a real GCM thin-film sample are build on data generated with an especially improved and extended version of the network simulation approach by Rizzi et al. [1, 2, 3]. Appropriate methods to create data-based models for GCMs are thereby introduced and typical challenges during the modelling process are addressed, so that data-based models for other properties of GCMs can be easily created as soon as sufficient data is accessible. Combined with experimental measurements by Slawig et al. [4] the created data-based models allow for a coherent and comprehensive description of the thin-films’
electrical parameters across several length scales.:List of Figures
List of Tables
Symbol Directory
List of Abbreviations
1 Introduction
2 Simulation approaches for graphene-based conductor materials
2.1 Traditional simulation approaches for GCMs
2.1.1 Analytical model for GCMs
2.1.2 Finite element method simulations for GCMs
2.2 A network simulation approach for GCMs
2.2.1 Geometry generation
2.2.2 Electrical network creation
2.2.3 Contact and probe setting
2.2.4 Conductivity computation
2.2.5 Results obtained with the network simulation approach
2.3 An improved implementation for the network simulation
2.3.1 Rizzi’s implementation of the network simulation approach
2.3.2 An network simulation tool for parameter studies
2.3.3 Extending the network simulation approach for anisotropy investigations and multilayer flakes
3 Data-based material modelling
3.1 Introduction to data-based modelling
3.2 Data-based modelling in material science
3.3 Interpretability of data-based models
3.4 The data-based modelling process
3.4.1 Preliminary considerations
3.4.2 Data acquisition
3.4.3 Preprocessing the data
3.4.4 Partitioning the dataset
3.4.5 Training the model
3.4.6 Model evaluation
3.4.7 Real-world applications
3.5 Regression estimators
3.5.1 Mathematical introduction to regression
3.5.2 Regularization and ridge regression
3.5.3 Support Vector Regression
3.5.4 Introducing non-linearity through kernels
4 Data-based models for a real GCM thin-film
4.1 Experimental measurements
4.2 Simulation procedure
4.3 Data generation
4.4 Creating data-based models
4.4.1 Quadlinear interpolation as benchmark model
4.4.2 KR, KRR and SVR
4.4.3 Enlarging the dataset
4.4.4 KR, KRR and SVR on the enlarged training dataset
4.5 Application to the GCM sample
5 Conclusion and Outlook
5.1 Conclusion
5.2 Outlook
Acknowledgements
Statement of Authorship
|
210 |
Schnelle Identifizierung von oralen Actinomyces-Arten des subgingivalen Biofilms mittels MALDI-TOF-MSBorgmann, Toralf Harald 10 November 2015 (has links)
Aktinomyzeten sind ein Teil der residenten Flora des menschlichen Verdauungstraktes, des Urogenitalsystems und der Haut. Die zeitraubende Isolation und Identifikation der Aktinomyzeten durch konventionelle Methoden stellt sich häufig als sehr schwierig dar. In den letzten Jahren hat sich jedoch die Matrix-unterstützte Laser-Desorption/Ionisation-Flugzeit-Massenspektrometrie (MALDI-TOF-MS) als Alternative zu etablierten Verfahren entwickelt und stellt heutzutage eine schnelle und simple Methode zur Bakterienidentifikation dar. Unsere Studie untersucht den Nutzen dieser Methode für eine schnelle und zuverlässige Identifizierung von oralen Aktinomyzeten, die aus dem subgingivalen Biofilm parodontal erkrankter Patienten isoliert wurden. In dieser Studie wurden elf verschiedene Referenzstämme aus den Stammsammlungen ATCC und DSMZ und 674 klinische Stämme untersucht. Alle Stämme wurden durch biochemische Methoden vorab identifiziert und anschließend ausgehend von den erhobenen MALDI-TOF-MS-Daten durch Ähnlichkeitsanalysen und Klassifikationsmethoden identifiziert und klassifiziert. Der Genotyp der Referenzstämme und von 232 klinischen Stämmen wurde durch Sequenzierung der 16S rDNA bestimmt. Die Sequenzierung bestätigte die Identifizierung der Referenzstämme. Diese und die zweifelsfrei durch 16S rDNA Sequenzierung identifizierten Aktinomyzeten wurden verwendet, um eine MALDI-TOF-MS-Datenbank zu erstellen. Methoden der Klassifikation wurden angewandt, um eine Differenzierung und Identifikation zu ermöglichen. Unsere Ergebnisse zeigen, dass eine Kombination aus Datenerhebung mittels MALDI-TOF-MS und deren Verarbeitung mittels SVM-Algorithmen eine gute Möglichkeit für die Identifikation und Differenzierung von oralen Aktinomyzeten darstellt.
|
Page generated in 0.0751 seconds