• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 1
  • 1
  • 1
  • Tagged with
  • 18
  • 8
  • 7
  • 5
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Learning with non-Standard Supervision

Urner, Ruth January 2013 (has links)
Machine learning has enjoyed astounding practical success in a wide range of applications in recent years-practical success that often hurries ahead of our theoretical understanding. The standard framework for machine learning theory assumes full supervision, that is, training data consists of correctly labeled iid examples from the same task that the learned classifier is supposed to be applied to. However, many practical applications successfully make use of the sheer abundance of data that is currently produced. Such data may not be labeled or may be collected from various sources. The focus of this thesis is to provide theoretical analysis of machine learning regimes where the learner is given such (possibly large amounts) of non-perfect training data. In particular, we investigate the benefits and limitations of learning with unlabeled data in semi-supervised learning and active learning as well as benefits and limitations of learning from data that has been generated by a task that is different from the target task (domain adaptation learning). For all three settings, we propose Probabilistic Lipschitzness to model the relatedness between the labels and the underlying domain space, and we discuss our suggested notion by comparing it to other common data assumptions.
2

Learning with non-Standard Supervision

Urner, Ruth January 2013 (has links)
Machine learning has enjoyed astounding practical success in a wide range of applications in recent years-practical success that often hurries ahead of our theoretical understanding. The standard framework for machine learning theory assumes full supervision, that is, training data consists of correctly labeled iid examples from the same task that the learned classifier is supposed to be applied to. However, many practical applications successfully make use of the sheer abundance of data that is currently produced. Such data may not be labeled or may be collected from various sources. The focus of this thesis is to provide theoretical analysis of machine learning regimes where the learner is given such (possibly large amounts) of non-perfect training data. In particular, we investigate the benefits and limitations of learning with unlabeled data in semi-supervised learning and active learning as well as benefits and limitations of learning from data that has been generated by a task that is different from the target task (domain adaptation learning). For all three settings, we propose Probabilistic Lipschitzness to model the relatedness between the labels and the underlying domain space, and we discuss our suggested notion by comparing it to other common data assumptions.
3

Towards Quality and General Knowledge Representation Learning

Tang, Zhenwei 03 1900 (has links)
Knowledge representation learning (KRL) has been a long-standing and challenging topic in artificial intelligence. Recent years have witnessed the rapidly growing research interest and industrial applications of KRL. However, two important aspects of KRL remains unsatisfactory in the academia and industries, i.e., the quality and the generalization capabilities of the learned representations. This thesis presents a set of methods target at learning high quality distributed knowledge representations and further empowering the learned representations for more general reasoning tasks over knowledge bases. On the one hand, we identify the false negative issue and the data sparsity issue in the knowledge graph completion (KGC) task that can limit the quality of the learned representations. Correspondingly, we design a ranking-based positive-unlabeled learning method along with an adversarial data augmentation strategy for KGC. Then we unify them seamlessly to improve the quality of the learned representations. On the other hand, although recent works expand the supported neural reasoning tasks remarkably by answering multi-hop logical queries, the generalization capabilities are still limited to inductive reasoning tasks that can only provide entity-level answers. In fact, abductive reasoning that provides concept-level answers to queries is also in great need by online users and a wide range of downstream tasks. Therefore, we design a joint abductive and inductive knowledge representation learning and reasoning system by incorporating, representing, and operating on concepts. Extensive experimental results along with case studies demonstrate the effectiveness of our methods in improving the quality and generalization capabilities of the learned distributed knowledge representations.
4

Unlabeled sexual experiences: Quilting stories and re-envisioning discourses

Koelsch, Lori E. 13 August 2008 (has links)
No description available.
5

Polya's Enumeration Theorem : Number of colorings of n-gons and non isomorphic graphs,

Badar, Muhammad, Iqbal, Ansir January 2010 (has links)
<p>Polya’s theorem can be used to enumerate objects under permutation groups. Using grouptheory, combinatorics and some examples, Polya’s theorem and Burnside’s lemma arederived. The examples used are a square, pentagon, hexagon and heptagon under theirrespective dihedral groups. Generalization using more permutations and applications tograph theory.Using Polya’s Enumeration theorem, Harary and Palmer [5] give a function whichgives the number of unlabeled graphs n vertices and m edges. We present their work andthe necessary background knowledge.</p>
6

An Ensemble Approach for Text Categorization with Positive and Unlabeled Examples

Chen, Hsueh-Ching 29 July 2005 (has links)
Text categorization is the process of assigning new documents to predefined document categories on the basis of a classification model(s) induced from a set of pre-categorized training documents. In a typical dichotomous classification scenario, the set of training documents includes both positive and negative examples; that is, each of the two categories is associated with training documents. However, in many real-world text categorization applications, positive and unlabeled documents are readily available, whereas the acquisition of samples of negative documents is extremely expensive or even impossible. In this study, we propose and develop an ensemble approach, referred to as E2, to address the limitations of existing algorithms for learning from positive and unlabeled training documents. Using the spam email filtering as the evaluation application, our empirical evaluation results suggest that the proposed E2 technique exhibits more stable and reliable performance than PNB and PEBL.
7

Polya's Enumeration Theorem : Number of colorings of n-gons and non isomorphic graphs,

Badar, Muhammad, Iqbal, Ansir January 2010 (has links)
Polya’s theorem can be used to enumerate objects under permutation groups. Using grouptheory, combinatorics and some examples, Polya’s theorem and Burnside’s lemma arederived. The examples used are a square, pentagon, hexagon and heptagon under theirrespective dihedral groups. Generalization using more permutations and applications tograph theory.Using Polya’s Enumeration theorem, Harary and Palmer [5] give a function whichgives the number of unlabeled graphs n vertices and m edges. We present their work andthe necessary background knowledge.
8

Nachweis und Quantifizierung von Nanopartikeln

Dorn, Marco 23 March 2015 (has links) (PDF)
Die Nanotechnologie spielt eine Schlüsselrolle bei der technologischen Entwicklung. Jedoch stellen Nanopartikel ein potentielles Gesundheitsrisiko dar. Durch ihre große Oberfläche zeigen Nanopartikel eine hohe Reaktivität und die geringe Größe trägt zu einer erhöhten Beweglichkeit und Bioverfügbarkeit bei. Beispielsweise können Nanopartikel Entzündungen auslösen oder die Produktion von freien Radikalen fördern. Insbesondere Lungenepithelzellen stellen die wichtigste Barriere zur Aufnahme von industriell relevanten Nanopartikeln im Alltag dar, denn durch ihre geringe Größe können Nanopartikel bis in einzelne Alveolen vordringen und in die Blutbahn gelangen. Aus diesen Gründen ist es notwendig das Risikopotential, was von Nanopartikeln ausgeht zu bewerten. In dieser Dissertation wurden die Metalloxid-Nanopartikel Al2O3, TiO2, Fe2O3, ZnO und CeO2 in einzelnen Lungenzellen erstmals mit Hilfe der Ionenstrahlmikroskopie quantifiziert. Darüber hinaus erfolgte die Quantifizierung von ausgewählten Metalloxid-Nanopartikeln in gedehnten primären Typ 2 Pneumozyten sowie in den Alveolen des Lungengewebes. Außerdem wurden Gold und Silber als Markierungspartikel eingesetzt, um die Aufnahme der organischen Nanopartikel Graphen zu untersuchen. Die Ionenstrahlmikroskopie ist eine hochempfindliche Methode, welche durch die charakteristische Röntgenstrahlung den zellulären Elementgehalt innerhalb einer Zelle visualisieren kann. Dies ist, je nach Element, bis zu einer unteren Konzentrationsgrenze von 5 – 20 ppm möglich. Die Ionenstrahlmikroskopie erlaubt, im Vergleich zur Elektronenstrahlmikroanalyse, biologische Proben bis zu einer Tiefe von ca. 80 µm zu untersuchen. Durch das zelluläre Rückstreusignal konnte bei Kulturzellen entschieden werden, ob die Nanopartikel internalisiert wurden oder auf der Zelloberfläche assoziiert sind. Da biologische Proben eine relativ geringe Dichte und Dicke aufweisen, ist die Signalausbeute und damit die Messzeit ein limitierender Faktor bei der ionenstrahlanalytischen Quantifizierung des Elementgehalts. Durch das Aufziehen der Probe auf einen Aluminiumrahmen, konnte der Abstand zwischen Röntgendetektor und Probe reduziert werden, was zu einer höheren Signalausbeute führte und damit eine schnellere Analyse der Präparate ermöglichte. Die Art und Weise der Probenpräparation kann einen Einfluss auf den zellulären Elementgehalt haben, indem Ionen aus dem Medium an die Zellaußenseite binden oder durch die Waschlösung ein Verlust von intrazellulär lokalisierten organischen und anorganischen Molekülen entsteht. Durch den Vergleich zwischen einer ionenfreien Polyethylenglycol-Lösung mit dem üblicherweise verwendeten Waschpuffer konnte gezeigt werden, dass sich bei der Verwendung des Waschpuffers der zelluläre Elementgehalt von Kalium, Kalzium und insbesondere Chlor erhöht. Allerdings bleiben Phosphor und Schwefel als wichtige zelluläre Strukturelemente und die biologisch relevanten Spurenelemente Eisen und Zink davon unbeeinflusst. Die ionenstrahlmikroskopische Analyse von Lungengewebe erfordert eine Einbettung der Präparate. Dabei erwies sich DePeX, was als Material routinemäßig zur Einbettung verwendet wird, als ungeeignet, da eine inhomogene Zink-Kontamination vorhanden war, welche eine intrazelluläre Zink-Messung verhinderte. Durch die Entwicklung eines neuen zinkfreien Einbettmaterials auf Limonen-Basis, konnte jetzt auch die Zinkkonzentration in Alveolen gemessen werden. Im biologischen Millieu können Proteine und Ionen auf der Oberfläche der Nanopartikel adsorbieren und dadurch deren Aufnahme in die Zelle beeinflussen. Deshalb wurde die zelluläre Aufnahme in Abhängigkeit der Proteinhülle (Korona) bei in vitro Bedingungen untersucht. Tragen die Partikel eine Korona, ist bei allen untersuchten Metalloxid-Nanopartikeln eine geringere zelluläre Konzentration zu beobachten und gleichzeitig sind weniger Nanopartikel auf der Zelloberfläche adsorbiert. Die Aufnahme von CeO2 und ZnO wurde näher untersucht, da ZnO als einziger untersuchter Nanopartikel einen deutlichen toxischen Effekt hervorruft und CeO2 durch die hohe Ausbeute des Rückstreusignals und die starke zelluläre Aufnahme zum näheren Studium der Aufnahme besonders geeignet ist. Es wurde beobachtet, dass CeO2 und ZnO im extrazellulären Raum mit Phosphat und Kalzium aus dem Kulturmedium kolokalisiert sind. Da Kalziumphosphat als Transfektionsagenz bekannt ist, kann diese Modifikation der Partikeloberfläche die Aufnahme der Partikel begünstigen. Im Vergleich zu CeO2, ist bei ZnO auf Grund der erhöhten Toxizität keine Sättigung der zellulären Konzentration zu erkennen. Daneben lässt die die Halbierung der zellulären CeO2-Konzentration nach 72 Stunden Applikationszeit darauf schließen, dass die Zellen in der Lage sind die Nanopartikel durch Exozytose wieder abzugeben. Mit Hilfe von Inhibitoren wurde der Aufnahmemechanismus von CeO2-NP untersucht. Dabei zeigte sich, dass CeO2 Nanopartikel durch Caveolae- bzw. Clathrin-vermittelte Endozytose und Makropinozytose aufgenommen werden. Die Internalisierung von CeO2 und ZnO Nanopartikeln wurde mit Hilfe des zellulären Protonen-Rückstreusignals untersucht. Internalisierte Nanopartikel liefern im Vergleich zu extrazellulär assoziierten Nanopartikeln ein Rückstreusignal bei niedrigeren Energien, da die zurückgestreuten Protonen durch die Passage des Zellmaterials zusätzlich Energie verlieren. Bei diesen Untersuchungen wurde festgestellt dass, ZnO und CeO2-Nanopartikel ohne Proteinhülle häufiger an der Zelloberfläche lokalisiert sind und zu einer höheren zellulären Konzentration führen. Sowohl im Lungengewebe als auch bei gedehnten primären Typ 2 Pneumozyten und kultivierten Lungenepithelzellen zeigte sich eine sehr inhomogene zelluläre Konzentrationsverteilung der Nanopartikel. Hier liegt die Stärke der Ionenstrahlmikroskopie darin, die Konzentration in einzelnen Zellen bzw. Alveolen erfassen zu können. Dadurch erlaubt es diese Methode, das Risiko abzuschätzen, was durch die Extrembelastung in einzelnen Zellen entstehen könnte. Da Lungengewebe aus Typ I und Typ II Pneumozyten besteht und Makrophagen in das Gewebe einwandern können, ist es in zukünftigen Experimenten notwendig die einzelnen Zelltypen zu markieren, um die Nanopartikel-Aufnahme im Lungengewebe mit den Ergebnissen der Zellkultur besser vergleichen zu können. Durch eine Markierung mit Gold-konjugierten Antikörpern, kann erreicht werden, die einzelnen Zelltypen mittels Ionenstrahlmikroskopie zu identifizieren. Durch verschiedene Applikationsformen bei in vitro und in vivo Untersuchungen ist die Wirkung der Nanopartikel nur schwer vergleichbar. Aus diesem Grund wurde in dieser Arbeit das Konzept der effektiv wirksamen zellulären Dosis eingeführt. Dieses erlaubt es, der Dosis, welche tatsächlich zellulär oder im Gewebe vorhanden ist, einen toxischen Effekt der Nanopartikel zuzuordnen. Dadurch kann die effektive Dosis als wichtige Größe zum systematischen Vergleich von toxikologischen Studien auf in vitro und in vivo Basis eingesetzt werden. Die Ionenstrahlmikroskopie ist zur Zeit die einzige Methode, welche für die intrazelluläre Quantifizierung von unmarkierten Nanopartikeln auf Einzelzellebene in Frage kommt. Deshalb ist sie als zukünftige Referenzmethode für die Dosimetrie von Nanopartikeln sehr gut geeignet.
9

Unlabeled sexual experiences quilting stories and re-envisioning discourses /

Koelsch, Lori E. January 2008 (has links)
Thesis (Ph. D.)--Miami University, Dept. of Psychology, 2008. / Title from second page of PDF document. Includes bibliographical references (p. 123-132).
10

Supervised Classification Leveraging Refined Unlabeled Data

Bocancea, Andreea January 2015 (has links)
This thesis focuses on how unlabeled data can improve supervised learning classi-fiers in all contexts, for both scarce to abundant label situations. This is meant toaddress the limitations within supervised learning with regards to label availability.Extending the training set with unlabeled data can overcome issues such as selec-tion bias, noise and insufficient data. Based on the overall data distribution andthe initial set of labels, semi-supervised methods provide labels for additional datapoints. The semi-supervised approaches considered in this thesis belong to one ofthe following categories: transductive SVMs, Cluster-then-Label and graph-basedtechniques. Further, we evaluate the behavior of: Logistic regression, Single layerperceptron, SVM and Decision trees. By learning on the extended training set,supervised classifiers are able to generalize better. Based on the results, this the-sis recommends data-processing and algorithmic solutions appropriate to real-worldsituations.

Page generated in 0.0456 seconds