• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 33
  • 13
  • Tagged with
  • 82
  • 82
  • 69
  • 60
  • 46
  • 41
  • 40
  • 40
  • 25
  • 24
  • 21
  • 19
  • 14
  • 12
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Zeitliche und räumliche Prognose der Stabilität von Braunkohletagebaukippen im Nordraum Lausitz mit künstlichen neuronalen Netzen

Barth, Andreas, Kallmeier, Enrico, Böhnke, Robert, Lucke, Beate January 2016 (has links)
Mittels künstlichen neuronalen Netzen wurden die in den rekultivierten Tagebaukippen im Nordraum Lausitz (Tagebaue Schlabendorf und Seese) auftretenden Geländedeformationen infolge Bodenverflüssigung für die Jahre 2009 - 2013 als Zeitreihe modelliert. Das Modell ist in der Lage, grob die zeitliche Entwicklung und exakt die räumliche Lage des in den Kippen auftretenden Gefährdungspotenzials nachzuvollziehen und als Funktion des sich ändernden Grundwasserspiegels und der sich ändernden Oberflächenmorphologie in die Zukunft zu prognostizieren. Das Modell zeigt dynamisch das Entstehen neuer Risikoflächen in bisher scheinbar stabilen Bereichen des Untersuchungsgebietes. Die Korrektheit des Modells wurde mittels verschiedener Tests geprüft sowie anhand einer Prognoserechnung für das Jahr 2014 und des Vergleichs mit den real in 2014/2015 gegangenen Ereignissen nachgewiesen. Folgende Gefährdungsfaktoren wurden ermittelt: Destabilisierend wirken eine möglichst einförmige Lithologie folgender Zusammenset-zung: 31 % Feinsand, 34 % Mittelsand, 31 % Grobsand, 3 % Schluff, < 1 % Kies, < 1 % Kalk, < 1 % Ton, < 1 % Kohle, kf-Werte zwischen 10-4 und 10-4,5 m/s, ein Grundwasserflurabstand bei 3,45 m (Medianwert), möglichst hohe Gradienten der nicht lithologisch kontrollierten Parameter: Tagebauoberfläche, Grundwasseroberfläche, Grundwasserflurabstand und Mächtigkeit der gesättigten Kippe. Stabilisierend wirken vor allem eine möglichst große Heterogenität der Lithologie auf kleinem Raum (möglichst hohe Gradienten der lithologisch kontrollierten Parameter (z.B. Kiesgehalt, Sandgehalt, Tongehalt, Kohlegehalt)), ein möglichst geringer Sandanteil, möglichst hohe Anteile an Kies, Schluff, Ton, Kalk, bzw. Kohle, ein möglichst großer Grundwasserflurabstand sowie möglichst geringe Gradienten der nicht lithologisch kontrollierten Parameter: Tagebauoberfläche, Grundwasseroberfläche, Grundwasserflurabstand, Mächtigkeit der gesättigten Kippe sowie wechselnde kf-Werte 10-7 bzw. >10-2 m/s. Für die Bearbeitung wurden ausschließlich die bei der LMBV vorhandenen bzw. laufend flächendeckend erhobenen Daten genutzt: Lage des Grundwasserspiegels, Relief der Tagebauoberfläche, Liegendes der Kippe, geologische Daten der Vorfeldbohrungen. Das Modell kann als dynamisches Instrument zum Risikomanagement vor bzw. während der Sanierungsmaßnahmen genutzt werden. Mittels der Variation der prozesskontrollie-renden Parameter können die geotechnischen Auswirkungen verschiedener Sanierungsszenarien (z.B. Gestaltung der Tagebauoberfläche, Schüttung der Kippen, Grundwasseranstieg) auf die Stabilität der Kippen prognostiziert werden. / Geotechnical events (terrain deformation due to soil liquefaction) in lignite mining waste rock piles of the northern Lausitz area (opencast pits Schlabendorf and Seese), have been modeled as time series for the years 2009 – 2013 by using artificial neural networks. The model has clearly recognized the influences of various lithological and non-lithological controlled parameters on the occurrence of geotechnical events, and these have been quantified and weighted in terms of their importance. The model is able to predict the tem-poral evolution and the exact spatial location of the events occurring in the dumps as a function of changing groundwater levels and surface morphology. The model shows dynamically the emergence of new risk areas in hitherto seemingly stable areas. The correctness of the model was confirmed by means of various tests and its predictive success was demonstrated through forecasting of events for the years 2014 and 2015 and their comparison with the observed events of those years. The following main risk factors were identified: Important destabilizing factors are a monotonous lithology with the following composition: 31% fine sand, 34% medium sand, 31% coarse sand, 3% silt, <1% gravel, <1% lime, <1% clay, <1% coal, kf-values between 10-4 and 10-4.5 m/s, a surface to groundwater distance of 3.45 meters (median value), high gradients of non-lithological controlled parameters: waste dump surface, groundwater level, depth to groundwater and thickness of saturated dump. 2. Important stabilizing factors are a high heterogeneity of lithology (high gradients of the lithological controlled parameters: e.g. gravel content, sand content, clay content, carbon content), a low proportion of sand in the dump composition, high proportions of gravel, silt, clay, lime, or coal, a high depth to groundwater, low gradients of non-lithological controlled parameters: open pit surface, groundwater surface, depth to groundwater, thickness of saturated dump, strongly changing kf values between 10-7 and 10-2 m/s. The model can be used as a dynamic tool for risk management before and during the re-habilitation of lignite waste dumps, and for constructing stable waste dumps. By means of varying the model parameters (e.g. design of the dump surface, composition of dumped rocks, rising groundwater) the geotechnical effects of dump design and remediation scenarios can be predicted.
32

Nutzung künstlicher Neuronaler Netze zur Detektion von Stadtgrün

Haas, Amelie 01 October 2020 (has links)
Bäume sind eine wichtige Ressource für die Stadt- und Raumplanung. Um diese – beispielsweise zu Klimaschutzmaßnahmen – optimal nutzen zu können, werden entsprechende Informationen darüber benötigt. Die Erhebung von Baumstandorten, -höhen, Kronendurchmessern etc. vor Ort ist aufwändig und damit zeit- und kostenintensiv. Gleichzeitig steht eine große Menge an Fernerkundungsdaten, wie beispielsweise digitale Orthophotos oder Geländemodelle, in denen Bäume erfasst sind, zur Verfügung. Die Entwicklung geeigneter Methoden, um diese Daten (automatisiert) auszuwerten, ist von entscheidender Bedeutung, wobei im Zusammenhang mit der Verarbeitung und Analyse großer Datenmengen derzeit verschiedene Methoden des maschinellen Lernens, insbesondere künstliche Neuronale Netze (kNN), Gegenstand intensiver Forschung sind.
33

Algorithmic Trading : Analyse von computergesteuerten Prozessen im Wertpapierhandel unter Verwendung der Multifaktorenregression / Algorithmic Trading : analysis of computer driven processes in securities trading using a multifactor regression model

Gomolka, Johannes January 2011 (has links)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt. / During the last decade the electronic trading on the stock exchanges advanced rapidly. Today almost every exchange is running an electronic trading system. In this context the term algorithmic trading describes a phenomenon, where computer programs are replacing the human trader, when making investment decisions or facilitating transactions. Algorithmic trading itself stands in a row of many other innovations that helped to develop the financial markets technologically (see for example telegraphy, the telephone, FAX or electronic settlement). Today the question is not, whether computer programs are used or not. The question arising is rather, where the border between automatic, computer driven and human trading can be drawn. Conducting research on algorithmic trading confronts scientists always with the problem of limited availability of information. The idea of this dissertation is to circumnavigate this problem and to extract information indirectly from an analysis of a time series of (fund)-returns data. The research question here is: Is it possible to draw conclusions about algorithmic trading from an analysis of (funds-)return data? To answer this question, the author develops a complete definition of algorithmic trading. He differentiates between Buy-Side and Sell-Side algorithmic trading, depending on the functions of the computer programs (supporting investment-decisions or transaction management). Further, the author applies the multifactor model of the style analysis, formely introduced by Fung and Hsieh (1997). The multifactor model allows to separate fund returns into regression factors that can be attributed to different reasons. The results of this dissertation do show that it is possible to draw conclusions about algorithmic trading out of the analysis of funds returns. Yet these conclusions cannot be of technical nature. They rather have to be attributed to investment strategies (investment styles).
34

Künstliche neuronale Netze zur Beschreibung der hydrodynamischen Prozesse für den Hochwasserfall unter Berücksichtigung der Niederschlags-Abfluß-Prozesse im Zwischeneinzugsgebiet

Peters, Ronny 22 July 2008 (has links) (PDF)
Aus den Mängeln bisher verwendeter Modelle zur Abbildung des Wellenablaufes zu Prognosezwecken im Hochwasserfall wird in dieser Arbeit eine Methodik entwickelt, die die Schnelligkeit und Robustheit künstlicher neuronaler Netze mit der Zuverlässigkeit hydrodynamisch-numerischer Modellierung verbindet. Ein eindimensionales hydrodynamisches Modell beinhaltet die genaue Kenntnis der Geometrie des Flußlaufes und der Vorländer und berücksichtigt die physikalischen Prozesse des Wellenablaufes. Mit diesem deterministischen Modell ist eine Grundlage für umfangreiche Szenarienrechnungen zur Erstellung einer Datenbasis geschaffen, die die weite Spanne theoretisch möglicher Hochwasserereignisse abdeckt. Mit dieser Datenbasis können dann künstliche neuronale Netze trainiert werden, die auch im Bereich extremer Hochwasserereignisse zuverlässige Prognosen liefern. In dieser Arbeit werden mit Multilayer-Feedforward-Netzen und selbstorganisierenden Merkmalskarten zwei Netztypen als Vertreter überwacht und unüberwacht lernender neuronaler Netze auf ihre diesbezügliche Eignung untersucht und beurteilt. Desweiteren wurde die Methodik auf die Einbeziehung von Merkmalen für die Niederschlags-Abfluß-Prozesse im unbeobachteten Zwischengebiet zur Berücksichtigung lateraler Zuflüsse entlang der modellierten Fließstrecken erweitert. Die Datenbasis wurde hierfür mit einem Niederschlags-Abfluß-Modell erstellt. Ein Hauptschwerpunkt liegt in der Überführung der Eingangsdaten in charakteristische Merkmale zur Abbildung der Zielgrößen, in diesem Falle des Durchflusses und Wasserstandes am Zielpegel. So dienen die deterministischen Modelle nicht nur zur Erstellung einer verläßlichen Datenbasis für das Training der Netze, sondern ermöglichen – sowohl für die Niederschlags-Abfluß-Prozesse, als auch für die hydrodynamischen Prozesse – Analysen betreffs der Sensitivität der Modellergebnisse infolge von Änderungen der Inputdaten. Mit Hilfe dieser Analysen werden wichtige Informationen zur Findung der relevanten Merkmale erlangt. Ein Schlüssel für die erfolgreiche Eingliederung der Niederschlags-Abfluß-Prozesse in das Prognosenetz ist die Einführung eines einzigen Zustandsmerkmals, welches die gesamte meteorologische Vorgeschichte des Ereignisses zur Charakterisierung des Gebietszustandes vereinigt. Die entwickelte Methodik wurde anhand des Einzugsgebietes der Freiberger Mulde erfolgreich getestet.
35

Modellierung modularer Materialfluss-Systeme mit Hilfe von künstlichen neuronalen Netzen / Modelling of material flow systems with artificial neural networks

Markwardt, Ulf 23 October 2004 (has links) (PDF)
Materialfluss-Systeme für den Stückgut-Transport auf der Basis von Stetigförderern sind meist modular aufgebaut. Das Verhalten gleichartiger Materialfluss-Elemente unterscheidet sich durch technische Parameter (z.B. geometrische Größen) und durch unterschiedliche logistische Belastungen der Elemente im System. Durch die in der Arbeit getroffenen Modellannahmen werden für die Elemente nur lokale Steuerungsregeln zugelassen und für das System Blockierfreiheit vorausgesetzt. Das Verhalten eines Materialfluss-Elements hängt dann nicht mehr von Zuständen anderer Elemente des Systems ab sondern nur noch von den stochastischen Prozessen des Eintreffens von Transporteinheiten. Die Auslastung eines Elements, die Quantile der Warteschlangenlängen an seinen Eingängen und die Variationskoeffizienten seiner Abgangsströme sind statistische Kenngrößen. Sie hängen im Wesentlichen nur von der Klasse des Elements, seinen technischen Parametern, den Parametern der Eingangsströme und der lokalen Transportmatrix ab. Diese funktionellen Abhängigkeiten sind im Allgemeinen nicht analytisch handhabbar. Da diese Funktionen stetig differenzierbar und beschränkt sind und von relativ viele Eingansgrößen anhängen, sind neuronale Netze gut geeignet für numerische Näherungen. Mit Hilfe von einfachen neuronalen Netzen können die statistischen Kenngrößen numerisch approximiert werden. Aus einzelnen Teilmodellen kann ein hybrides Modell des gesamten Systems zusammengesetzt werden. Anhand von einigen Beispielen wird die Güte der Modellierung bewertet. / Material flow systems are normally built with a modular structure. The behavoir of similar elements only differs by technical parameters (e.g. geometriy), and by different logistic loads of the elements in the system. In this paper, a new model is being developed for a non-blocking system with non-global control rules. The behavior of a flow of a material flow element is assumed not to depend on the conditions of other elements of the system, but only on stochastic processes of the arrival of transportation units. The rate of utilization of an element, the quantiles of the queue lengths at its inputs, and the dispersion of its output stream are statistic characteristics. They depend only on the type of the element, its technical parameters, the parameters of the input streams, and the local transportation matrix. These functional dependencies are not analytically manageable. But due to their properties, neural nets are well suited for numeric approximations of these statistic functions. The single models can be used to compose a hybrid model of the whole system. A few examples show the quality of the new modeling technique.
36

Neural-Symbolic Integration / Neuro-Symbolische Integration

Bader, Sebastian 15 December 2009 (has links) (PDF)
In this thesis, we discuss different techniques to bridge the gap between two different approaches to artificial intelligence: the symbolic and the connectionist paradigm. Both approaches have quite contrasting advantages and disadvantages. Research in the area of neural-symbolic integration aims at bridging the gap between them. Starting from a human readable logic program, we construct connectionist systems, which behave equivalently. Afterwards, those systems can be trained, and later the refined knowledge be extracted.
37

Alternative Analysemöglichkeiten geographischer Daten in der Kartographie mittels Self-Organizing Maps

Klammer, Ralf 25 August 2011 (has links) (PDF)
Die Kartographie ist eine Wissenschaft, die in ihrem Charakter starke interdisziplinäre Züge aufweist. Sie zeigt sich in den verschiedensten Facetten und wird darum in den unterschiedlichsten Wissenschaften angewandt. Markantester Charakter ist, schon per Definition, die Modellierung von geowissenschaftlichen Ereignissen und Sachverhalten. „A unique facility for the creation and manipulation of visual or virtual representations of geospace – maps – to permit the exploration, analysis, understanding and communication of information about that space.“(ICA 2003) Aus dieser Definition wird die Charakteristik einer Kommunikationswissenschaft (Brassel) deutlich. Gerade seit dem Paradigmenwechsel der 1970er Jahre fließen zahlreiche weitere Aspekte wie Informatik, Semiotik und Psychologie in das Verständnis von Kartographie ein. Dadurch wird die Karte nicht mehr als reines graphisches Mittel verstanden, sondern als Träger und Übermittler von Informationen verstanden. Der Kartennutzer und dessen Verständnis von Karten rücken dabei immer weiter in den Vordergrund und werden „Ziel“ der kartographischen Verarbeitung. Aus diesem Verständnis heraus, möchte ich in der folgenden Arbeit einen relativ neuen Einfluss und Aspekt der Kartographie vorstellen. Es handelt sich um das Modell der Self-Organizing Maps (SOM), welches erstmalig Anfang der 1980er Jahre von Teuvo Kohonen vorgestellt wurde und deshalb auch, von einigen Autoren, als Kohonenmaps bezeichnet wird. Dem Typus nach, handelt es sich dabei um künstliche neuronale Netze, welche dem Nervensystem des menschlichen Gehirns nachempfunden sind und damit allgemein als eine Art selbständiger, maschineller Lernvorgang angesehen werden können. Im Speziellen sind Self-Organizing Maps ein unüberwachtes Lernverfahren, das in der Lage ist völlig unbekannte Eingabewerte zu erkennen und zu verarbeiten. Durch diese Eigenschaft eignen sie sich als optimales Werkzeug für Data Mining sowie zur Visualisierung von hochdimensionalen Daten. Eine Vielzahl von Wissenschaftlern hat diesen Vorteil bereits erkannt und das Modell in ihre Arbeit einbezogen oder auf dessen Verwendbarkeit analysiert. Deshalb möchte in dieser Arbeit, einige dieser Verwendungsmöglichkeiten und den daraus resultierenden Vorteil für die Kartographie aufzeigen.
38

A Mathematical Approach to Self-Organized Criticality in Neural Networks / Ein mathematischer Zugang zur selbstorganiserten Kritikalität in Neuronalen Netzen

Levina, Anna 08 January 2008 (has links)
No description available.
39

Sicherheitsbeurteilung und Entwurf von Tragwerken - numerische Analyse mit unscharfen Größen

Sickert, Jan-Uwe, Steinigen, Frank, Freitag, Steffen, Pannier, Stephan, Hoffmann, Andreas, Graf, Wolfgang, Kaliske, Michael 05 December 2011 (has links) (PDF)
Im Beitrag werden Forschungsergebnisse zum numerischen Entwurf textilbewehrter Verstärkungsschichten zusammengefasst. Die Ergebnisse resultieren im Wesentlichen aus den Arbeiten der Teilprojekte D2-Numerische Simulation, E3-Sicherheitsbeurteilung und E4-Numerische Langzeitprognose des Sonderforschungsbereichs 528. Zusätzlich wird auf Transferleistungen verwiesen. / The paper provides a summary of research results concerning numerical design approaches for textile reinforced structures. The outcome mainly results from the work done in the subprojects of the Collaborative Research Centre 528: D2-Numerical Simulation, E3-Reliability Assessment und E4-Numerical Long-term Prognosis. Further, the paper also points out the transfer potential.
40

Phonetische Transkription für ein multilinguales Sprachsynthesesystem

Hain, Horst-Udo 06 February 2012 (has links) (PDF)
Die vorliegende Arbeit beschäftigt sich mit einem datengetriebenen Verfahren zur Graphem-Phonem-Konvertierung für ein Sprachsynthesesystem. Die Aufgabe besteht darin, die Aussprache für beliebige Wörter zu bestimmen, auch für solche Wörter, die nicht im Lexikon des Systems enthalten sind. Die Architektur an sich ist sprachenunabhängig, von der Sprache abhängig sind lediglich die Wissensquellen, die zur Laufzeit des Systems geladen werden. Die Erstellung von Wissensquellen für weitere Sprachen soll weitgehend automatisch und ohne Einsatz von Expertenwissen möglich sein. Expertenwissen kann verwendet werden, um die Ergebnisse zu verbessern, darf aber keine Voraussetzung sein. Für die Bestimmung der Transkription werden zwei neuronale Netze verwendet. Das erste Netz generiert aus der Buchstabenfolge des Wortes die zu realisierenden Laute einschließlich der Silbengrenzen, und das zweite bestimmt im Anschluß daran die Position der Wortbetonung. Diese Trennung hat den Vorteil, daß man für die Bestimmung des Wortakzentes das Wissen über die gesamte Lautfolge einbeziehen kann. Andere Verfahren, die die Transkription in einem Schritt bestimmen, haben das Problem, bereits zu Beginn des Wortes über den Akzent entscheiden zu müssen, obwohl die Aussprache des Wortes noch gar nicht feststeht. Zudem bietet die Trennung die Möglichkeit, zwei speziell auf die Anforderung zugeschnittene Netze zu trainieren. Die Besonderheit der hier verwendeten neuronalen Netze ist die Einführung einer Skalierungsschicht zwischen der eigentlichen Eingabe und der versteckten Schicht. Eingabe und Skalierungsschicht werden über eine Diagonalmatrix verbunden, wobei auf die Gewichte dieser Verbindung ein Weight Decay (Gewichtezerfall) angewendet wird. Damit erreicht man eine Bewertung der Eingabeinformation während des Trainings. Eingabeknoten mit einem großen Informationsgehalt werden verstärkt, während weniger interessante Knoten abgeschwächt werden. Das kann sogar soweit gehen, daß einzelne Knoten vollständig abgetrennt werden. Der Zweck dieser Verbindung ist, den Einfluß des Rauschens in den Trainingsdaten zu reduzieren. Durch das Ausblenden der unwichtigen Eingabewerte ist das Netz besser in der Lage, sich auf die wichtigen Daten zu konzentrieren. Das beschleunigt das Training und verbessert die erzielten Ergebnisse. In Verbindung mit einem schrittweisen Ausdünnen der Gewichte (Pruning) werden zudem störende oder unwichtige Verbindungen innerhalb der Netzwerkarchitektur gelöscht. Damit wird die Generalisierungsfähigkeit noch einmal erhöht. Die Aufbereitung der Lexika zur Generierung der Trainingsmuster für die neuronalen Netze wird ebenfalls automatisch durchgeführt. Dafür wird mit Hilfe der dynamischen Zeitanpassung (DTW) der optimale Pfad in einer Ebene gesucht, die auf der einen Koordinate durch die Buchstaben des Wortes und auf der anderen Koordinate durch die Lautfolge aufgespannt wird. Somit erhält man eine Zuordnung der Laute zu den Buchstaben. Aus diesen Zuordnungen werden die Muster für das Training der Netze generiert. Um die Transkriptionsergebnisse weiter zu verbessern, wurde ein hybrides Verfahren unter Verwendung der Lexika und der Netze entwickelt. Unbekannte Wörter werden zuerst in Bestandteile aus dem Lexikon zerlegt und die Lautfolgen dieser Teilwörter zur Gesamttranskription zusammengesetzt. Dabei werden Lücken zwischen den Teilwörtern durch die neuronalen Netze aufgefüllt. Dies ist allerdings nicht ohne weiteres möglich, da es zu Fehlern an den Schnittstellen zwischen den Teiltranskriptionen kommen kann. Dieses Problem wird mit Hilfe des Lexikons gelöst, das für die Generierung der Trainingsmuster aufbereitet wurde. Hier ist eine eindeutige Zuordnung der Laute zu den sie generierenden Buchstaben enthalten. Somit können die Laute an den Schnittstellen neu bewertet und Transkriptionsfehler vermieden werden. Die Verlagsausgabe dieser Dissertation erschien 2005 im w.e.b.-Universitätsverlag Dresden (ISBN 3-937672-76-1). / The topic of this thesis is a system which is able to perform a grapheme-to-phoneme conversion for several languages without changes in its architecture. This is achieved by separation of the language dependent knowledge bases from the run-time system. Main focus is an automated adaptation to new languages by generation of new knowledge bases without manual effort with a minimal requirement for additional information. The only source is a lexicon containing all the words together with their appropriate phonetic transcription. Additional knowledge can be used to improve or accelerate the adaptation process, but it must not be a prerequisite. Another requirement is a fully automatic process without manual interference or post-editing. This allows for the adaptation to a new language without even having a command of that language. The only precondition is the pronunciation dictionary which should be enough for the data-driven approach to learn a new language. The automatic adaptation process is divided into two parts. In the first step the lexicon is pre-processed to determine which grapheme sequence belongs to which phoneme. This is the basis for the generation of the training patterns for the data-driven learning algorithm. In the second part mapping rules are derived automatically which are finally used to create the phonetic transcription of any word, even if it not contained in the dictionary. Task is to have a generalisation process that can handle all words in a text that has to be read out by a text-to-speech system.

Page generated in 0.0516 seconds