• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 36
  • 19
  • 16
  • 3
  • 2
  • 1
  • Tagged with
  • 144
  • 59
  • 57
  • 32
  • 31
  • 31
  • 27
  • 18
  • 16
  • 16
  • 11
  • 11
  • 10
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Anwendung von Saccharomyces cerevisiae in der Biotechnologie und Oberflächenchemie /

Leppchen, Kathrin. January 2009 (has links)
Zugl.: Dresden, Techn. Universiẗat, Diss., 2009.
82

Hochdruck-Mehrphasengleichgewichte in Systemen aus Wasser, einem organischen Lösungsmittel und (nahekritischem) Ethen

Freitag, Jörg. Unknown Date (has links) (PDF)
Universiẗat, Diss., 2003--Kaiserslautern.
83

Extraktion statischer SAP-Strukturinformationen in FAMIX als Grundlage für die Softwarevisualisierung

Sager, Tilmann 10 September 2018 (has links)
Softwarevisualisierung stellt als Teil der Informationsvisualisierung Struktur, Verhalten und Evolution einer Software dar. In der Softwareentwicklung bietet sie für jeden Akteur ein nützliches Werkzeug. So können neben Entwicklern auch Berater und Kunden Eigenschaften einer Software beurteilen, ohne höhere Programmierkenntnisse zu besitzen. Die Professur für Softwareentwicklung für Wirtschaft und Verwaltung der Universität Leipzig forscht im Bereich der Softwarevisualisierung. Neben einem Softwarevisualisierungsgenerator existieren bisher Extraktoren für C#, Java und Ruby. Für die SAP-eigene Programmiersprache ABAP und weitere SAP-Strukturinformationen sind in der Literatur und im kommerziellen Bereich wenige Konzepte veröffentlicht worden. Das Ziel dieser Arbeit ist die Entwicklung eines Prototypen zur Extraktion von SAP- Strukturinformationen in das Metamodell FAMIX als Grundlage für die Softwarevisualisierung. Als Werkzeug kommt dabei der SAP Code Inspector zum Einsatz, um Informationen über Quelltextelemente zu sammeln. Die zu extrahierenden Informationen werden durch eine Analyse der Recursive Disk Metaphor ermittelt, bei der SAP-Elemente in die bestehende Version integriert werden.:1. Einleitung 1.1. Motivation 1.2. Zielstellung 1.3. Methodisches Vorgehen 1.4. Aufbau dieser Arbeit 2. SAP-Grundlagen 2.1. SAP-System 2.2. ABAP 2.2.1. Report 2.2.2. Funktionsgruppe 2.2.3. Klasse 2.2.4. Datentyp 2.2.5. Tabelle 2.3. SAP Code Inspector 2.3.1. Anwendung des SAP Code Inspectors 2.3.2. Aufbau eigener Prüfklassen 3. Softwarevisualisierung 3.1. Grundlagen der Softwarevisualisierung 3.2. Visualisierungsprozess 3.3. FAMIX-Grammatik 3.4. Recursive Disc Metaphor 4. Analyse der zu extrahierenden Strukturinformationen 4.1. Auswahl der ABAP-Objekte 4.2. Anforderungsanalyse für ABAP 4.3. Visualisierung in der Recursive Disc Metaphor 5. Prototyp zur Extraktion von Strukturinformationen 5.1. Konzeption 5.2. Funktionsbeschreibung 5.3. Architektur 5.4. Datenhaltung 5.5. Evaluation 6. Ausblick
84

Extraktion statischer SAP-Strukturinformationen in FAMIX als Grundlage für die Softwarevisualisierung

Sager, Tilmann 13 October 2021 (has links)
Softwarevisualisierung stellt als Teil der Informationsvisualisierung Struktur, Verhalten und Evolution einer Software dar. In der Softwareentwicklung bietet sie für jeden Akteur ein nützliches Werkzeug. So können neben Entwicklern auch Berater und Kunden Eigenschaften einer Software beurteilen, ohne höhere Programmierkenntnisse zu besitzen. Die Professur für Softwareentwicklung für Wirtschaft und Verwaltung der Universität Leipzig forscht im Bereich der Softwarevisualisierung. Neben einem Softwarevisualisierungsgenerator existieren bisher Extraktoren für C#, Java und Ruby. Für die SAP-eigene Programmiersprache ABAP und weitere SAP-Strukturinformationen sind in der Literatur und im kommerziellen Bereich wenige Konzepte veröffentlicht worden. Das Ziel dieser Arbeit ist die Entwicklung eines Prototypen zur Extraktion von SAP- Strukturinformationen in das Metamodell FAMIX als Grundlage für die Softwarevisualisierung. Als Werkzeug kommt dabei der SAP Code Inspector zum Einsatz, um Informationen über Quelltextelemente zu sammeln. Die zu extrahierenden Informationen werden durch eine Analyse der Recursive Disk Metaphor ermittelt, bei der SAP-Elemente in die bestehende Version integriert werden.:1. Einleitung 1.1. Motivation 1.2. Zielstellung 1.3. Methodisches Vorgehen 1.4. Aufbau dieser Arbeit 2. SAP-Grundlagen 2.1. SAP-System 2.2. ABAP 2.2.1. Report 2.2.2. Funktionsgruppe 2.2.3. Klasse 2.2.4. Datentyp 2.2.5. Tabelle 2.3. SAP Code Inspector 2.3.1. Anwendung des SAP Code Inspectors 2.3.2. Aufbau eigener Prüfklassen 3. Softwarevisualisierung 3.1. Grundlagen der Softwarevisualisierung 3.2. Visualisierungsprozess 3.3. FAMIX-Grammatik 3.4. Recursive Disc Metaphor 4. Analyse der zu extrahierenden Strukturinformationen 4.1. Auswahl der ABAP-Objekte 4.2. Anforderungsanalyse für ABAP 4.3. Visualisierung in der Recursive Disc Metaphor 5. Prototyp zur Extraktion von Strukturinformationen 5.1. Konzeption 5.2. Funktionsbeschreibung 5.3. Architektur 5.4. Datenhaltung 5.5. Evaluation 6. Ausblick
85

Einsatz von Mikroemulsionen zur Behandlung schwermetallkontaminierter und organisch belasteter Böden

Katzer, Silke 15 April 2002 (has links)
Das entwickelte Verfahrenskonzept stellt eine abfallarme Sanierungsmethode zur simultanen Behandlung schwermetallkontaminierter und organisch belasteter Böden dar. Die vom Boden abgetrennten Schadstoffe - Schwermetalle und Organika - werden in den entsprechenden Phasen der Mikroemulsion solubilisiert. Die entwickelte Formulierung der Mikroemulsion ist dadurch charakterisiert, insbesondere polare Schadstoffe respektive Schwermetalle aus kontaminierten Bodenmaterialien zu extrahieren. Der Einsatz der entwickelten bikontinuierlichen Mikroemulsion bewirkt bereits im ersten Extraktionsschritt die nahezu vollständige Entfernung sowohl der Schwermetalle als auch der organischen Schadstoffe. Durch eine mehrstufige Extraktion ist es möglich, auch hochkontaminierte Materialien einschließlich der Feinkornfraktionen zu reinigen und somit die Menge des zu deponierenden Bodenmaterials deutlich zu reduzieren.
86

Electrolytic Extraction of Aluminium Bifilms

Bergfors, Simon, Flink, Davida January 2020 (has links)
Bifilms is the oxide layer created between two surfaces in the melt of light metals that form an oxide layer. These become planar inclusions in the final casting and are problematic for the mechanical properties such as cracks and crack initiations. Bifilms are too thin to be viewed properly in two dimension cross-section method as they will only appear as thin lines. Because of this, it is relevant to test if it is possible to use electrolytic extraction (EE) as a alternative method to investigate bifilms. Both the deeply etched surface and the inclusions on a filter from the extraction are looked at in the scanning electron microscope (SEM) to get an understanding of the size and shape of the inclusions. With this, a greater understanding of these types of defects can be achieved. After both the filtered inclusions and the surface are examined in SEM with images and Energy-dispersive X-ray spectroscopy (EDS), the images are measured in the software ImageJ. The measurements and analysis show that it is probably bifilms and that they can be relatively large, and not so circular. However, the measurements with the filter have shown high levels of oxygen and carbon. Some levels of chlorine, nitrogen and iron have also been found. But if the surface is compared to the metal surface, it can be concluded that it is likely that bifilms have been found. There are sufficient levels of aluminum and oxygen present. Images in SEM also show the appearance of film-like inclusions. If the method of electrolytic extraction is to be improved to investigate bifilms,optimizations such as filters of other compositions are recommended. / Bifilms är det oxidskikt som skapas mellan två ytor i smältan hos lätta metaller som bildar ett oxidskikt. Dessa blir sedan plana inneslutningar i den slutliga gjutningen och är problematiskt för de mekaniska egenskaperna i form av sprickor och sprickinitieringar. Bifilms är för tunna för att de ska kunna ses korrekt i en tvärsnittsmetod, eftersom de bara kommer att visas som tunna linjer. På grund av detta är det relevant att testa om det är möjligt att använda elektrolytisk extraktion (EE) som en alternativ metod. Både den djupt etsade ytan och inneslutningarna på ett filter från extraktionen tittas på i svepelektronmikroskop för att få en förståelse för inneslutningarnas storlek och form. I och med det kan en högre förståelse uppnås för dessa typer av defekter. Efter att både de filtrerade inneslutningarna och ytan granskats i SEM med bilder och Energy-dispersive X-ray spectroscopy (EDS), mäts bilderna i en mjukvara, ImageJ. De mätningarna och analyserna visar att det antagligen hittats bifilms och att de kan vara förhållandevis stora, samt inte så cirkulära. Däremot har mätningarna med filtret visat höga halter av syre och kol. Även vissa halter av klor, kväve och järn har hittats. Men om ytan jämförs med metallytan så kan en slutsats dras om att det är troligt att bifilms har hittats. Där finns tillräckliga halter av aluminium och syre. Även bilder i SEM påvisar filmliknande inneslutningar till sitt utseende. Om metoden med elektrolytisk extraktion ska förbättras för att undersöka bifilms behövs optimeringar, som till exempel filterav en annan sammansättning.
87

Characterisation of Non-metallic Inclusions in Special Steels using Electrolytic Extraction

Mvele Svensson, Josefin January 2024 (has links)
When producing high strength special steels strict requirements are in place to assure the quality of the final product, both in terms of harmful elements and  the  content  of  non-metallic  inclusions  (NMI).  Achieving  cleanliness  is a  gradual  process  where all  the  steps  of  the  production  process  are  inter- connected, meaning that it is crucial to know the influence of each step in order to assure the contents of the final product.  The purpose of this thesis was to investigate the presence of non-metallic inclusions in wear plate steel, produced through two different process routes, one with an added round of Ca treatment and vacuum treatment. The  investigations  were  performed  using  electrolytic  extraction  of  in- clusions  followed  by  analysis  with  a  scanning  electron  microscope  (SEM). Backscattered electrons (BSE) were used for imaging and morphology anal- ysis and composition analysis was performed using energy dispersive spec- troscopy (EDS). Four different types of inclusions were found in the samples, whereof only one type is present in liquid steel.  It was found that the ini- tial Ca treatment stabilised the composition for the vacuum treated samples, while the sizes of the inclusions found in these samples were scattered.  The reverse was observed in the reference samples, where compositions were scat- tered but a mode value could be found for inclusion size at around 2.5 µm. Inclusions in the reference samples were found to have an average composi- tion lying outside the desired liquid region, not achieving full modification of harmful inclusions, while only modified inclusions could be found in vacuum treated samples. Additionally, around 70% of the analysed inclusions in the vacuum treated samples could be found in the liquid region. It was also found that the use of an electrolytic extraction method was appropriate for the investigated steel grade, while highlighting the need for some parameter adjustments to be made for future investigations in order to extract a sufficient number of inclusions. / Vid tillverkning av höghållfasta specialstål ställs stränga krav för att säkerställa kvaliteten på slutprodukten, både vad gäller skadliga element och innehållet av  icke-metalliska  inneslutningar  (NMI).  Att  uppnå  renlighet  är  en  gradvis  process  där alla  steg  i  produktionsprocessen  är  sammankopplade,  vilket innebär  att  det  är avgörande  att  känna  till  varje  stegs  inverkan  för  att säkerställa innehållet i slutprodukten.  Syftet med detta examensarbete var att  undersöka  förekomsten  av icke-metalliska  inneslutningar  i  slitplåtsstål, producerade genom två olika processvägar, en med en extra omgång av Ca- behandling och vakuumbehandling. Undersökningarna  utfördes  med  hjälp  av  elektrolytisk  extraktion  av  inneslutningar  följt  av  analys  med  ett  svepelektronmikroskop  (SEM).  Tillbakaspridda  elektroner  (BSE)  användes  för  avbildning  och  morfologianalys och sammansättningsanalys utfördes med användning av energidispergerande spektroskopi (EDS). Fyra olika typer av inneslutningar hittades i proverna, varav  endast  en  typ  förekommer  i  flytande stål.    Det  visade  sig  att  den initiala  Ca-behandlingen  stabiliserade sammansättningen  för  de  vakuumbehandlade proverna, medan storleken på inneslutningarna som hittades i dessa prover var spridda.  Det omvända observerades i referensproverna, där sammansättningarna  var  spridda  men  ett  modvärde  kunde hittas  för  inneslutningsstorleken  på  cirka  2,5  µm. Inneslutningar  i referensproverna visade sig  ha  en  genomsnittlig  sammansättning  som  låg  utanför  den  önskade flytande  regionen,  där  fullständig  modifiering  av  skadliga inneslutningar  inte uppnåtts, medan endast modifierade inneslutningar kunde hittas i vakuumbehandlade prover.  Dessutom kunde cirka 70% av de analyserade inneslutningarna i de vakuumbehandlade proverna hittas i den flytande regionen. Det visade sig också att användningen av en elektrolytisk extraktionsmetod var lämplig för den undersökta stålsorten, samtidigt som behovet av att göra vissa parameterjusteringar inför framtida undersökningar framhölls, för att kunna extrahera en tillräcklig mängd inneslutningar.
88

Optimering av provberedning för analys av PAH, PCB och oljekomponenter i vatten / Optimization of sample preparation for the analysis of PAH, PCB and oil components in water

Arkelid, Alva January 2024 (has links)
In this study, optimization of a new multimethod for the analysis of PAH, PCB, aliphatics and aromatics in water have been done at Eurofins in Lidköping. Since the method is intended for routine analysis during a high sample flow, great focus was placed on the efficiency of the sample preparation. The company’s main goal was to replace the extraction solvent n-hexane that has been used in one of the methods that this multimethod has the intention to replace. This is because n-hexane is CMR-classified, and the company prioritizes phasing out the substance from all analyses. The original idea was to use n-pentane as the extraction solvent, but as it is very fluid and highly volatile, this study aimed to choose a solvent other than n-pentane if possible. At the same time, aim was also set on shortening the shaking time during the extraction from 45 minutes. The solvents tested and compared were n-pentane, diethyl ether/n-pentane (15/85 v/v%), cyclohexane, diethyl ether/cyclohexane (15/85 v/v%), n-heptane and diethyl ether/n-heptane (15/85 v/v%). During the project, different types of addition trials were carried out to evaluate which solvent extracted the substances to the highest degree and which solvent was the most practical to work with. Both positive and negative results were obtained, with diethyl ether/n-heptane proving to be the best solvent both from a practical point of view and in terms of extraction rate. However, the n-heptane was not shown to have the expected purity, which meant that the method had to use n-pentane as the extraction solvent despite the advantages demonstrated with diethyl ether/n-heptane. On the other hand, the phasing out of n-hexane was successful, and tests carried out at different extraction times showed that the method was robust, and that the extraction time could be shortened to 30 minutes while still obtaining desirable results. / I detta arbete har optimering av provberedningen hos en ny multimetod för analys av PAH, PCB, alifater och aromater i vatten utförts hos Eurofins i Lidköping. Eftersom metoden är avsedd för rutinanalys vid högt provflöde från kundprov lades stort fokus på provberedningens effektivitet. Företagets huvudmål var att byta ut extraktionslösningsmedlet n-hexan som har använts i en av de metoder som multimetoden ska ersätta. Detta för att n-hexan är CMR-klassat och företaget prioriterar att fasa ut ämnet från samtliga analyser. Ursprungstanken var att använda n-pentan som extraktionslösningsmedel, men då det är väldigt lättflytande och lättflyktigt syftade detta projekt till att välja något annat lösningsmedel än n-pentan om möjligt. Samtidigt lades fokus på att försöka korta ner skaktiden under extraktionen från 45 minuter. De lösningsmedel som testades och jämfördes var n-pentan, dietyleter/n-pentan (15/85 v/v%), cyklohexan, dietyleter/cyklohexan (15/85 v/v%), n-heptan och dietyleter/n-heptan (15/85 v/v%). Under projektet utfördes olika typer av tillsatsförsök för att utvärdera vilket lösningsmedel som extraherade ämnena i högst grad och vilket lösningsmedel som var mest praktiskt att arbeta med. Det erhölls både positiva och negativa resultat, där dietyleter/n-heptan visades vara det bästa lösningsmedlet ur både praktisk synpunkt och i extraktionsgrad. Däremot visades n-heptanen inte ha den renheten som förväntats, vilket gjorde att metoden fick använda sig av n-pentan som extraktionslösningsmedel trots fördelarna som påvisats med dietyleter/n-heptan. Däremot lyckades därmed utfasningen av n-hexan, samt att tester gjorda vid olika extraktionstider visade att metoden var robust och att extraktionstiden kunde kortas ner till 30 minuter och fortfarande ge önskvärda resultat.
89

Protonierungs-, Komplexbildungs- und Verteilungseigenschaften von tripodalen Azaliganden

Langer, Matthias 18 March 2006 (has links) (PDF)
Ziel der Untersuchungen war die Charakterisierung der Protonierungs-, Komplexbildungs- und Verteilungseigenschaften von tripodalen Azaliganden unter Anwendung thermodynamischer und spektroskopischer Verfahren. Im Vordergrund stand dabei der Einfluß des Lösungsmittels auf die zugrundeliegenden Gleichgewichte. Ausgehend von dem Aminopodanden Tris(2-aminoethylamin) (tren) wurden für eine Reihe abgeleiteter Verbindungen mit unterschiedlichen Stickstoffdonorfunktionen und Substituenten Faktoren untersucht, welche die beteiligten Gleichgewichte beeinflussen. Das Protonierungsverhalten der Polyaminverbindungen ist im starken Maße von elektrostatischen, elektronischen und Solvenseinflüssen abhängig, welche durch den Abstand der benachbarten Aminfunktionen, die Substitution am Aminstickstoffatom und die sterischen Eigenschaften der Substituenten bestimmt werden. Faktoren, welche die Solvatation der Aminfunktionen verringern, führen zu einer Verringerung der Protonierungskonstanten. Zudem beeinflussen die Zusammensetzung der verwendeten Methanol-Wasser-Gemische sowie das verwendete Leitsalz die Protonierungskonstanten z.T. deutlich. Die Komplexbildung der untersuchten Azapodanden mit Ag+ in Methanol zeigt Unterschiede, welche hauptsächlich auf die unterschiedliche Basizität von Imin- bzw. Aminstickstoffatomen sowie Substituenteneffekte zurückzuführen sind. Von sterisch aufwendigen Substituenten an den Donorfunktionen der Podandarme können zudem destabilisiernde Effekte infolge der Beeinflussung der Koordinationsgeometrie von Ag+ ausgehen. Heteroditope Tetraazacryptanden zeigen gegenüber abgeleiteten offenkettigen Podanden erhöhte Stabilitätskonstanten, wobei auch die Verknüpfungsposition der tripodalen Einheiten am Phenylspacer und die Bindung von Wasser im Käfighohlraum eine Rolle spielen. Lösungsmittelpolarität und Gegenion haben einen deutlichen Einfluß auf die Komplexbildung mit Ag+. Der Schwerpunkt von Untersuchungen an Zweiphasensystemenen wäßrig-organisch lag auf dem Übergang von Wasser in die organische Phase unter dem Einfluß von extrahierten Spezies bei der Kationen- und Anionenextraktion. Mit der Verteilung von Liganden und Kationen- bzw. Anionenkomplexen lassen sich Änderungen des Wassersättigungsgehaltes in der niedrigpolaren organischen Phase registrieren, die mit der unterschiedlichen Hydratation der Spezies korrelieren. Qualitativ wurde die Hydratation von Azapodanden mittels IR- und 1H-NMR-Spektroskopie nachgewiesen, wobei auch Hinweise auf bestimmte, die Hydratation verringernde Faktoren, wie intramolekulare Wasserstoffbrücken, erhalten wurden. Quantitativ konnten mittels Karl-Fischer-Titration und Verteilungsmessungen Hydratationszahlen für ausgewählte Ligansysteme bestimmt werden. Extrahierte Komplexe der Verbindungen mit Ag+, Co2+, Ni2+ und Zn2+ zeigen eine gegenüber den freien Komplexbildnern veränderte Hydratation. Bei Ag+ kann in allen Fällen von einer deutlichen Verringerung der Hydratationszahlen ausgegangen werden. Für die zweifachgeladenen Kationen konnte kein klarer Nachweis erbracht werden. Es ergeben sich aber Hinweise, wonach zum Teil keine Verringerung auftritt, was auf eine zusätzliche Koordinationsstellen von Wasser am Kation hinweist. Bei der Iodidextraktion treten bei gleichzeitiger pH-Abhängigkeit mehrere Komplexspezies auf, was die Bestimmung von Hydratationszahlen erschwert. Als hilfreich erwies sich die Simulation für verschiedene mögliche Zusammensetzungen. Dabei stellte sich heraus, daß der 1:1-Komplex des untersuchten monoprotonierten Aminopodanden in Chloroform wahrscheinlich stärker hydratisiert ist als der freie Ligand, während die entsprechende 1:2-Spezies (Ligand:Iodid) eine ähnliche oder schwächere Hydratation aufweist als der Ligand.
90

Improving Retrieval Accuracy in Main Content Extraction from HTML Web Documents

Mohammadzadeh, Hadi 17 December 2013 (has links) (PDF)
The rapid growth of text based information on the World Wide Web and various applications making use of this data motivates the need for efficient and effective methods to identify and separate the “main content” from the additional content items, such as navigation menus, advertisements, design elements or legal disclaimers. Firstly, in this thesis, we study, develop, and evaluate R2L, DANA, DANAg, and AdDANAg, a family of novel algorithms for extracting the main content of web documents. The main concept behind R2L, which also provided the initial idea and motivation for the other three algorithms, is to use well particularities of Right-to-Left languages for obtaining the main content of web pages. As the English character set and the Right-to-Left character set are encoded in different intervals of the Unicode character set, we can efficiently distinguish the Right-to-Left characters from the English ones in an HTML file. This enables the R2L approach to recognize areas of the HTML file with a high density of Right-to-Left characters and a low density of characters from the English character set. Having recognized these areas, R2L can successfully separate only the Right-to-Left characters. The first extension of the R2L, DANA, improves effectiveness of the baseline algorithm by employing an HTML parser in a post processing phase of R2L for extracting the main content from areas with a high density of Right-to-Left characters. DANAg is the second extension of the R2L and generalizes the idea of R2L to render it language independent. AdDANAg, the third extension of R2L, integrates a new preprocessing step to normalize the hyperlink tags. The presented approaches are analyzed under the aspects of efficiency and effectiveness. We compare them to several established main content extraction algorithms and show that we extend the state-of-the-art in terms of both, efficiency and effectiveness. Secondly, automatically extracting the headline of web articles has many applications. We develop and evaluate a content-based and language-independent approach, TitleFinder, for unsupervised extraction of the headline of web articles. The proposed method achieves high performance in terms of effectiveness and efficiency and outperforms approaches operating on structural and visual features. / Das rasante Wachstum von textbasierten Informationen im World Wide Web und die Vielfalt der Anwendungen, die diese Daten nutzen, macht es notwendig, effiziente und effektive Methoden zu entwickeln, die den Hauptinhalt identifizieren und von den zusätzlichen Inhaltsobjekten wie z.B. Navigations-Menüs, Anzeigen, Design-Elementen oder Haftungsausschlüssen trennen. Zunächst untersuchen, entwickeln und evaluieren wir in dieser Arbeit R2L, DANA, DANAg und AdDANAg, eine Familie von neuartigen Algorithmen zum Extrahieren des Inhalts von Web-Dokumenten. Das grundlegende Konzept hinter R2L, das auch zur Entwicklung der drei weiteren Algorithmen führte, nutzt die Besonderheiten der Rechts-nach-links-Sprachen aus, um den Hauptinhalt von Webseiten zu extrahieren. Da der lateinische Zeichensatz und die Rechts-nach-links-Zeichensätze durch verschiedene Abschnitte des Unicode-Zeichensatzes kodiert werden, lassen sich die Rechts-nach-links-Zeichen leicht von den lateinischen Zeichen in einer HTML-Datei unterscheiden. Das erlaubt dem R2L-Ansatz, Bereiche mit einer hohen Dichte von Rechts-nach-links-Zeichen und wenigen lateinischen Zeichen aus einer HTML-Datei zu erkennen. Aus diesen Bereichen kann dann R2L die Rechts-nach-links-Zeichen extrahieren. Die erste Erweiterung, DANA, verbessert die Wirksamkeit des Baseline-Algorithmus durch die Verwendung eines HTML-Parsers in der Nachbearbeitungsphase des R2L-Algorithmus, um den Inhalt aus Bereichen mit einer hohen Dichte von Rechts-nach-links-Zeichen zu extrahieren. DANAg erweitert den Ansatz des R2L-Algorithmus, so dass eine Sprachunabhängigkeit erreicht wird. Die dritte Erweiterung, AdDANAg, integriert eine neue Vorverarbeitungsschritte, um u.a. die Weblinks zu normalisieren. Die vorgestellten Ansätze werden in Bezug auf Effizienz und Effektivität analysiert. Im Vergleich mit mehreren etablierten Hauptinhalt-Extraktions-Algorithmen zeigen wir, dass sie in diesen Punkten überlegen sind. Darüber hinaus findet die Extraktion der Überschriften aus Web-Artikeln vielfältige Anwendungen. Hierzu entwickeln wir mit TitleFinder einen sich nur auf den Textinhalt beziehenden und sprachabhängigen Ansatz. Das vorgestellte Verfahren ist in Bezug auf Effektivität und Effizienz besser als bekannte Ansätze, die auf strukturellen und visuellen Eigenschaften der HTML-Datei beruhen.

Page generated in 0.389 seconds