• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 38
  • 34
  • 8
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 1
  • Tagged with
  • 204
  • 32
  • 24
  • 23
  • 22
  • 22
  • 18
  • 18
  • 17
  • 16
  • 16
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Localized Coarsening of Conforming All-Hexahedral Meshes

Woodbury, Adam C. 28 July 2008 (has links) (PDF)
Finite element mesh adaptation methods can be used to improve the efficiency and accuracy of solutions to computational modeling problems. For many finite element modeling applications, a conforming all-hexahedral mesh is preferred. When adapting a hexahedral mesh, localized modifications that preserve topologic conformity are often desired. Effective hexahedral refinement methods that satisfy these criteria have recently become available. However, due to hexahedral mesh topology constraints, little progress has been made in the area of hexahedral coarsening. This thesis presents a new method to locally coarsen conforming all-hexahedral meshes. The method works on both structured and unstructured meshes and is not based on undoing previous refinement. Building upon recent developments in quadrilateral coarsening, the method utilizes hexahedral sheet and column operations, including pillowing, column collapsing, and sheet extraction. A general algorithm for automated coarsening is presented and examples of models that have been coarsened are shown. While results are promising, further work is needed to improve the automated process.
32

Simplification et morphisme en temps réel de modèles articulés

Houle, Jocelyn January 2000 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
33

Discrete Representation of Urban Areas through Simplification of Digital Elevation Data

Chittineni, Ruparani 10 May 2003 (has links)
In recent years there has been large increase in the amount of digital mapping data of landscapes and urban environments available through satellite imaging. This digital information can be used to develop wind flow simulators over large cities or regions for various purposes such as pollutant transport control, weather forecasts, cartography and other topographical analysis. It can also be used by architects for city planning or by game programmers for virtual reality and similar applications. But this data is massive and contains a lot of redundant information such as trees, cars, bushes, etc. For many applications, it is beneficial to reduce these huge amounts of data through elimination of unwanted information and provide a good approximate model of the original dataset. The resultant dataset can then be utilized to generate surface grids suitable for CFD purposes or can be used directly for real-time rendering or other graphics applications. Digital Elevation Model, DEM, is the most basic data type in which this digital data is available. It consists of a sampled array of elevations for ground positions that are regularly spaced in a Cartesian coordinate system. The purpose of this research is to construct and test a simple and economical prototype which caters to image procesing and data reduction of DEM images through noise elimination and compact representations of complex objects in the dataset. The model is aimed at providing a synergy between resultant image quality and its size through the generation of various levels of detail. An alternate approach using the concepts of standard deviation helps in achieving the desired goal and the results obtained by testing the model on Salt Lake City dataset verify the claims. Thus, this thesis is aimed at DEM image processing to provide a simple and compact representation of complex objects encountered in large scale urban environment datasets and reduce the size of the dataset to accommodate efficient storage, computation, fast transmission across networks and interactive visualization.
34

The consequences and antecedents of cognitive simplification processes in new product development teams

Tenkasi, Ramkrishnan Vaideeswaran January 1994 (has links)
No description available.
35

Contribution à la gestion de la complexité des modèles en sciences de l'environnement

Eynaud, Yoan 06 December 2012 (has links)
La modélisation en écologie est aujourd'hui une pratique scientifique de premier plan. Portée par l'avancement technologique, les modèles utilisés en sciences de l'environnement présentent une complexité grandissante. La complexification des modèles est une nécessité pour une variété d'études, mais elle peut être une source d'incompréhension, voire d'erreurs. Savoir gérer son implémentation apparaît donc nécessaire. Fort de ce constat, deux approches complémentaires se sont distinguées et furent étudiées dans ce travail de thèse. D'une part, il est possible de gérer la complexité a priori, en contraignant directement les hypothèses de construction et le formalisme du modèle par l'utilisation d'un cadre théorique. Une illustration de l'utilisation d'un schéma théorique, la théorie des Budgets Dynamiques d'Énergie, présente comment une description précise de l'effet des ultraviolets fut adjointe à un modèle de l'endosymbiose corallienne. Cette étude met en lumière leur possible rôle dans le blanchiment des coraux scléractiniaires. La gestion de la complexité pouvant aussi s'opérer a posteriori, c'est à dire une fois l'étape de construction passée. Ainsi, une méthodologie d'analyse statistique des sorties de modèles ayant pour but de permettre leur simplification fut établie. À titre d'exemple, cette méthode a été appliquée sur un modèle à micro-échelle de l'écosystème mésopélagique. Ne plus avoir la possibilité d'entreprendre une approche analytique de son modèle n'est donc pas une fatalité pour qui veut maitriser son outil, car une multitude d'approches permettent d'obtenir des informations toutes aussi intéressantes. / Ecological modelling is nowadays a leading topic. the models used in environmental science turn to be more and more complex. Driven by technological advancement, the models used in environmental sciences are increasingly complex. The complexity of models is a need for a variety of studies, but it can also be a source of misunderstanding, or even errors. How to manage its implementation is therefore necessary. With this in mind, two complementary approaches have been studied in this thesis. On the one hand, it is possible to manage the complexity textit a priori, by directly constraining the construction assumptions and formalism of the model using a theo- retical framework. An illustration of the use of a theoretical framework, the theory of Dynamic Energy Budgets, shows how an accurate description of the effect of ultraviolet was added to a model of scleractinian corals. This study enlightened their possible role in coral bleaching events. Managing complexity can also be carried out textit a posteriori, ie once the construc- tion phase is done. Thus, a simplification methodology using a statistical analysis of the model outputs was established . As an example, this method was applied on a micro- scale model of the mesopelagic ecosystem. Eventually, not being able of pursuing an analytical approach of the model is not inevitable for those who want to still mastering their model, it exists a multitude of tool who brings equally interesting informations.
36

Simplification Techniques for Interactive Applications

González Ballester, Carlos 09 July 2010 (has links)
Interactive applications with 3D graphics are used everyday in a lot of different fields, such as games, teaching, learning environments and virtual reality. The scenarios showed in interactive applications usually tend to present detailed worlds and characters, being the most realistic as possible. Detailed 3D models require a lot of geometric complexity. But not always the available graphics hardware can handle and manage all this geometry maintaining a realistic frame rate. Simplification methods attempt to solve this problem, by generating simplified versions of the original 3D models. These simplified models present less geometry than the original ones. This simplification has to be done with a reasonable criterion in order to maintain as possible the appearance of the original models. But the geometry is not the only important factor in 3D models. They are also composed of additional attributes that are important for the final aspect of the models for the viewer. In the literature we can find a lot of work presented about simplification. However, there are still several points without an efficient solution. Therefore, this thesis focuses on simplification techniques for 3D models usually used in interactive applications.
37

Co-développement d'un modèle d'aide à la décision pour la gestion intégrée de la flore adventice. Méta-modélisation et analyse de sensibilité d'un modèle mécaniste complexe (FLORSYS) des effets des systèmes de culture sur les services et disservices écosystémiques de la flore adventice / Co-design of a decision support system for integrated weed management. Meta-modelling and sensitivity analysis of a complex mechanistic model (FLORSYS) of cropping system effects on ecosystem services and disservices of weeds

Colas, Floriane 26 March 2018 (has links)
Les adventices sont la principale menace pour les cultures, pour les gérer le moyen le plus utilisé est l’application d’herbicides. Leur emploi doit être réduit en raison de problèmes de santé et d'environnement. Pour les remplacer, il faut mettre en place des combinaisons de pratiques culturales. Cette complexification de la gestion des adventices, la nécessité de la raisonner sur le long terme et la multiplicité des impacts du système de culture font que les outils de modélisation sont d'une grande aide pour concevoir des systèmes de culture innovants. L'objectif de la thèse est de développer un outil d'aide à la décision (OAD) pour des conseillers agricoles afin d'assister la reconception de systèmes de culture moins consommateurs en herbicides. Notre approche consiste à déterminer la structure de ce nouvel OAD en interaction avec les futurs utilisateurs et son contenu biophysique à partir du fonctionnement de l'agroécosystème d'un modèle de recherche. Ce modèle est FLORSYS, un modèle mécaniste de « parcelle virtuelle » qui simule la dynamique de la flore adventice et du couvert cultivé en fonction des systèmes de culture et du pédoclimat et qui en déduit des indicateurs d'impact de la flore adventice sur la production agricole et les services écosystémiques. La thèse comprend trois étapes : (1) accélération de FLORSYS en méta-modélisant, par polynômes du chaos, son module le plus lent, le module d'interception du rayonnement lumineux individu-centrée du couvert culture:adventices avec transfert et interception de la lumière simulée au niveau du voxel (pixel 3D); (2) identification des pratiques culturales ayant le plus d'effet sur les indicateurs d'impact de la flore adventice, par fouille de données sur un très grand nombre de systèmes de culture réels simulés avec FLORSYS. Pour élargir la gamme des combinaisons d'entrées explorées, des systèmes de culture aléatoires ont été ajoutés à l'analyse. Des forêts aléatoires ont permis d'établir des grilles des techniques culturales les plus influentes en fonction des objectifs visés ; les arbres de régression identifient les combinaisons de pratiques culturales permettant d'atteindre ces mêmes objectifs; (3) en parallèle, le co-développement de la structure de l'OAD avec les futurs utilisateurs s’est fait via enquêtes et ateliers de co-conception de systèmes de culture, en termes de questions traitées, choix et formats des entrées et sorties etc. Dans l'étape (1), la comparaison entre la version voxelisée et la version méta-modélisée au niveau de la plante entière a mis en lumière le compromis précision/rapidité du modèle. Le métamodèle est plus rapide pour tester des stratégies d'agriculture de précision nécessitant de connaître précisément la position et le volume des plantes. Dans les autres cas, diminuer la précision en utilisant la version voxelisée avec un grand voxel est plus rapide. L'étape (2) montre que pour réduire l'impact des adventices sur la production, le travail du sol, principalement en été, et l’utilisation d’herbicides sont les pratiques les plus influentes. L'étape (3) a identifié deux cas d'utilisation pour le futur OAD : la reconception de systèmes de culture nécessite un OAD synthétique basé sur des méta-règles de décision; le réajustement de système de culture nécessite un OAD plus détaillé en termes de description du système de culture et des effets de la flore. L'OAD synthétique est composé de grilles de conseil, d'arbres de décision et d’un simulateur rapide basé sur des forêts aléatoires; sa facilité et sa capacité à prédire à la fois des éléments connus mais aussi surprenants pour les conseillers, en font un intéressant support lors d'ateliers de conception de systèmes de culture pour proposer les grandes lignes de reconception des systèmes de culture multiperformants. L’OAD détaillé sera une version de FLORSYS pré-paramétrée pour différentes régions pour ajuster finement des systèmes de culture candidats à chaque type de situation d'agriculteur. / The main threat to agricultural crops are weeds with herbicides being the primary cropping management practice. Due to the negative impact of herbicides on health and environment, their use must be reduced. To replace herbicides, numerous cropping practices need to be implemented. This makes weed management more complicated and, together with necessity of scheduling operations at long-term and the multiplicity of cropping system impacts, explains why models are so useful for designing innovative cropping systems. The aim of this thesis was to develop a Decision Support System (DSS) intended for crop advisors to help design cropping systems that are less dependent on herbicides. Our approach consisted in identifying the structure of the DSS in interaction with future users while using an existing research model for the biophysical content of the tool. The research model, FLORSYS, is a mechanistic model of a “virtual field” simulating the weed flora dynamics from both cropping systems and pedoclimatic conditions. As output, it provides weed impact indicators, both for crop production and ecosystem services. This work was achieved via three steps: (1) increasing the speed of FLORSYS simulations by metamodelling, via polynomial chaos extension, the slowest submodel, i.e. the radiation interception. This submodel is based on a 3D representation of each plant of the crop:weed canopy where the transfer and interception of the radiation is computed at a voxel (3D pixel) scale. (2) The identification of the most influential cropping practices on weed impacts indicators via datamining on a wide range of simulated cropping systems with FLORSYS. To widen the range of cropping systems, random cropping systems were added to the study. Random forest allowed the construction of charts of the most important cropping practices contingent on different objectives; classification and regression trees gave the optimal combinations of practices leading to those objectives. (3) Simultaneously, the co-development of the structure of the DSS with future users was done via surveys and workshops to design cropping systems. These interactions aimed at defining which questions should be answered with the DSS, which inputs and outputs, and with which format, should be used. In step (1), the simulation time of the voxelised FLORSYS and the FLORSYS metamodelled at the scale of the plant highlighted the precision/speed trade-off of the model. The metamodel is faster for agricultural practices requiring precise knowledge of the position and volume of plants. In other cases, decreasing the precision by using the voxelized FLORSYS with an increased voxel size is much faster. Step (2) shows no general conflict between crop protection and ecosystem service indicators. The conservation of both crop protection and ecosystem services is thus possible, except for bee food offer. To reduce weed impacts on production, tillage, especially in summer, and herbicide use are the main cropping techniques. In step (3) two use cases were identified: (1st) the redesign of a cropping system requires a synthetic tool, based on meta-decision rules (e.g. rotating winter and spring crops, ploughing once every three years); (2nd) adjusting cropping practices requires a detailed tool, with detailed inputs on the cropping system. The synthetic DSS is composed of charts of the most important cropping system practices, of decision trees, and an emulator of FLORSYS based on random forests. Its capacity to predict known facts makes it an essential discussion medium for cropping system design workshops, particularly to suggest the outlines of multi-performant cropping systems. The detailed DSS consists of a pre-parameterized version of FLORSYS for different regions, to allow the fine tuning of cropping systems to constraints and objectives of farmers.
38

Context-aware Swedish Lexical Simplification : Using pre-trained language models to propose contextually fitting synonyms / Kontextmedveten lexikal förenkling på svenska : Användningen av förtränade språkmodeller för att föreslå kontextuellt passande synonymer.

Graichen, Emil January 2023 (has links)
This thesis presents the development and evaluation of context-aware Lexical Simplification (LS) systems for the Swedish language. In total three versions of LS models, LäsBERT, LäsBERT-baseline, and LäsGPT, were created and evaluated on a newly constructed Swedish LS evaluation dataset. The LS systems demonstrated promising potential in aiding audiences with reading difficulties by providing context-aware word replacements. While there were areas for improvement, particularly in complex word identification, the systems showed agreement with human annotators on word replacements. The effects of fine-tuning a BERT model for substitution generation on easy-to-read texts were explored, indicating no significant difference in the number of replacements between fine-tuned and non-fine-tuned versions. Both versions performed similarly in terms of synonymous and simplifying replacements, although the fine-tuned version exhibited slightly reduced performance compared to the baseline model. An important contribution of this thesis is the creation of an evaluation dataset for Lexical Simplification in Swedish. The dataset was automatically collected and manually annotated. Evaluators assessed the quality, coverage, and complexity of the dataset. Results showed that the dataset had high quality and a perceived good coverage. Although the complexity of the complex words was perceived to be low, the dataset provides a valuable resource for evaluating LS systems and advancing research in Swedish Lexical Simplification. Finally, a more transparent and reader-empowering approach to Lexical Simplification isproposed. This new approach embraces the challenges with contextual synonymy and reduces the number of failure points in the conventional LS pipeline, increasing the chancesof developing a fully meaning-preserving LS system. Links to different parts of the project can be found here: The Lexical Simplification dataset: https://github.com/emilgraichen/SwedishLSdataset The lexical simplification algorithm: https://github.com/emilgraichen/SwedishLexicalSimplifier
39

Post Editese als verschärfte Form der Translationese?: Eine Korpusanalyse zu Simplification und Interference in posteditierten Texten

Conze, Marlena 17 January 2023 (has links)
Mit Versprechungen von teils enormen Produktivitätssteigerungen bei mindestens gleicher Qualität im Vergleich zu Humanübersetzungen hat Post-Editing über die Jahre zunehmend an Relevanz gewonnen und ist heute aus der Übersetzungslandschaft nicht mehr wegzudenken. Neben zahllosen Qualitäts- und Produktivitätsstudien gab es vereinzelt Bemühungen, mögliche linguistische Unterschiede zwischen posteditierten und humanübersetzten Texten („Post-Editese“ nach Daems et al 2017) zu untersuchen. So stellte Toral (2019) fest, dass posteditierte Texte bestimmte Merkmale übersetzter Texte („Translationese“ nach Gellerstam, 1986), nicht nur aufweisen, sondern dass diese signifikant häufiger in posteditierten Texten vorzufinden seien. Insofern sei Post-Editese eine verschärfte Form der Translationese. Allerdings hat das Forschungsfeld der Post-Editese vergleichsweise wenig Aufmerksamkeit erfahren und in den meisten Korpusanalysen wurden Zeitungsartikel oder Texte aus dem Bereich general language untersucht, obwohl sich ein Großteil des Übersetzungsbedarfs im Bereich der Fachtexte und Language for Specific Purposes verorten lässt. Um dieses Desiderat zu bearbeiten, wird an die Vorarbeit von Toral angeknüpft und anhand eines Fachtextkorpus untersucht, ob sich seine These für die Translationese-Merkmale Simplification und Interference anhand von Ausschnitten aus technischen und medizinischen Fachtexten und den dazugehörigen Übersetzungen bestätigen lässt. Das Korpus besteht aus 75 Korpustexten des Sprachenpaars Englisch-Deutsch, darunter 6 Ausgangstexte und 69 Übersetzungen der Modi MÜ, LPE, FPE und HÜ. Die Methodik von Toral (2019) und Lapshinova-Koltunski (2013) wird in adaptierter Form und unter Zuhilfenahme der Sprachanalyse-Software Sketch Engine angewendet. Simplification soll anhand der lexikalischen Dichte und lexikalischen Diversität (Type-Token-Ratio, TTR) nachgewiesen werden. Das Verhältnis Nominalität/Verbalität und das Satzlängenverhältnis zwischen AT und ZT werden zum Nachweis von Interference herangezogen. Die Ergebnisse lassen weder zu Simplification noch zu Interference eindeutige Schlüsse zu: Während der TTR in posteditierten Texten wie erwartet geringer ist als in humanübersetzten Texten, d. h. die posteditierten Texte weniger lexikalisch divers sind als die humanübersetzten, ist die lexikalische Dichte in den posteditierten Texten entgegen der Hypothese höher als in den humanübersetzten Texten. Die Satzlängenverhältnisse zwischen AT und ZT sind in den posteditierten Texten tatsächlich ähnlicher als bei den Humanübersetzungen, was entsprechend der aufgestellten Hypothese auf mehr Interference des AT in den posteditierten Texten hindeutet. Die Ergebnisse zu den Verhältnissen von Nominalität/Verbalität jedoch konnten aufgrund von mutmaßlichen Verzerrungen durch Sprachsystemunterschiede im Bereich der Kompositabildung nicht sinnvoll ausgewertet werden. Durch die geringe Korpusgröße und die geringe Länge der Korpustexte wirken sich bereits einzelne idiosynkratische Entscheidungen auf Einzeltextebene, etwa bei der Satzsegmentierung oder bei der Terminologie, stark auf das Gesamtergebnis aus. Insofern zeigt sich, dass Besonderheiten auf Einzeltextebene in künftigen quantitativen Korpusanalysen, insbesondere in solchen mit größeren Korpora, stärker berücksichtigt werden sollten. Torals These, Post-Editese sei eine verschärfte Form der Translationese, konnte im Rahmen dieser Arbeit folglich nicht eindeutig bestätigt werden.:1 Einleitung 1.1 Herleitung 1.2 Ziel der Arbeit 1.3 Aufbau der Arbeit 2 Hintergrund 2.1 Post-Editing 2.1.1 Definition 2.1.2 Arten von Post-Editing 2.1.3 Produktivitäts- und Kostenvorteile 2.1.4 Qualitätsanalysen 2.1.5 Einflussfaktoren auf die Qualität des MÜ-Outputs 2.1.6 Präferenz- und Akzeptanzstudien 2.1.7 Einstellungen von Übersetzern, Sprachdienstleistern und Kunden 2.1.8 Weitere Forschungsrichtungen 2.2 Translationese 2.2.1 Definition 2.2.2 Übersetzungsuniversalien nach Baker 2.2.3 Interference nach Toury bzw. Teich 2.2.4 Forschungsstand 2.2.5 Neuere Forschungsrichtungen 2.3 Post-Editese 2.3.1 Definition 2.3.2 Forschungsstand 2.4 Zwischenfazit und Forschungsdesiderat 3 Daten und Methoden 3.1 Korpus 3.1.1 Beschreibung der Korpustexte 3.1.2 Erstellung des Korpus 3.1.3 Begründung der Auswahl des Korpus 3.1.4 Aufbereitung der Korpustexte für die maschinelle Auswertung 3.2 Analysemethoden 3.2.1 Simplification 3.2.2 Interference 4 Ergebnisse der eigenen Korpusanalyse und Einordnung der Ergebnisse 4.1 Simplification 4.1.1 Lexikalische Diversität 4.1.2 Lexikalische Dichte 4.1.3 Einordnung der Ergebnisse zu Simplification 4.2 Interference 4.2.1 Verhältnis der Verhältnisse von nominalen und verbalen Wortarten zwischen AT und ZT 4.2.2 Verhältnis der Satzlängen zwischen AT und ZT 4.2.3 Einordnung der Ergebnisse zu Interference 5 Diskussion 6 Fazit und Ausblick 7 Literaturverzeichnis / Promising moderate to sharp increases in productivity while achieving quality that is at least on par with human translation, post-editing has increasingly gained in importance in recent years and has become an integral part of the translation landscape. Aside from countless studies on productivity and quality, there have been isolated efforts to examine possible linguistic differences between postedited texts and human translations (“post-editese” according to Daems et al, 2017). Toral (2019) observed that postedited texts not only exhibit certain characteristics of translated texts (“translationese” according to Gellerstam, 1986), but that they exhibit them to a significantly higher degree compared with human translations. This prompted Toral to describe post-editese as an “exacerbated translationese”. However, research into post-editese has received relatively little attention and most corpus studies have focused on newspaper articles or so-called general language, despite the fact that most of professional translation takes place in the domain of Language for Specific Purposes. In order to address this desideratum, this work builds on Toral’s research. A corpus of technical texts is used to examine whether his thesis can be confirmed for simplification and interference, two well-known translationese characteristics, when relying on text excerpts from the technical and medical domain and their corresponding translations. The corpus consists of 75 texts in total, made up of 6 English source texts and 69 corresponding German translations produced via MT, LPE, FPE and HT. The analysis relies on an adapted form of Toral’s (2019) and Lapshinova-Koltunski’s (2013) methods and makes use of the text analysis software Sketch Engine. The parameters lexical density and lexical variety (type-token ratio, TTR) are used to identify simplification, whereas the nominality/verbality ratio and sentence length ratio between source and target text are interpreted as evidence for interference. The results are inconclusive for both simplification and interference. While the TTR is, as per the hypothesis, lower in the postedited texts, i. e. while the postedited texts are less lexically varied compared with the human translations, the lexical density of the postedited texts is higher than that of the human translations, which contradicts the hypothesis. The sentence length ratios between source and target texts are more similar in the postedited texts compared with human translations, confirming the hypothesis that postedited texts show more interference from their source text. The results for the nominality/verbality ratio, however, could not be interpreted in any meaningful way, as distortions due to differences in the language systems with respect to compounding likely play a role. Given the small corpus size and the short length of the corpus texts, even isolated, idiosyncratic decisions at the individual text level, e.g. in regards to sentence segmentation and terminology seem to have a major impact on the total result. This shows that peculiarities at the individual text level need to be considered more carefully in future quantitative corpus studies, in particular when dealing with larger corpora. Consequently, Toral’s thesis of post-editese being an exacerbated form of translationese could not definitively be confirmed within this work.:1 Einleitung 1.1 Herleitung 1.2 Ziel der Arbeit 1.3 Aufbau der Arbeit 2 Hintergrund 2.1 Post-Editing 2.1.1 Definition 2.1.2 Arten von Post-Editing 2.1.3 Produktivitäts- und Kostenvorteile 2.1.4 Qualitätsanalysen 2.1.5 Einflussfaktoren auf die Qualität des MÜ-Outputs 2.1.6 Präferenz- und Akzeptanzstudien 2.1.7 Einstellungen von Übersetzern, Sprachdienstleistern und Kunden 2.1.8 Weitere Forschungsrichtungen 2.2 Translationese 2.2.1 Definition 2.2.2 Übersetzungsuniversalien nach Baker 2.2.3 Interference nach Toury bzw. Teich 2.2.4 Forschungsstand 2.2.5 Neuere Forschungsrichtungen 2.3 Post-Editese 2.3.1 Definition 2.3.2 Forschungsstand 2.4 Zwischenfazit und Forschungsdesiderat 3 Daten und Methoden 3.1 Korpus 3.1.1 Beschreibung der Korpustexte 3.1.2 Erstellung des Korpus 3.1.3 Begründung der Auswahl des Korpus 3.1.4 Aufbereitung der Korpustexte für die maschinelle Auswertung 3.2 Analysemethoden 3.2.1 Simplification 3.2.2 Interference 4 Ergebnisse der eigenen Korpusanalyse und Einordnung der Ergebnisse 4.1 Simplification 4.1.1 Lexikalische Diversität 4.1.2 Lexikalische Dichte 4.1.3 Einordnung der Ergebnisse zu Simplification 4.2 Interference 4.2.1 Verhältnis der Verhältnisse von nominalen und verbalen Wortarten zwischen AT und ZT 4.2.2 Verhältnis der Satzlängen zwischen AT und ZT 4.2.3 Einordnung der Ergebnisse zu Interference 5 Diskussion 6 Fazit und Ausblick 7 Literaturverzeichnis
40

Extraction de relations en domaine de spécialité / Relation extraction in specialized domains

Minard, Anne-Lyse 07 December 2012 (has links)
La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs. / The amount of available scientific literature is constantly growing. If the experts of a domain want to easily access this information, it must be extracted and structured. To obtain structured data, both entities and relations of the texts must be detected. Our research is about the problem of complex relation extraction which represent experimental results, and detection and classification of binary relations between biomedical entities. We are interested in experimental results presented in scientific papers. An experimental result is a quantitative result obtained by an experimentation and linked with information that describes this experimentation. These results are important for biology experts, for example for doing modelization. In the domain of renal physiology, a database was created to centralize these experimental results, but the base is manually populated, therefore the population takes a long time. We propose a solution to automatically extract relevant knowledge for the database from the scientific papers, that is experimental results which are represented by a n-ary relation. The method proceeds in two steps: automatic extraction from documents and proposal of information extracted for approval or modification by the experts via an interface. We also proposed a method based on machine learning for extraction and classification of binary relations in specialized domains. We focused on the variations of the expression of relations, and how to represent them in a machine learning system. We studied the way to take into account syntactic structure of the sentence and the sentence simplification guided by the task of relation extraction. In particular, we developed a simplification method based on machine learning, which uses a series of classifiers.

Page generated in 0.4965 seconds