• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 16
  • 16
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Miguel Delibes : 377A, Madera de Héroe Genèse et style de l'écriture / Genesis and style of the writing in Miguel Delibes : 377 A, Madera de Héroe

Gutiérrez Pequeño, Jezabel 02 December 2011 (has links)
Ce travail de recherche porte sur l’œuvre « 377A, Madera de héroe », du romancier espagnol Miguel Delibes. Il s’agit d’une thèse de génétique textuelle qui, après avoir établi l’édition du texte au fil des quatre campagnes d’écriture, étudie les mouvements du faire textualisant de cette genèse en se fondant sur le dossier manuscrit que Miguel Delibes a confié en main propre à l’auteur de la recherche. L’approche analytique suit une démarche organisée en deux phases fondamentales. La première (microanalyse) s’appuie sur les méthodes traditionnelles du champ d’investigation génétique pour étudier les enjeux sémantiques et discursifs des stratégies de réécriture et l’empreinte stylistique auctoriale que dénotent les variantes. La seconde (macroanalyse) aborde la question sous le jour renouvelé que permettent les approches quantitatives des données lexicales. Le recours à deux logiciels complémentaires (Stablex et Alceste) permet de faire apparaître ici des mouvements de fond non perceptibles ni objectivables par d’autres voies. Les données chiffrées, leur traitement et leur interprétation, offrent la vision d’un parcours de réécriture de décentrement, puis de recentrement par rapport aux thèmes qui s’imposent à l’auteur, tant par choix personnel que par une sorte de mécanique d’attraction interne due aux exigences intrinsèques de la cohérence textuelle. Cette thèse représente donc simultanément une contribution versée à la connaissance de l’œuvre de l’un des plus grands romanciers espagnols et une contribution au renouvellement méthodologique de l’approche en génétique textuelle. / This research deals with « 377A, Madera de héroe », a book by Spanish novelist Miguel Delibes. It is a thesis in textual genetics that first establishes the edition of the text through the four stages of its writing and then studies the movements of the text production process in this genesis by exploring the manuscript that was given directly and personally by Miguel Delibes to the author of this research. The analytical approach is organised in two major phases: - The first one (micro-analysis) uses the traditional methods of genetic investigation to study the semantic and discursive aspects of the re-writing strategies and the author’s stylistic mark as it is revealed in the variants. - The second one (macro-analysis) revisits the issue by implementing the recent developments in the quantitative handling of lexical data. By resorting to two complementary software programmes (Stablex and Alceste), it is possible to observe deep underlying movements that can neither be perceived nor objectified through other approaches.The processing and interpretation of data reveal a rewriting process of de-centering followed by a re-centering around the themes that are perceived as prevailing by the author, as a result of his personal choices and also through a mechanical process of internal attraction due to the intrinsic demands of textual consistency. This thesis therefore contributes to a finer analysis of the work of a leading Spanish novelist as well as to a new development in the methodology of textual genetics.
12

Jobzentrisches Monitoring in Verteilten Heterogenen Umgebungen mit Hilfe Innovativer Skalierbarer Methoden

Hilbrich, Marcus 24 June 2015 (has links) (PDF)
Im Bereich des wissenschaftlichen Rechnens nimmt die Anzahl von Programmläufen (Jobs), die von einem Benutzer ausgeführt werden, immer weiter zu. Dieser Trend resultiert sowohl aus einer steigenden Anzahl an CPU-Cores, auf die ein Nutzer zugreifen kann, als auch durch den immer einfacheren Zugriff auf diese mittels Portalen, Workflow-Systemen oder Services. Gleichzeitig schränken zusätzliche Abstraktionsschichten von Grid- und Cloud-Umgebungen die Möglichkeit zur Beobachtung von Jobs ein. Eine Lösung bietet das jobzentrische Monitoring, das die Ausführung von Jobs transparent darstellen kann. Die vorliegende Dissertation zeigt zum einen Methoden mit denen eine skalierbare Infrastruktur zur Verwaltung von Monitoring-Daten im Kontext von Grid, Cloud oder HPC (High Performance Computing) realisiert werden kann. Zu diesem Zweck wird sowohl eine Aufgabenteilung unter Berücksichtigung von Aspekten wie Netzwerkbandbreite und Speicherkapazität mittels einer Strukturierung der verwendeten Server in Schichten, als auch eine dezentrale Aufbereitung und Speicherung der Daten realisiert. Zum anderen wurden drei Analyseverfahren zur automatisierten und massenhaften Auswertung der Daten entwickelt. Hierzu wurde unter anderem ein auf der Kreuzkorrelation basierender Algorithmus mit einem baumbasierten Optimierungsverfahren zur Reduzierung der Laufzeit und des Speicherbedarfs entwickelt. Diese drei Verfahren können die Anzahl der manuell zu analysierenden Jobs von vielen Tausenden, auf die wenigen, interessanten, tatsächlichen Ausreißer bei der Jobausführung reduzieren. Die Methoden und Verfahren zur massenhaften Analyse, sowie zur skalierbaren Verwaltung der jobzentrischen Monitoring-Daten, wurden entworfen, prototypisch implementiert und mittels Messungen sowie durch theoretische Analysen untersucht. / An increasing number of program executions (jobs) is an ongoing trend in scientific computing. Increasing numbers of available compute cores and lower access barriers, based on portal-systems, workflow-systems, or services, drive this trend. At the same time, the abstraction layers that enable grid and cloud solutions pose challenges in observing job behaviour. Thus, observation and monitoring capabilities for large numbers of jobs are lacking. Job-centric monitoring offers a solution to present job executions in a transparent manner. This dissertation presents methods for scalable infrastructures that handle monitoring data of jobs in grid, cloud, and HPC (High Performance Computing) solutions. A layer-based organisation of servers with a distributed storage scheme enables a task sharing that respects network bandwidths and data capacities. Additionally, three proposed automatic analysis techniques enable an evaluation of huge data quantities. One of the developed algorithms is based on cross-correlation and uses a tree-based optimisation strategy to decrease both runtime and memory usage. These three methods are able to significantly reduce the number of jobs for manual analysis from many thousands to a few interesting jobs that exhibit outlier-behaviour during job execution. Contributions of this thesis include a design, a prototype implementation, and an evaluation for methods that analyse large amounts of job-data, as well for the scalable storage concept for such data.
13

Analýza závad na DPS pomocí X-RAY / Analysis of Defects on PCB Using X-RAY

Mlýnek, Martin January 2015 (has links)
This thesis is focused on BGA packages and fault detection after rework using X – Ray. There is a description of BGA packages by carrier substrate, techniques of connecting on chip, from mounting packages to repair printed circuit boards (hereafter PCB). Thesis summarizes description of defects, which are created after rework process. There is also description of X – Ray as method for analyzing defects. X – PLANE method used to detect internal structure of BGA packages and it was confirmed by microsection and by software for reconstruction. Description of automatic and manual measurement is follow.
14

Jobzentrisches Monitoring in Verteilten Heterogenen Umgebungen mit Hilfe Innovativer Skalierbarer Methoden

Hilbrich, Marcus 24 March 2015 (has links)
Im Bereich des wissenschaftlichen Rechnens nimmt die Anzahl von Programmläufen (Jobs), die von einem Benutzer ausgeführt werden, immer weiter zu. Dieser Trend resultiert sowohl aus einer steigenden Anzahl an CPU-Cores, auf die ein Nutzer zugreifen kann, als auch durch den immer einfacheren Zugriff auf diese mittels Portalen, Workflow-Systemen oder Services. Gleichzeitig schränken zusätzliche Abstraktionsschichten von Grid- und Cloud-Umgebungen die Möglichkeit zur Beobachtung von Jobs ein. Eine Lösung bietet das jobzentrische Monitoring, das die Ausführung von Jobs transparent darstellen kann. Die vorliegende Dissertation zeigt zum einen Methoden mit denen eine skalierbare Infrastruktur zur Verwaltung von Monitoring-Daten im Kontext von Grid, Cloud oder HPC (High Performance Computing) realisiert werden kann. Zu diesem Zweck wird sowohl eine Aufgabenteilung unter Berücksichtigung von Aspekten wie Netzwerkbandbreite und Speicherkapazität mittels einer Strukturierung der verwendeten Server in Schichten, als auch eine dezentrale Aufbereitung und Speicherung der Daten realisiert. Zum anderen wurden drei Analyseverfahren zur automatisierten und massenhaften Auswertung der Daten entwickelt. Hierzu wurde unter anderem ein auf der Kreuzkorrelation basierender Algorithmus mit einem baumbasierten Optimierungsverfahren zur Reduzierung der Laufzeit und des Speicherbedarfs entwickelt. Diese drei Verfahren können die Anzahl der manuell zu analysierenden Jobs von vielen Tausenden, auf die wenigen, interessanten, tatsächlichen Ausreißer bei der Jobausführung reduzieren. Die Methoden und Verfahren zur massenhaften Analyse, sowie zur skalierbaren Verwaltung der jobzentrischen Monitoring-Daten, wurden entworfen, prototypisch implementiert und mittels Messungen sowie durch theoretische Analysen untersucht. / An increasing number of program executions (jobs) is an ongoing trend in scientific computing. Increasing numbers of available compute cores and lower access barriers, based on portal-systems, workflow-systems, or services, drive this trend. At the same time, the abstraction layers that enable grid and cloud solutions pose challenges in observing job behaviour. Thus, observation and monitoring capabilities for large numbers of jobs are lacking. Job-centric monitoring offers a solution to present job executions in a transparent manner. This dissertation presents methods for scalable infrastructures that handle monitoring data of jobs in grid, cloud, and HPC (High Performance Computing) solutions. A layer-based organisation of servers with a distributed storage scheme enables a task sharing that respects network bandwidths and data capacities. Additionally, three proposed automatic analysis techniques enable an evaluation of huge data quantities. One of the developed algorithms is based on cross-correlation and uses a tree-based optimisation strategy to decrease both runtime and memory usage. These three methods are able to significantly reduce the number of jobs for manual analysis from many thousands to a few interesting jobs that exhibit outlier-behaviour during job execution. Contributions of this thesis include a design, a prototype implementation, and an evaluation for methods that analyse large amounts of job-data, as well for the scalable storage concept for such data.
15

Aspects formels du dîwân de Jamîl Buṯayna / Formal Features in Dîwân Jamîl Buṯayna

Mouhieddine, Maria 26 November 2011 (has links)
Notre objectif étant de procéder à une analyse des aspects formels du dîwân de Jamîl Buṯayna (poète arabe et héros de roman mort aux environs de 701) nous avons commencé par donner du texte une édition intégralement vocalisée et métriquement cohérente à partir de quatre éditions publiées antérieurement. A partir de cette édition, une analyse syllabique intégrale du diwân a été possible grâce au logiciel Xalîl élaboré par Djamel Eddine Kouloughli ainsi qu’un lexique fréquentiel. Dans le deuxième tome, nous avons procédé, à partir de l’analyse syllabique, à une analyse métrique. Le principal résultat de cette analyse a été la mise en évidence d’une systématisation du respect des zones de stabilité qui était sujettes à variation dans la poésie arabe ancienne. L’autre aspect de l’analyse a consisté dans l’extraction des formules du dîwân ; nous avons suivi pour cela une méthode originale que nous avons appelée : prospection guidée métriquement. Cette méthode a permis non seulement de détecter un grand nombre de formules en usage jusqu’au XIIIe siècle, date à laquelle nous avons arrêté l’analyse, mais elle a également mis en évidence l’existence de nombreux vers ou fragments de poèmes que l’on retrouve particulièrement dans les diwân de Jamîl Buṯayna, Majnûn Laylâ, Kuṯayyir Azza, Nuṣayb b. Rabâḥ et Qays b. Ḏariḥ qui constituent un fond commun sans doute à la portée de tous à l’époque et qu’il est donc vain de parler à ce propos de plagiat ou d’antériorité. / Given our objective of analysing the formal aspects of the dîwân by Jamîl Buṯayna (Arabic poet and hero of the Romance of Jamîl and Buṯayna, who died in or around 701 AD), we began by establishing an entirely vocalized and metrically coherent edition of this work from four previously published editions. A complete syllabic analysis of this edition of the diwân was then undertaken using the Xalîl software elaborated by Djamel Eddine Kouloughli as well as a frequency of occurrence lexicon. In the second volume we used the syllabic analysis as the basis for an analysis of the metrics. The main result of this analysis consisted in revealing a systematization of the respect or the zones of stability which had been subject to variation in ancient Arabic poetry. The other aspect of the analysis consisted in the extraction of the formulas of the dîwân; we employed an original method which we baptized: metrically guided prospection. This method not only enabled the detection of a large number of formulas in use until the 13th century (the end of the period under analysis), but also revealed the existence of numerous verses or fragments of poems which are also to be found in the diwân of Jamîl Buṯayna, Majnûn Laylâ, Kuṯayyir Azza and Nuṣayb b. Rabâḥ, in particular. These verses and fragments constitute a common, shared resource which was undoubtedly available to all at that time thus invalidating any reference to plagiarism and anteriority.
16

Semi-Automatic Analysis and Visualization of Cardiac 4D Flow CT

van Oosten, Anthony January 2022 (has links)
The data obtained from computational fluid dynamics (CFD) simulations of blood flow in the heart is plentiful, and processing this data takes time and the procedure for that is not straightforward. This project aims to develop a tool that can semi-automatically process CFD simulation data, which is based on 4D flow computed tomography (CT) data, with minimal user input. The tool should be able to time efficiently calculate flow parameters from the data, and automatically create overview images of the flow field while doing so, to aid the user's analysis process. The tool is coded using Python programming language, and the Python scripts are inputted to the application ParaView for processing of the simulation data.  The tool generates 3 chamber views of the heart by calculating three points from the given patient data, which represent the aortic and mitral valves, and the apex of the heart. A plane is generated that pass through these three points, and the heart is sliced along this plane to visualize 3 chambers of the heart. The camera position is also manipulated to optimize the 3 chamber view. The maximum outflow velocity over the cardiac cycle in the left atrial appendage (LAA) is determined by searching in a time range around the maximum outflow rate of the LAA in a cardiac cycle, and finding the highest velocity value that points away from the LAA in this range. The flow component analysis is calculated in the LAA and left ventricle (LV) by seeding particles in each at the start of the cardiac cycle, and tracking these particles forwards and backwards in time to determine where the particles end up and come from, respectively. By knowing these two aspects, the four different flow components of the blood can be determined in both the LAA and LV.  The tool can successfully create 3 chamber views of the heart model from three semi-automatically determined points, at a manipulated camera location. It can also calculate the maximum outflow velocity of the flow field over a cardiac cycle in the LAA, and perform a flow component analysis of the LAA and the LV by tracking particles forwards and backwards in time through a cardiac cycle. The maximum velocity calculation is relatively time efficient and produces results similar to those found manually, yet the output is dependent on the user-defined inputs and processing techniques, and varies between users. The flow component analysis is also time efficient, produces results for the LV that are comparable to pre-existing research, and produces results for the LAA that are comparable to the LVs' results. Although, the extraction process of the LAA sometimes includes part of the left atrium, which impacts the accuracy of the results. After processing each part, the tool creates a single file containing each part's main results for easier analysis of the patient data. In conclusion, the tool is capable of semi-automatically processing CFD simulation data which saves the user time, and it has thus met all the project aims

Page generated in 0.0659 seconds