Spelling suggestions: "subject:"ppc"" "subject:"dppc""
251 |
Analýza provozních dat a detekce anomálií při běhu úloh na superpočítači / Analysis of Operational Data and Detection od Anomalies during Supercomputer Job ExecutionStehlík, Petr January 2018 (has links)
V posledních letech jsou superpočítače stále větší a složitější, s čímž souvisí problém využití plného potenciálu systému. Tento problém se umocňuje díky nedostatku nástrojů pro monitorování, které jsou specificky přizpůsobeny uživatelům těchto systémů. Cílem práce je vytvořit nástroj, nazvaný Examon Web, pro analýzu a vizualizaci provozních dat superpočítače a provést nad těmito daty hloubkovou analýzu pomocí neurálních sítí. Ty určí, zda daná úloha běžela korektně, či vykazovala známky podezřelého a nežádoucího chování jako je nezarovnaný přístup do operační paměti nebo např. nízké využití alokovaých zdrojů. O těchto faktech je uživatel informován pomocí GUI. Examon Web je postavený na frameworku Examon, který sbírá a procesuje metrická data ze superpočítače a následně je ukládá do databáze KairosDB. Implementace zahrnuje disciplíny od návrhu a implementace GUI, přes datovou analýzu, těžení dat a neurální sítě až po implementaci rozhraní na serverové straně. Examon Web je zaměřen zejména na uživatele, ale může být také využíván administrátory. GUI je vytvořeno ve frameworku Angular s knihovnami Dygraphs a Bootstrap. Uživatel díky tomu může analyzovat časové řady různých metrik své úlohy a stejně jako administrátor se může informovat o současném stavu superpočítače. Tento stav je zobrazen jako několik globálně agregovaných metrik v posledních 30 minutách nebo jako 3D model (či 2D model) superpočítače, který získává data ze samotných uzlů pomocí protokolu MQTT. Pro kontinuální získávání dat bylo využito rozhraní WebSocket s vlastním mechanismem přihlašování a odhlašování konkretních metrik zobrazovaných v modelu. Při analýze spuštěné úlohy má uživatel dostupné tři různé pohledy na danou úlohu. První nabízí celkový přehled o úloze a informuje o využitých zdrojích, času běhu a vytížení části superpočítače, kterou úloha využila společně s informací z neurálních sítí o podezřelosti úlohy. Další dva pohledy zobrazují metriky z výkonnostiního energetického hlediska. Pro naučení neurálních sítí bylo potřeba vytvořit novou datovou sadu ze superpočítače Galileo. Tato sada obsahuje přes 1100 úloh monitorovaných na tomto superpočítači z čehož 500 úloh bylo ručně anotováno a následně použito pro trénování sítí. Neurální sítě využívají model back-propagation, vhodný pro anotování časových sérií fixní délky. Celkem bylo vytvořeno 12 sítí pro metriky zahrnující vytížení procesoru, paměti a dalších části a např. také podíl celkového času procesoru v úsporném režimu C6. Tyto sítě jsou na sobě nezávislé a po experimentech jejich finální konfigurace 80-20-4-3-1 (80 vstupních až 1 výstupní neuron) podávaly nejlepší výsledky. Poslední síť (v konfiguraci 12-4-3-1) anotovala výsledky předešlých sítí. Celková úspěšnost systému klasifikace do 2 tříd je 84 %, což je na použitý model velmi dobré. Výstupem této práce jsou dva produkty. Prvním je uživatelské rozhraní a jeho serverová část Examon Web, která jakožto rozšiřující vrstva systému Examon pomůže s rozšířením daného systému mezi další uživatele či přímo další superpočítačová centra. Druhým výstupem je částečně anotovaná datová sada, která může pomoci dalším lidem v jejich výzkumu a je výsledkem spolupráce VUT, UNIBO a CINECA. Oba výstupy budou zveřejněny s otevřenými zdrojovými kódy. Examon Web byl prezentován na konferenci 1st Users' Conference v Ostravě pořádanou IT4Innovations. Další rozšíření práce může být anotace datové sady a také rozšíření Examon Web o rozhodovací stromy, které určí přesný důvod špatného chování dané úlohy.
|
252 |
Entwicklung paralleler Algorithmen zur numerischen Simulation von Gas-Partikel-Stroemungen unter Beruecksichtigung von Partikel-Partikel-KollisionenWassen, Erik 14 December 1998 (has links)
Gas-Partikel-Stroemungen finden sich in weiten Bereichen
der Energie- und Verfahrenstechnik. Beispiele fuer haeu-
fig anzutreffende Problemstellungen sind der Transport,
die Separation oder die Injektion eines Gemisches aus
festen Partikeln und einem Traegergas.
Fuer die numerische Simulation solcher disperser Mehr-
phasenstroemungen hat sich das Lagrange-Verfahren als
besonders geeignet erwiesen. Andererseits stellt die An-
wendung dieses Berechnungsverfahrens hoechste Anforderun-
gen an die Ressourcen der verwendeten Rechner. Dies gilt
im besonderen Masse fuer die Simulation von Stroemungen
mit einer moderaten bis hohen Partikelbeladung, in denen
die Partikel-Partikel-Kollisionen einen grossen Einfluss
auf das Stroemungsverhalten haben.
Um das grosse Leistungspotential, das heutige massiv par-
allele Hochleistungsrechner bieten, effizient zu nutzen,
wurden im Rahmen dieser Arbeit parallele Simulationsalgo-
rithmen fuer die numerische Berechnung kollisionsbehafte-
ter Gas-Partikel-Stroemungen entwickelt. Die Effizienz
dieser Algorithmen wurde anhand verschiedener Testfaelle
untersucht. Auf der Grundlage der dabei erzielten Ergeb-
nisse wurden Vorschlaege fuer weitere Entwicklungsmoeg-
lichkeiten erarbeitet. / Gas-particle-flows can be found widely in the field of
energy production and process engineering. Examples for
applications of such kind of flows are transport, se-
paration or injection of a mixture of solid particles
and a gaseous phase.
The Lagrangian approach has proved to be a suitable means
for the numerical simulation of disperse multiphase flows.
On the other hand its application requires a large amount
of computational power, especially when flows with a mo-
derate or high particle loading are computed and particle-
particle collisions have a significant influence on the
flow.
In order to use efficiently the large computational power
that parallel computers provide nowadays, parallel algo-
rithms for the numerical simulation of gas-particle flows
including particle-particle collisions were developed in
the cource of this work. The algorithms' efficiency was
investigated considering different test cases. On the
basis of the results suggestions for further developments
were made.
|
253 |
Accelerated In-situ Workflow of Memory-aware Lattice Boltzmann Simulation and AnalysisYuankun Fu (10223831) 29 April 2021 (has links)
<div>As high performance computing systems are advancing from petascale to exascale, scientific workflows to integrate simulation and visualization/analysis are a key factor to influence scientific campaigns. As one of the campaigns to study fluid behaviors, computational fluid dynamics (CFD) simulations have progressed rapidly in the past several decades, and revolutionized our lives in many fields. Lattice Boltzmann method (LBM) is an evolving CFD approach to significantly reducing the complexity of the conventional CFD methods, and can simulate complex fluid flow phenomena with cheaper computational cost. This research focuses on accelerating the workflow of LBM simulation and data analysis.</div><div><br></div><div>I start my research on how to effectively integrate each component of a workflow at extreme scales. Firstly, we design an in-situ workflow benchmark that integrates seven state-of-the-art in-situ workflow systems with three synthetic applications, two real-world CFD applications, and corresponding data analysis. Then detailed performance analysis using visualized tracing shows that even the fastest existing workflow system still has 42% overhead. Then, I develop a novel minimized end-to-end workflow system, Zipper, which combines the fine-grain task parallelism of full asynchrony and pipelining. Meanwhile, I design a novel concurrent data transfer optimization method, which employs a multi-threaded work-stealing algorithm to transfer data using both channels of network and parallel file system. It significantly reduces the data transfer time by up to 32%, especially when the simulation application is stalled. Then investigation on the speedup using OmniPath network tools shows that the network congestion has been alleviated by up to 80%. At last, the scalability of the Zipper system has been verified by a performance model and various largescale workflow experiments on two HPC systems using up to 13,056 cores. Zipper is the fastest workflow system and outperforms the second-fastest by up to 2.2 times.</div><div><br></div><div>After minimizing the end-to-end time of the LBM workflow, I began to accelerate the memory-bound LBM algorithms. We first design novel parallel 2D memory-aware LBM algorithms. Then I extend to design 3D memory-aware LBM that combine features of single-copy distribution, single sweep, swap algorithm, prism traversal, and merging multiple temporal time steps. Strong scalability experiments on three HPC systems show that 2D and 3D memory-aware LBM algorithms outperform the existing fastest LBM by up to 4 times and 1.9 times, respectively. The speedup reasons are illustrated by theoretical algorithm analysis. Experimental roofline charts on modern CPU architectures show that memory-aware LBM algorithms can improve the arithmetic intensity (AI) of the fastest existing LBM by up to 4.6 times.</div>
|
254 |
Fused deposition modeling of API-loaded mesoporous magnesium carbonateAbdelki, Andreas January 2020 (has links)
In this thesis, the incorporation of drug loaded mesoporous magnesium carbonate as an excipient for the additive manufacturing of oral tablets by fused deposition modeling was investigated. Cinnarizine, a BCS class II drug, was loaded into the pores of the mesoporous material via a soaking method, corresponding to a drug loading of 8.68 wt%. DSC measurements on the loaded material suggested that the drug was partially crystallized after incorporation, meanwhile the XRD diffractogram implied that the drug was in a state lacking long range order. The drug loaded material was combined with two pharmaceutical polymers, Aquasolve LG and Klucel ELF, and extruded into filaments with a single screw extruder. Filaments of Klucel ELF and drug loaded Upsalite (30:70 wt% ratio) were successfully implemented for the printing oral tablets, in contrast to the Aquasolve LG based filaments which were difficult to print due to thickness variations and non-uniform material distributions. The drug content obtained by TGA suggested drug loadings of 7.71 wt% and 2.23 wt% in the drug loaded Upsalite and tablets respectively. Dissolution studies using an USP II apparatus showed a slower API-release from the tablets in comparison to the crystalline drug, most probably due to slow diffusion of drug species through the polymeric matrix. For future studies, pharmaceutical polymers with higher aqueous solubility should be investigated in order to thoroughly examine the potential of utilizing the immediate release property of Upsalite.
|
255 |
Modélisation et simulation de l’écoulement diphasique dans les moteurs-fusées à propergol solide par des approches eulériennes polydispersées en taille et en vitesse / Eulerian modeling and simulation of two-phase flows in solid rocket motors taking into account size polydispersion and droplet trajectory crossingDupif, Valentin 22 June 2018 (has links)
Les gouttes d’oxyde d’aluminium présentes en masse dans l’écoulement interne des moteurs-fusées à propergol solide ont tendance à influerde façon importante sur l’écoulement et sur le fonctionnement du moteur quel que soit le régime. L’objectif de la thèse est d’améliorerles modèles diphasiques eulériens présents dans le code de calcul semi-industriel pour l’énergétique de l’ONERA, CEDRE, en y incluant lapossibilité d’une dispersion locale des particules en vitesse en plus de la dispersion en taille déjà présente dans le code, tout en gardant unestructure mathématique bien posée du système d’équations à résoudre. Cette nouvelle caractéristique rend le modèle capable de traiter lescroisements de trajectoires anisotropes, principale difficulté des modèles eulériens classiques pour les gouttes d’inertie modérément grande.En plus de la conception et de l’analyse détaillée d’une classe de modèles basés sur des méthodes de moments, le travail se concentre sur larésolution des systèmes d’équations obtenus en configurations industrielles. Pour cela, de nouvelles classes de schémas précis et réalisables pourle transport des particules dans l’espace physique et l’espace des phases sont développées. Ces schémas assurent la robustesse de la simulationmalgré différentes singularités (dont des chocs, -chocs, zones de pression nulle et zones de vide...) tout en gardant une convergence d’ordredeux pour les solutions régulières. Ces développements sont conduits en deux et trois dimensions, en plus d’un référentiel bidimensionnelaxisymétrique, dans le cadre de maillages non structurés.La capacité des schémas numériques à maintenir un niveau de précision élevé tout en restant robuste dans toutes les conditions est un pointclé pour les simulations industrielles de l’écoulement interne des moteurs à propergol solide. Pour illustrer cela, le code de recherche SIERRA,originellement conçu durant les année 90 pour les problématiques d’instabilités de fonctionnement en propulsion solide, a été réécrit afin depouvoir comparer deux générations de modèles et de méthodes numériques et servir de banc d’essais avant une intégration dans CEDRE. Lesrésultats obtenus confirment l’efficacité de la stratégie numérique choisie ainsi que le besoin d’introduire, pour les simulations axisymétriques,une condition à la limite spécifique, développée dans le cadre de cette thèse. En particulier, les effets à la fois du modèle et de la méthodenumérique dans le contexte d’une simulation de l’écoulement interne instationnaire dans les moteurs-fusées à propergol solide sont détaillés.Par cette approche, les liens entre des aspects fondamentaux de modélisation et de schémas numériques ainsi que leurs conséquences pour lesapplications sont mis en avant. / The massive amount of aluminum oxide particles carried in the internal flow of solid rocket motors significantly influences their behavior.The objective of this PhD thesis is to improve the two-phase flow Eulerian models available in the semi-industrial CFD code for energeticsCEDRE at ONERA by introducing the possibility of a local velocity dispersion in addition to the size dispersion already taken into accountin the code, while keeping the well-posed characteristics of the system of equations. Such a new feature enables the model to treat anisotropicparticle trajectory crossings, which is a key issue of Eulerian models for droplets of moderately large inertia.In addition to the design and detailed analysis of a class of models based on moment methods, the conducted work focuses on the resolution ofthe system of equations for industrial configurations. To do so, a new class of accurate and realizable numerical schemes for the transport ofthe particles in both the physical and the phase space is proposed. It ensures the robustness of the simulation despite the presence of varioussingularities (including shocks, -shocks, zero pressure area and vacuum...), while keeping a second order accuracy for regular solutions. Thesedevelopments are conducted in two and three dimensions, including the two dimensional axisymmetric framework, in the context of generalunstructured meshes.The ability of the numerical schemes to maintain a high level of accuracy in any condition is a key aspect in an industrial simulation of theinternal flow of solid rocket motors. In order to assess this, the in-house code SIERRA, originally designed at ONERA in the 90’s for solidrocket simulation purpose, has been rewritten, restructured and augmented in order to compare two generations of models and numericalschemes, to provide a basis for the integration of the features developed in CEDRE. The obtained results assess the efficiency of the chosennumerical strategy and confirm the need to introduce a new specific boundary condition in the context of axisymmetric simulations. Inparticular, it is shown that the model and numerical scheme can have an impact in the context of the simulation of the internal flow ofsolid rocket motors and their instabilities. Through our approach, the shed light on the links between fundamental aspects of modeling andnumerical schemes and their consequences on the applications.
|
256 |
Designing High Performance Shared-Address-Space and Adaptive Communication Middlewares for Next-Generation HPC SystemsHashmi, Jahanzeb Maqbool 17 September 2020 (has links)
No description available.
|
257 |
Advanced Data Analytics Modelling for Air Quality AssessmentAbdulkadir, Nafisah Abidemi January 2023 (has links)
Air quality assessment plays a crucial role in understanding the impact of air pollution onhuman health and the environment. With the increasing demand for accurate assessment andprediction of air quality, advanced data analytics modelling techniques offer promisingsolutions. This thesis focuses on leveraging advanced data analytics to assess and analyse airpollution concentration levels in Italy over a 4km resolution using the FORAIR_IT datasetsimulated in ENEA on the CRESCO6 infrastructure, aiming to uncover valuable insights andidentifying the most appropriate AI models for predicting air pollution levels. The datacollection, understanding, and pre-processing procedures are discussed, followed by theapplication of big data training and forecasting using Apache Spark MLlib. The research alsoencompasses different phases, including descriptive and inferential analysis to understand theair pollution concentration dataset, hypothesis testing to examine the relationship betweenvarious pollutants, machine learning prediction using several regression models and anensemble machine learning approach and time series analysis on the entire dataset as well asthree major regions in Italy (Northern Italy – Lombardy, Central Italy – Lazio and SouthernItaly – Campania). The computation time for these regression models are also evaluated and acomparative analysis is done on the results obtained. The evaluation process and theexperimental setup involve the usage of the ENEAGRID/CRESCO6 HPC Infrastructure andApache Spark. This research has provided valuable insights into understanding air pollutionpatterns and improving prediction accuracy. The findings of this study have the potential todrive positive change in environmental management and decision-making processes, ultimatelyleading to healthier and more sustainable communities. As we continue to explore the vastpossibilities offered by advanced data analytics, this research serves as a foundation for futureadvancements in air quality assessment in Italy and the models are transferable to other regionsand provinces in Italy, paving the way for a cleaner and greener future.
|
258 |
In vitro generation of human innate lymphoid cells from CD34+ hematopoietic progenitors recapitulates phenotype and function of ex vivo counterpartsHernández Torres, Daniela Carolina 12 August 2022 (has links)
Angeborene lymphatische Zellen (ILC) sind wichtige Effektorzellen der angeborenen Immunantwort, deren Entwicklung und Aktivierungswege attraktive therapeutische Ziele darstellen. Sie bestehen aus ILC der Gruppe 1 (Natürliche Killerzellen (NK) und ILC1), ILC2 und ILC3. Neben T-Zellen leisten ILCs einen entscheidenen Beitrag zu den Typ-1-, Typ-2- und Typ-3-Immunantworten. Die Entwicklung von ILCs beim Menschen wurde jedoch noch nicht systematisch untersucht, und frühere in vitro Untersuchungen stützten sich auf die Analyse einiger weniger Marker oder Zytokine, die für die Bestimmung der Identität der verschiedenen ILC-Linien suboptimal sind. Um diese Mängel zu beheben, stellen wir hier eine Plattform vor, die zuverlässig alle menschlichen ILC-Linien aus CD34+ CD45RA+ hämatopoetischen Vorläuferzellen, gewonnen aus Nabelschnurblut und Knochenmark, erzeugt. Mit einem systematischen Ansatz zeigt diese Arbeit, dass eine einzige Kulturbedingung nicht ausreicht, um alle ILC-Untergruppen zu generieren, sondern stattdessen bestimmte Kombinationen von Zytokinen und Notch-Signalen für die Entscheidung über das Schicksal der Linien wesentlich ist. Eine umfangreiche Analyse des Transkriptoms ergab, dass der Erwerb von CD161 robust eine globale ILC-Signatur identifiziert und in vitro ILCs von T-Zell-Signaturen trennt. Die Identität spezifischer in vitro generierter ILC-Linien (NK-Zellen und ILC1, ILC2 und ILC3) wurde durch Proteinexpression, funktionelle Assays und Transkriptomanalysen auf globaler sowie auf Einzelzellebene umfassend validiert. Diese in vitro erzeugten ILC-Linien rekapitulieren die Signaturen und Funktionen ihrer ex vivo isolierten ILC-Pendants. Des Weiteren, behandeln diese Daten die Einschränkungen der Unterscheidung von menschlichen NK Zellen und ILC1 sowohl in vitro als auch ex vivo an. Darüber hinaus löst diese Plattform gängige Probleme bei der Untersuchung menschlicher ILCs, wie z. B. unzureichende Zellzahlen oder die mangelnde Verfügbarkeit von Gewebeproben. Insgesamt stellt diese Arbeit eine Ressource dar, die nicht nur zur Klärung der Biologie und Differenzierung menschlicher ILCs beiträgt, sondern auch als wichtiges Instrument zur Untersuchung der Dysregulation von ILC-Funktionen dient, die bei verschiedenen entzündlichen Erkrankungen des Menschen eine Rolle spielen. / Innate lymphoid cells (ILCs) are critical effectors of innate immunity and inflammation that consist of Group 1 ILCs (natural killer (NK) cells and ILC1), ILC2, and ILC3. As tissue resident lymphocytes, they play a crucial role type 1, type 2 and type 3 immune responses, respectively. Importantly, dysregulated ILC populations have been linked to the pathogenesis of a variety of chronic inflammatory diseases and thus represent attractive therapeutic targets with a potential for autologous cell therapies. However, human ILC generation has not been systematically explored, and previous in vitro investigations have relied on the analysis of few markers or cytokines, which are suboptimal to assign lineage identity and full functional capacity. To address these faults, we present here an effective in vitro platform, which reliably generates the core human ILC lineages from CD34+ CD45RA+ hematopoietic progenitors derived from cord blood and bone marrow. With a systematic approach, this work shows that a single culture condition is insufficient to generate all ILC subsets, and instead, distinct combinations of cytokines and Notch signaling are essential for lineage fate making decisions. In depth transcriptomic analysis revealed that acquisition of CD161 robustly identifies a global ILC signature and separates them from T cell signatures in vitro. The identity of specific ILC subsets, (NK cells and ILC1, ILC2, and ILC3) generated in vitro was validated extensively by protein expression, functional assays, and both global and single-cell transcriptome analysis. These in vitro generated ILC subsets recapitulate the signatures and functions of their ex vivo ILC counterparts. Finally, these data shed light on the limitations in untying the identity of human NK cells and ILC1 in vitro, similarly correlating to lineage identification difficulties ex vivo. Additionally, this platform tackles common problems in human ILC studies such as insufficient cell numbers and scarce availability of tissue samples. Altogether, this work presents a resource not only to aid in clarifying human ILC biology and differentiation, but also to serve as an important tool to study dysregulation of ILC functions, which have been implied in various inflammatory diseases in humans.
|
259 |
Algoritmos de imagen y sonido digital con restricciones de tiempo realAlventosa Rueda, Francisco Javier 28 February 2022 (has links)
[ES] En la actualidad, cada vez existen más y más tareas que necesitamos exportar y
automatizar en dispositivos portables de bajo consumo que se alimentan de baterías, en los cuales
es imprescindible realizar un uso "optimo" de la energía disponible con la finalidad de no drenarlas
rápidamente.En la sección primera de esta tesis, "Filtros de señales de audio digital", "optimizamos" las implementaciones de diferentes filtros, tanto generales como específicos, para aplicaciones de sonido digital diseñados e implantados en plataformas basadas en las arquitecturas ARM®. Como filtros generales, trabajamos con los filtros FIR, IIR y Parallel IIR, siendo este tipo de filtros implementados a bajo nivel con instrucciones vectoriales NEON®. Finalmente, se implementa un filtro de separación de señales conocido como "Beamforming", el cual plantea después de su estudio, la problemática de realizar una factorización QR de una matriz relativamente grande en tiempo real, lo cual nos lleva a desarrollar diferentes técnicas de "aceleración" de los cálculos de la misma. En la segunda parte, "Rellenado de mapa de profundidad de una escena", describimos el proceso de rellenado de un mapa de profundidad de una escena capturada a partir del uso de la imagen RGB y de un mapa de profundidad disperso donde únicamente tenemos valores de profundidad en los bordes de los objetos que componen la escena. Estos algoritmos de "rellenado" del mapa de profundidad, también han sido diseñados e implantados en dispositivos basados en la arquitectura ARM®. / [CA] Actualment, cada vegada existixen més i més tasques que tenen la necessitat d'exportar i automatitzar a dispositius portables de baix consum que s'alimenten amb bateríes, als quals es imprescindible realitzar un ús "óptim" de l'energia disponible amb la finalitat de no drenar-les ràpidament.
Part I: Filtres de senyals d'àudio digital
En aquesta secció "optimitzarem" les implementacions de diferents filtres, tant generals com específics, empreats a aplicacions de so digital disenyats e implantats a plataformes basades a les arquitectures ARM®. Com a filtres generals, treballem amb els filtres FIR, IIR y Parallel IIR, sent
aquests tipus de filtres implementats a baix nivell amb instruccions vectorials NEON®. Finalment, s'implementa un filtro de separació de senyals conegut com "Beamforming", el qual planteja després del seu estudi, la problem`atica de realitzar una factorizació QR d'una matriu relativament gran en temps real, i açó ens porta a desenvolupar diferents tècniques "d'acceleració" dels càlculs de la mateixa.
Part II: Emplenat del mapa de profunditat d'una escena
A la secció d'image per computador, descrivim el procés d'emplenat d'un mapa de profunditat d'una escena capturada fent servir l'image RGB i un mapa de profunditat dispers on únicament tenim valors de profunditat als bordes dels objetes que composen l'escena. Aquests algoritmes "d'emplenat" del mapa de profunditat, també han sigut disenyats e implantats a dispositius basats en l'arquitectura ARM®. / [EN] Currently, there are more and more tasks that we need to export and automate in low-consumption mobile devices that are powered by batteries, in which it is essential to make an
"optimum" use of the available energy in order to do not drain them quickly.
Part I: Filters of digital audio signals
In this section we "optimize" the implementations of different filters, both general and specific, for digital sound applications designed and implemented on platforms based on the ARM®. As general
filters, we work with the FIR, IIR and Parallel IIR filters, these types of filters being implemented at a low level with NEON®vector instructions. Finally, a signal separation filter known as "Beamforming"
is implemented, which set out after its study, the problem of performing a QR factorization of a relatively large matrix in real time, which leads us to develop different techniques of "acceleration" of the calculations of it.
Part II: Filling the depth map of a scene
In the computer image section, we describe the process of filling in a depth map of a captured scene using RGB image and a sparse depth map where we only have depth values at the edges of the
objects that make up the scene. These depth map "filling" algorithms have also been designed and implemented in devices based on the ARM® architecture. / Alventosa Rueda, FJ. (2022). Algoritmos de imagen y sonido digital con restricciones de tiempo real [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181573
|
260 |
Détection de structures cohérentes dans des écoulements fluides et interfaces homme-machine pour l'exploration et la visualisation interactive de données scientifiques / Detection of coherent structures in fluid flows and Interactive Interface for the exploration of scientific datasetGuéniat, Florimond 06 December 2013 (has links)
Depuis l'identification par Brown \& Roshko, en 1974, de structures jouant un rôle majeur dans le mélange d'un écoulement turbulent, la recherche de structures cohérentes a été un des principaux axes d'étude en mécanique des fluides.Les travaux présentés dans ce manuscrit s'inscrivent dans cette voie.La première partie du manuscrit traite ainsi de l'identification de structures cohérentes. Elle se compose de trois chapitres abordant deux techniques d’identification. La Décomposition en mode dynamique (DMD), ainsi que des variantes généralisant son champ applicatif est présenté dans le premier chapitre. Cette méthode propose une représentation par modes spatiaux et temporels d'un ensemble de données. Une méthode pour la sélection de composantes particulièrement représentatives de la dynamique, i.e. présentant de bonnes qualités d'observabilité, se basant sur cette décomposition est également décrite dans ce chapitre.Le deuxième chapitre traite de la détection de structures cohérentes lagrangienne, par suivi de particules. Ces structures permettent d'identifier les frontières matérielles et apportent des éclaircissements sur les mécanismes du mélange au sein de l'écoulement considéré.Ces méthodes sont appliquées, dans le chapitre trois, au cas d’un écoulement incompressible affleurant une cavité ouverte.La seconde partie du manuscrit traite des questions de représentation et discrimination de données scientifiques.Une réponse à la question de la représentation de structures cohérentes a été la mise en place d'outils permettant la visualisation interactive de jeux de données scientifiques, qui dont la présentation fait l'objet du chapitre quatre. En particulier, l'utilisation d'objets tangibles, représentant les données dans le monde réel, permet une exploration plus efficace des ensembles de volumétriques de données scientifiques. La question d'une perception et discrimination efficace de données représentées, e.g. la différentiation entre deux valeurs proches, est abordée dans le cinquième chapitre. / Brown \& Roshko identify the key role, as soon as 1974, of coherent structures in the mixing of a turbulenet jet. Since, the seek for coherent structures has been a major field in fluid mechanics. This manuscript follows this path, and aims at describing algorithm to compute and explore coherent structures from fluid mechanics dataset.The first part of this manuscript is dedicated to present algorithms for the computations of coherent structures from dataset. The first chapter exposes the Dynamical Modes Decomposition, and presents improvements of the method. A criterion to estimate the observability properties of components of the state vector is also presented.The second chapter aims at describing an efficient algorithm to compute Lagrangian Coherent Structures, which are somewhat equivalent to material frontiers in fluid flows, and highlight mixing dynamics.This methods are applied, in a third chapter, to caracterize the dynamics of an open cavity flow.The second parti of this manuscript is dedicated to the representation and discrimination of scientific dataset.The fourth chapter presents metaphors for the interactive exploration of scientific and volumetric dataset. The use of tangible interfaces is investigated. The last chapter deals with the differenciation between represented data, by proposing an algorithm for the differenciation between close but different signals.
|
Page generated in 0.0525 seconds