911 |
Prediction of random vibration using spectral methodsBirgersson, Fredrik January 2003 (has links)
<p>Much of the vibration in fast moving vehicles is caused bydistributed random excitation, such as turbulent flow and roadroughness. Piping systems transporting fast flowing fluid isanother example, where distributed random excitation will causeunwanted vibration. In order to reduce these vibrations andalso the noise they cause, it is important to have accurate andcomputationally efficient prediction methods available.</p><p>The aim of this thesis is to present such a method. Thefirst step towards this end was to extend an existing spectralfinite element method (SFEM) to handle excitation of planetravelling pressure waves. Once the elementary response tothese waves is known, the response to arbitrary homogeneousrandom excitation can be found.</p><p>One example of random excitation is turbulent boundary layer(TBL) excitation. From measurements a new modified Chase modelwas developed that allowed for a satisfactory prediction ofboth the measured wall pressure field and the vibrationresponse of a turbulence excited plate. In order to model morecomplicated structures, a new spectral super element method(SSEM) was formulated. It is based on a waveguide formulation,handles all kinds of boundaries and its elements are easily putinto an assembly with conventional finite elements.</p><p>Finally, the work to model fluid-structure interaction withanother wave based method is presented. Similar to the previousmethods it seems to be computationally more efficient thanconventional finite elements.</p>
|
912 |
Etude par la Théorie de la Fonctionnelle de la Densité des propriétés électroniques et magnétiques de complexes de fer. Application aux systèmes de types Catalase et Fer-SoufreOrio, Maylis 05 October 2007 (has links) (PDF)
Ce travail de thèse s'articule selon deux axes principaux et vise à modéliser, au moyen de la Théorie de la Fonctionnelle de la Densité (DFT), des grandeurs spectroscopiques (Mössbauer, RPE et magnétisme) mesurées pour des systèmes bioinorganiques à base de fer. La première partie de ce travail est relative au calcul théorique de deux quantités caractéristiques issues de la spectroscopie Mössbauer : le déplacement isomérique Δ et de l'éclatement quadripolaire ΔEQ. Dans un premier temps, des corrélations calculs-expérience ont été mises en place pour l'étude de simples complexes de fer. Dans un second temps, nous nous sommes intéressée à l'étude d'un système biologique, la catalase, qui est un composé héminique à base de fer, afin d'en caractériser les différentes formes. La seconde partie de ce travail a été dédiée à la rationalisation des variations conjointes de deux grandeurs spectroscopiques RPE : la valeur moyenne de tenseur , gav (= (∑gi)/3), et la constante d'échange effective, Jeff. Nous avons considéré un ensemble d'agrégats de type [2Fe-2S] issus de systèmes biologiques (ferrédoxines, protéines Rieske, xanthine oxidases, etc) et nous avons modélisé ces derniers paramètres via un modèle phénoménologique mettant en compétition deux termes antagonistes : le terme B de double-échange traduisant la délocalisation électronique entre les sites de fer et le terme de piégeage ΔE.contribuant à la localisation préférentielle de l'électron réducteur sur l'un des deux sites de fer. Nous avons pu exprimer analytiquement gav et Jeff en fonction du ratio ΔE/B et expliquer la source des variations observées.
|
913 |
Structures et modèles de calculs de réécritureFaure, Germain 05 July 2007 (has links) (PDF)
Le calcul de réécriture ou rho-calcul est une généralisation du lambda-calcul avec filtrage et agrégation de termes. L'abstraction sur les variables est étendue à une abstraction sur les motifs et le filtrage correspondant peut être effectué modulo une théorie <br />équationnelle a priori arbitraire. L'agrégation est utilisée pour collecter les différents résultats possibles.<br />Dans cette thèse, nous étudions différentes combinaisons des ingrédients fondamentaux du rho-calcul: le filtrage, l'agrégation et les mécanismes d'ordre supérieur.<br />Nous étudions le filtrage d'ordre supérieur dans le lambda-calcul pur modulo une restriction de la beta-conversion appelée super-développements. Cette nouvelle approche est suffisamment expressive pour traiter les problèmes de filtrage du second-ordre et ceux avec des motifs d'ordre supérieur à la Miller.<br />Nous examinons ensuite les modèles catégoriques du<br />lambda-calcul parallèle qui peut être vu comme un enrichissement du lambda-calcul avec l'agrégation de termes. Nous montrons que ceci est une étape significative vers la sémantique dénotationnelle du calcul de réécriture.<br />Nous proposons également une étude et une comparaison des calculs avec motifs éventuellement dynamiques, c'est-à-dire qui peuvent être instanciés et réduits. Nous montrons que cette étude, et plus particulièrement la preuve de confluence, est suffisamment générale pour<br />s'appliquer à l'ensemble des calculs connus. Nous étudions ensuite l'implémentation de tels calculs en proposant un calcul de réécriture avec filtrage et substitutions explicites.
|
914 |
Synthèse et propriétés physiques de super-cristaux millimétriques de nanoparticules de fer/cobalt : vers des inducteurs intégrés.Desvaux, Céline 13 December 2006 (has links) (PDF)
La fabrication d'inducteurs haute performance et basse consommation est nécessaire au développement de la téléphonie mobile. Ceci requiert le dépôt en couche mince d'un matériau magnétique doux présentant une perméabilité élevée et une fréquence de résonance au-delà de la fréquence d'utilisation. Ces propriétés peuvent être obtenues grâce à un matériau nanostructuré constitué de particules ferromagnétiques à température ambiante, monodisperses et organisées en super-réseaux. La décomposition contrôlée de précurseurs organométalliques permet la synthèse d'un matériau constitué de nanoparticules de fer/cobalt spontanément organisées en super-cristaux millimétriques correspondant au matériau cible et totalement caractérisé grâce à des études magnétiques, structurales et en microscopie électronique. Un traitement thermique suivi d'une phase d'enrobage des particules permet l'optimisation des propriétés magnétiques et électriques du matériau. Ces super-cristaux montrent des comportements intéressants et nouveaux de magnétotransport. La légitimité du matériau en tant qu'inducteur a été démontrée par une étude RF.
|
915 |
Vector flow model in video estimation and effects of network congestion in low bit-rate compression standards [electronic resource] / by Balaji Ramadoss.Ramadoss, Balaji. January 2003 (has links)
Title from PDF of title page. / Document formatted into pages; contains 76 pages. / Thesis (M.S.E.E.)--University of South Florida, 2003. / Includes bibliographical references. / Text (Electronic thesis) in PDF format. / ABSTRACT: The use of digitized information is rapidly gaining acceptance in bio-medical applications. Video compression plays an important role in the archiving and transmission of different digital diagnostic modalities. The present scheme of video compression for low bit-rate networks is not suitable for medical video sequences. The instability is the result of block artifacts resulting from the block based DCT coefficient quantization. The possibility of applying deformable motion estimation techniques to make the video compression standard (H.263) more adaptable for bio-medial applications was studied in detail. The study on the network characteristics and the behavior of various congestion control mechanisms was used to analyze the complete characteristics of existing low bit rate video compression algorithms. The study was conducted in three phases. The first phase involved the implementation and study of the present H.263 compression standard and its limitations. / ABSTRACT: The second phase dealt with the analysis of an external force for active contours which was used to obtain estimates for deformable objects. The external force, which is termed Gradient Vector Flow (GVF), was computed as a diffusion of the gradient vectors associated with a gray-level or binary edge map derived from the image. The mathematical aspect of a multi-scale framework based on a medial representation for the segmentation and shape characterization of anatomical objects in medical imagery was derived in detail. The medial representations were based on a hierarchical representation of linked figural models such as protrusions, indentations, neighboring figures and included figures--which represented solid regions and their boundaries. The third phase dealt with the vital parameters for effective video streaming over the internet in the bottleneck bandwidth, which gives the upper limit for the speed of data delivery from one end point to the other in a network. / ABSTRACT: If a codec attempts to send data beyond this limit, all packets above the limit will be lost. On the other hand, sending under this limit will clearly result in suboptimal video quality. During this phase the packet-drop-rate (PDR) performance of TCP(1/2) was investigated in conjunction with a few representative TCP-friendly congestion control protocols (CCP). The CCPs were TCP(1/256), SQRT(1/256) and TFRC (256), with and without self clocking. The CCPs were studied when subjected to an abrupt reduction in the available bandwidth. Additionally, the investigation studied the effect on the drop rates of TCP-Compatible algorithms by changing the queuing scheme from Random Early Detection (RED) to DropTail. / System requirements: World Wide Web browser and PDF reader. / Mode of access: World Wide Web.
|
916 |
A Fusion Model For Enhancement of Range Images / EnglishHua, Xiaoben, Yang, Yuxia January 2012 (has links)
In this thesis, we would like to present a new way to enhance the “depth map” image which is called as the fusion of depth images. The goal of our thesis is to try to enhance the “depth images” through a fusion of different classification methods. For that, we will use three similar but different methodologies, the Graph-Cut, Super-Pixel and Principal Component Analysis algorithms to solve the enhancement and output of our result. After that, we will compare the effect of the enhancement of our result with the original depth images. This result indicates the effectiveness of our methodology. / Room 401, No.56, Lane 21, Yin Gao Road, Shanghai, China
|
917 |
Αρχιτεκτονικές υλικού χαμηλής ισχύος για την αποκωδικοποίηση συνελικτικών κωδίκων σε ασύρματα modemsΓκρίμπας, Δημήτρης 26 October 2007 (has links)
Στα πλαίσια της διπλωματικής εργασίας μελετήθηκε μια κατηγορία αλγορίθμων διόρθωσης λαθών που προκύπτουν κατά τη μετάδοση δεδομένων μέσα από ένα ασύρματο τηλεπικοινωνιακό κανάλι. Η μετάδοση των δεδομένων έγινε χρησιμοποιώντας τις διαμορφώσεις BPSK, QPSK, 16 – QAM και 64 – QAM. Η μελέτη επικεντρώθηκε στην περίπτωση της συνελικτικής κωδικοποίησης δεδομένων. Για την υλοποίηση του αποκωδικοποιητή (decoder) μελετήθηκαν συγκριτικά οι αλγόριθμοι Viterbi και SOVA καθώς και οι αντίστοιχες αρχιτεκτονικές υλοποίησης τους σε υλικό, ως προς την πολυπλοκότητα, την κατανάλωση και την ταχύτητά τους για συγκεκριμένη ικανότητα διόρθωσης λαθών που μετράται ως μείωση του BER. Επίσης, μελετήθηκαν τέσσερεις διαφορετικοί τρόποι αποδιαμόρφωσης και αποκωδικοποίησης των δεδομένων για διαμορφώσεις QAM βασισμένοι στον αλγόριθμο Viterbi.
Η μεθοδολογία της διπλωματικής περιέλαβε την υλοποίηση ενός πλήρους μοντέλου τηλεπικοινωνιακού συστήματος με μη ιδανικό κανάλι, AWGN, στο οποίο προστέθηκαν μηχανισμοί διόρθωσης λάθους. Η μελέτη έλαβε υπόψη τον κβαντισμό στο δέκτη στην αναπαράσταση δεδομένων καθώς και στα ενδιάμεσα αποτελέσματα. Αξιολογήθηκαν τρόποι κβαντισμού συναρτήσει παραμέτρων του καναλιού, και εντοπίστηκαν τα ελάχιστα αναγκαία μήκη λέξης για την υλοποίηση των αλγορίθμων του δέκτη, λαμβάνοντας υπόψη το trade-off μεταξύ απόδοσης και κόστους υλοποίησης σε υλικό. Με τη χρήση bit-true εξομοιώσεων μελετήθηκαν τρόποι ελαχιστοποίησης της δυναμικής περιοχής που απαιτείται για την αναπαράσταση των ενδιάμεσων μετρικών. Σε κάθε περίπτωση αναλύθηκε η απόδοση των αλγορίθμων με βάση το ποσοστό των λαθών στο δέκτη (BER) ενώ συνεκτιμήθηκε η πολυπλοκότητα της αντίστοιχης υλοποίησης VLSI. / This thesis focuses on a class of algorithms for the correction of errors due of the transmission of data through a wireless telecommunications channel. The modulations employed are BPSK, QPSK, 16-QAM and 64-QAM. The study focuses on convolutional coding. The performance of solutions based on Viterbi and SOVA algorithms are comparatively studied, as well as the corresponding hardware architectures, in terms of the complexity, consumption and speed, while specifications are set in terms of error correction capability, measured in BER. Also, four different ways of combined demodulation and decoding of QAM data are studied based on the Viterbi algorithm.
The methodology assumed in this thesis includes the realization of a complete telecommunications system model assuming an additive white gaussian noise channel, AWGN, in which mechanisms of error correction are added.
The study takes into consideration the quantization effects in the receiver and in all the intermediary operations of algorithms. It has been found that the ideal quantizer for the receiver is related to channel parameters. In addition the shortest necessary word lengths were identified taking into consideration trade off between output and hardware realization cost. By means of bit-true simulations, ways of minimization of dynamic region, required for the representation intermediary metrics were studied. In every case the performance of algorithms is analyzed in terms of BER, as well as computational cost and impact on VLSI realization.
|
918 |
Conception d'un convertisseur de puissance pour véhicules électriques multi-sourcesBoucherit, Ahmed 16 December 2011 (has links) (PDF)
L'utilisation des plusieurs sources d'énergies de caractéristiques différentes, à bord du véhicule électrique VE) nécessite l'adoption de convertisseurs statiques. Ces derniers peuvent avoir la fonction de conditionneur 'énergie des différentes sources et/ou commander les machines électriques du véhicule.Généralement les VE disposent d'un bus continu " de quelques centaines de volts " dont la stabilité est assurée par un groupe de convertisseurs élévateurs de tension (du fait que les sources ont généralement un niveau de tension faible ; quelques dizaines de volts). Lors des démarrages/arrêts très fréquents du VE en mode urbain, les sources pourraient alimenter directement le moteur de traction sans avoir recours aux convertisseurs élévateurs de tension. Afin d'exploiter cette fonctionnalité, nous proposons d'explorer une deuxième architecture de convertisseur basée sur l'adoption d'un niveau de tension variable du bus continu. Dans cette approche, la tension minimale de ce dernier est fixée en fonction des niveaux de tensions disponibles du côté des sources et de la vitesse requise (niveau des f.é.m du moteur de traction). Ainsi, le rapport variable d'élévation de la tension est minimal à faible vitesse du véhicule en mode urbain et il est maximal à grande vitesse, en modes route et autoroute. Ceci apportera une amélioration du rendement énergétique de l'ensemble sources-moteurs notamment en mode urbain. Par ailleurs, l'utilisation grand public de ces véhicules exige des contraintes maximales de disponibilité (continuité de service) des fonctions principales notamment l'alimentation embarquée. A travers le travail de cette thèse nous proposons une nouvelle topologie du convertisseur de puissance entre les sources (une Pile à combustibles associée à un pack de super-condensateurs) et les charges (moteur de traction et réseau de bord alimentant les auxiliaires du véhicule). Ce convertisseur adopte une tension variable du bus continu et une redondance de l'alimentation du moteur de traction. Après la présentation du convertisseur proposé et son positionnement par rapport à la littérature, une analyse du fonctionnement et la modélisation de sa partie DC-DC est détaillée notamment à travers des résultats de simulation de ses différents modes. A ce titre un programme de simulation fine (à l'échelle des impulsions de commande) du système entier a été développé. Dans un deuxième temps, la commande automatique et rapprochée des interrupteurs de puissance a été développée en se basant respectivement sur la méthode de contrôle par petits signaux et la commande hystérésis de courant, triangulaire-rapport cyclique et triangulaire-sinus. Les résultats de simulation des fonctionnalités principales attendues mettent en évidence la faisabilité de l'architecture du convertisseur de puissance proposée. Enfin, une maquette expérimentale à échelle réduite a été développée dans le but de valider l'étude théorique. Les premiers tests expérimentaux de la partie DC-DC du convertisseur donnent des résultats satisfaisant et valident ainsi le processus de conception. Le travail futur sera la réalisation d'une maquette à échelle 1 dans laquelle la conception du refroidisseur sera intégrée en amont de la réalisation du plan de masse dudit convertisseur. Nous pensons que cela permettra une meilleure optimisation de l'espace à bord du véhicule et améliorera le rendement énergétique de la chaine de traction.
|
919 |
Method for Improving the Efficiency of Image Super-Resolution Algorithms Based on Kalman FiltersDobson, William Keith 01 December 2009 (has links)
The Kalman Filter has many applications in control and signal processing but may also be used to reconstruct a higher resolution image from a sequence of lower resolution images (or frames). If the sequence of low resolution frames is recorded by a moving camera or sensor, where the motion can be accurately modeled, then the Kalman filter may be used to update pixels within a higher resolution frame to achieve a more detailed result. This thesis outlines current methods of implementing this algorithm on a scene of interest and introduces possible improvements for the speed and efficiency of this method by use of block operations on the low resolution frames. The effects of noise on camera motion and various blur models are examined using experimental data to illustrate the differences between the methods discussed.
|
920 |
Printing colour hard proofs using EFI Colorproof XF v. 3.1 and Photoshop CS3, and production substrates.Johansson, Nils January 2009 (has links)
EFI Colorproof XF was found to be more convenient from a user’s aspect, and had features which are covered in the ISO 12647-7 standard (e.g. the ability to simulate screening and print margin information), which Photoshop CS3 lacked. None of the proofing systems distinguished itself in a clear way from the other; sometimes, on certain substrates, Photoshop CS3 produced most accurate colours, sometimes EFI Colorproof XF did. Further investigations need to be carried out to tell more exactly which system produce most accurate colours. Only 6 out of 34 simulation-combinations had colours within the tolerances in the standard. The result also shows that the production substrates should not be used as proofing substrates. Instead the proofing papers especially made for ink jet should be used to obtain more colour-accurate prints.
|
Page generated in 0.0176 seconds