Spelling suggestions: "subject:"tukey"" "subject:"ukey""
11 |
Kostnadskalkyler med osäkerhetsanalys och subjektiva sannolikheter : En fallstudie på Biogas MellannorrlandKwiatkowski, Robert, Htay, Shwe January 2017 (has links)
The purpose with this study is to show how the subjective uncertainty analysis can be applied to the cost estimates and examine how the attitudes towards risk budgeting of construction projects works. Biogas Mellannorrland is based on a case study and focuses on four location options for the biogas plant. For each option, a cost estimate in form of a fixed cost and variable cost elements, where the latter are uncertain. Pearson-Tukey method have been applied as a method to estimating subjective probabilities. An assumption is made so that the uncertain costs are normally distributed, where the parameters’ mean and standard deviation collected from respondents indicating percentiles at 5% and 95% for doubtful cost elements. In order to identify the project managers risk attitude, the risk premium method will be used to calculate where the expected value is produced by Pearson-Tukey method. The expected value is subtracted with certainty equivalent, which consist of the budgeted amount. The study was conducted through interviews in order to obtain the costs and the subjective probabilities. The study results show that it is difficult to determine which option is the best, or the worst, by just looking at the expected value. The risk premium shows that each option is a risk averse choice for the project managers, since the risk premium was greater than zero. / Denna studie syftar till att visa hur subjektiv osäkerhetsanalys kan tillämpas vid kostnadskalkyler samt undersöka riskattityder vid budgetering av byggprojekt. Undersökningen är en fallstudie vid Biogas Mellannorrland och fokuserar på fyra lokaliseringsalternativ för biogasanläggning. För varje alternativ görs en kostnadskalkyl i form av ett antal fasta och rörliga delkostnader, där de senare är osäkra. Som metod för att skatta subjektiva sannolikheter har Pearson-Tukey-metoden tillämpats. Ett antagande görs att osäkra kostnader är normalfördelade, där parametrarna väntevärde och standardavvikelse hämtas från respondenter som anger percentilerna vid 5 % och 95 % för osäkra delkostnader. För att identifiera projektledarnas riskattityd, kommer riskpremium att beräknas, där det förväntade värdet tas fram med Pearson-Tukey- metoden. Det förväntade värdet subtraheras med säkerhetsekvivalensen, vilket utgörs av det budgeterade beloppet. Studien har genomförts med hjälp av intervjuer för att få fram kostnader och subjektiva sannolikheter. Studiens resultat visar att det är svårt att avgöra vilka alternativ som är bäst eller sämst genom att bara titta på väntevärdet. Med riskpremium visar alla alternativ att projektledarna gör ett riskaversivt val, eftersom riskpremium blev större än noll.
|
12 |
Κλιματικοί δείκτες και επεξεργασία χρονοσειρών βροχόπτωσης στην Δυτική ΕλλάδαΣπυρόπουλος, Πέτρος 14 December 2009 (has links)
Η παρούσα εργασία διαπραγματεύεται την επεξεργασία ετήσιων και εποχικών χρονοσειρών βροχόπτωσης από 12 σταθμούς της Δυτικής Ελλάδας για την περίοδο 1975-2004. Επιπλέον για τους 8 από τους συνολικά 12 σταθμούς όπου υπήρχε η δυνατότητα, η επεξεργασία αφορά μια περίοδο 50 ετών (1956-2005). Χρησιμοποιώντας ως κλιματικό δείκτη το ετήσιο βροχομετρικό ύψος προκύπτει ότι το σύνολο των 12 σταθμών χαρακτηρίζεται εν γένει από έναν συνδυασμό ημίυγρου ή υγρού κλιματικού τύπου. Χρησιμοποιώντας τον μη-παραμετρικό έλεγχο των Mann-Kendall για την εξακρίβωση παρουσίας τάσεων σε βάθος χρόνου, για την περίοδο 1975-2004 δεν διαφαίνεται η ύπαρξη κάποιας σημαντικής τάσης εκτός από τις ετήσιες βροχοπτώσεις του Πύργου που εμφανίζουν μία σημαντικά αρνητική τάση. Την περίοδο από το 1956-2005 προκύπτουν σημαντικά αρνητικές τάσεις τόσο σε εποχική βάση (κυρίως την άνοιξη) όσο και σε ετήσια για τους μισούς από τους οκτώ σταθμούς που εξετάστηκαν. Η Γάμμα κατανομή είναι εκείνη που περιγράφει καλύτερα το φυσικό μέγεθος ύψος βροχόπτωσης και στην περίπτωση μας προσδιορίζονται ανά σταθμό και για την περίοδο 1975-2004 (σε εποχική και ετήσια βάση), οι παράμετροι της με την βοήθεια της μεθόδου μέγιστης πιθανοφάνειας. Στα πλαίσια της φασματικής ανάλυσης, για να εξακριβωθεί η ύπαρξη ή οχι περιοδικότητας στην τιμή της διασποράς των εποχικών και ετήσιων τιμών βροχόπτωσης χρησιμοποιούνται οι 7 σταθμοί για τους οποίους υπάρχει επάρκεια μετρήσεων με εξεταζόμενη περίοδο την πεντηκονταετία 1955-2004 και κάνοντας χρήση της μεθόδου Blackman-Tukey. Προκύπτει με την εν λόγω μέθοδο ότι κατά την διάρκεια του φθινοπώρου και της άνοιξης δεν διαφαίνονται κάποια σαφή στοιχεία περιοδικότητας στην διασπορά των υψών υετού των 7 σταθμών. Αυτό δεν ισχύει όμως για τον χειμώνα αλλά και σε ετήσια βάση, όπου στα φάσματα των τιμών υετού των σταθμών αποκαλύπτονται τρεις περιοχές συχνοτήτων περιοδικότητας που μοιάζουν αρκετά μεταξύ τους. Αυτό αντανακλά το γεγονός ότι σε γενικές γραμμές οι σταθμοί της Δυτικής Ελλάδας επηρεάζονται από τα ίδια περιπου βαρομετρικά συστήματα και άρα είναι φυσιολογικό να εμφανίζουν παρόμοιες συνιστώσες περιοδικότητας στις διασπορές των τιμών υετού τους. / This work deals with the processing of annual and seasonal precipitation series from 12 stations of West Greece for a 30-year study period (1975-2004). Moreover for 8 out for τηε 12 stations where possible, the processing uses a 50-year study period (1956-2005). By using the annual precipitation height as an climatic index it follows that the total of the twelve stations is characterized generally by a combination of semi-wet and wet climatic type. Making use of nonparametric Mann-Kendall test for ascertaining the existence of trend, it doesn't follow any significant trend for the 30-year period (1975-2004), with the exception of the annual precipitation heights of Pirgos that show a significant negative trend. During the 50-year period (1956-2005) significant negative trends occur in seasonal (mainly during spring) and annual basis as well, for half of the eight stations which have been examined. Gamma distribution is tha type of statistical distribution that describes more effectively the physical quantity precipitation height, and in our case its parameters per station are being computed for the period 1975-2004, by using the maximum likelihood method. Under the framework of a Spectral analysis of the precipitation series (for the verification of periodicity in the variances of precipitation rates) , 7 stations are used for a 50-year study period (1955-2004) by using the Blackman-Tukey method. It follows after this method has been used, that precipitation series don't appear any periodicity during autumn and spring seasons. This is in contrast with the winter season and the annual rainfall values as well, where three parts of periodicity in the spectra of the stations appear that bear a common resemblance. This depicts the fact that genarally the total of West Greece stations are influenced by almost the same barometric pressure systems which leads to the variances of precipitation rates to appear common periodicity components.
|
13 |
Problemas Geométricos en Morfología ComputacionalClaverol Aguas, Mercè 16 July 2004 (has links)
Esta tesis se divide en dos partes. La primera parte contiene el estudio de tres pesos o profundidades, asociados a conjuntos finitos de puntos en el plano: el peso definido por las capas convexas, convex depth (introducido por Hubert (72) y Barnett (76)), la separabilidad lineal, también conocido por location, halfspace o Tukey depth (Tukey 75) y el peso Delaunay (Green 81). De la noción de peso, se obtiene una estratificación de los conjuntos de puntos en el plano en capas y una partición del plano en regiones o niveles, cuyas fronteras son conocidas por depth contours. Se definen los conceptos de capa y nivel en los tres pesos señalados y se estudian sus propiedades y complejidades. Chazelle obtuvo métodos para hallar en tiempo óptimo las capas convexas, que coinciden con las fronteras de los niveles convexos. En esta tesis, para los pesos de separabilidad lineal y Delaunay, se proporcionan algoritmos de obtención, tanto de capas como de niveles, y de cálculo del peso de un punto nuevo que se incorpore a la nube. De forma independiente, han sido obtenidos para el peso de la separabilidad lineal los algoritmos de construcción de los niveles, location depth contours, y el de cálculo del peso de un punto nuevo, por Miller et al. (01). Para los tres pesos mencionados, se analizan árboles generadores, poligonizaciones o triangulaciones, con peso mínimo, donde el peso se ha considerado como la suma de los pesos de las aristas de dichas estructuras. Se obtienen propiedades generales entorno a la caracterización de tales estructuras y algoritmos de obtención para alguna de ellas. Se definen dos pesos relacionados con la separabilidad mediante cuñas: el peso según dominación isotética y la separabilidad . En ambos, se dan algoritmos para el cálculo de los pesos de los puntos de un conjunto dado. La separabilidad  está estrechamente relacionada con la enumeración eficiente de (,k)-sets. Se realiza un estudio combinatorio del conjunto de (,k)-sets para nubes de puntos en el plano y se describen algoritmos de construcción de todos los (,k)-sets en cada uno de los cuatro casos posibles, según sean,  o k, fijos o variables. En la segunda parte, se tratan diversos problemas de transversalidad. Se obtienen resultados acerca de la caracterización de las permutaciones realizables, tanto como polígonos simples, como convexos, sobre arreglos de rectas. Para colecciones de segmentos en el plano, se definen cuña y círculo transversales separadores. Se realiza un análisis del orden de estos elementos transversales separadores y se obtienen diversos algoritmos de decisión de existencia de los mismos y construcción de todos ellos. Para colecciones de círculos, también se define el círculo transversal separador y se obtiene un algoritmo de existencia y construcción de dichos círculos para círculos con el mismo radio. / This thesis can be divided into two parts. The first part contains the study of three weights or depths associated to finite point sets in the plane: the convex depth convex hull peeling depth (introduced by Hubert (72) and Barnett (76)), the location depth (also known by halfspace or Tukey depth (Tukey (75)), and the Delaunay depth (Green (81)).From any notion of depth, a stratification of the point sets of the plane into layers and a partition of the plane into regions or levels are obtained. The boundaries of the levels are known by depth contours. We define the concepts of layers and levels for all three depths and we study their properties and their complexities. Chazelle obtained methods to find the layers, which are the boundaries of the convex levels, with an optimal time algorithm. We present the algorithms for constructing the layers and levels, in location and Delaunay depths. Also, for both depths, we show algorithms to calculate the depth of a new point joining the cloud. In an independent way, the algorithms to obtain the levels (location depth contours) and to calculate the location depth of a new point, are obtained by Miller et al. (01).For each one of the three mentioned depths, we study the geometric structures (spanning trees, polygonizations and triangulations) with minimum weight, where this weight has been considered as t-weight (the addition of the weight of their edges). We obtain general properties about the characterization of such structures and some algorithms to obtain them. We define two depths related with the separability by wedges: the isothetic-domination and the -separability which generalizes the location depth. We develop the algorithms in order to obtain the depths of all points of a given set in both cases. The -separability (in particular the location depth) is closely related with the efficient enumeration of the (,k)-sets. We make a combinatorial study of the (,k)-sets for point sets in the plane. We give lower and upper bounds for the maximum number of the (,k)-sets and we give algorithms for constructing all them, in each one of the four cases according to the case where  or k are fixed or variable.In the second part, we consider some transversality problems. We obtain results about the characterization of the realizable permutations both as simple and as convex polygons, over arrangements of lines. We also study some transversality problems with wedges and circles. We have defined the separating transversal wedge and the separating transversal circle for sets of segments. We analyze the size of the set of the transversal elements. Furthermore, we obtain some decision algorithms on the existence and construction of all of them. Finally, we define also the separating transversal circle for sets of circles and we obtain an algorithm for sets of circles with the same radius.
|
14 |
Automatizované nastavení regulátoru pohonu / Automated tuning of drive controllerAdamec, Matúš January 2017 (has links)
This thesis deals with automated tuning of drive controller. To achieve this goal, system identification is needed. Therefore, the issue of identification is described at the beginning of this thesis. Spectral analysis was selected from many described methods. It was implemented in Matlab and also in C# language where was used averaging and Blackman-Tukey method. The C# application is linked to Beckhoff TwinCAT 3 and TwinCAT 2 runtime sytems that enable connections with real drive. Next, the problem of drive regulation is discussed and the results of using spectral analysis on real drives are shown. At the end of the thesis is described the algorithm of setting the speed controller with different types of frequency converters.
|
15 |
COMPARISON OF THE GROWTH OF SHIGA TOXIN-PRODUCING ESCHERICHIA COLI (STEC) ON DIFFERENT MEDIAWang, Gaochan 26 June 2012 (has links)
No description available.
|
16 |
One Million-Point FFTMellqvist, Tobias, Kanders, Hans January 2018 (has links)
The goal of this thesis has been to implement a hardware architecture for FPGA that calculates the fast Fourier transform (FFT) of a signal using one million samples. The FFT has been designed using a single-delay feedback architecture withrotators and butterflies, including a three-stage rotator with one million rotation angles. The design has been implemented onto a single FPGA and has a throughput of 233 Msamples/s. The calculated FFT has high accuracy with a signal to quantization noise ratio (SQNR) of 95.6 dB.
|
17 |
Μέθοδοι βελτίωσης της χωρικής ανάλυσης ψηφιακής εικόναςΠαναγιωτοπούλου, Αντιγόνη 12 April 2010 (has links)
Η αντιμετώπιση της περιορισμένης χωρικής ανάλυσης των εικόνων, η οποία οφείλεται στους φυσικούς περιορισμούς που εμφανίζουν οι αισθητήρες σύλληψης εικόνας, αποτελεί το αντικείμενο μελέτης της παρούσας διδακτορικής διατριβής. Στη διατριβή αυτή αρχικά γίνεται προσπάθεια μοντελοποίησης της λειτουργίας του ψηφιοποιητή εικόνας κατά τη δημιουργία αντίγραφου ενός εγγράφου μέσω απλών μοντέλων. Στην εξομοίωση της λειτουργίας του ψηφιοποιητή, το προτεινόμενο μοντέλο θα πρέπει να προτιμηθεί έναντι των μοντέλων Gaussian και Cauchy, που συναντώνται στη βιβλιογραφία, καθώς είναι ισοδύναμο στην απόδοση, απλούστερο στην υλοποίηση και δεν παρουσιάζει εξάρτηση από συγκεκριμένα χαρακτηριστικά λειτουργίας του ψηφιοποιητή.
Έπειτα, μορφοποιούνται νέες μέθοδοι για τη βελτίωση της χωρικής ανάλυσης σε εικόνες. Προτείνεται μέθοδος μη ομοιόμορφης παρεμβολής για ανακατασκευή εικόνας Super-Resolution (SR). Αποδεικνύεται πειραματικά πως η προτεινόμενη μέθοδος η οποία χρησιμοποιεί την παρεμβολή Kriging υπερτερεί της μεθόδου η οποία δημιουργεί το πλέγμα υψηλής ανάλυσης μέσω της σταθμισμένης παρεμβολής κοντινότερου γείτονα που αποτελεί συμβατική τεχνική. Επίσης, παρουσιάζονται τρεις νέες μέθοδοι για στοχαστική ανακατασκευή εικόνας SR regularized. Ο εκτιμητής Tukey σε συνδυασμό με το Bilateral Total Variation (BTV) regularization, ο εκτιμητής Lorentzian σε συνδυασμό με το BTV regularization και ο εκτιμητής Huber συνδυασμένος με το BTV regularization είναι οι τρεις μέθοδοι που προτείνονται. Μία πρόσθετη καινοτομία αποτελεί η απευθείας σύγκριση των τριών εκτιμητών Tukey, Lorentzian και Huber στην ανακατασκευή εικόνας super-resolution, άρα στην απόρριψη outliers. Η απόδοση των προτεινόμενων μεθόδων συγκρίνεται απευθείας με εκείνη μίας τεχνικής SR regularized που υπάρχει στη βιβλιογραφία, η οποία αποδεικνύεται κατώτερη. Σημειώνεται πως τα πειραματικά αποτελέσματα οδηγούν σε επαλήθευση της θεωρίας εύρωστης στατιστικής συμπεριφοράς.
Επίσης, εκπονείται μία πρωτότυπη μελέτη σχετικά με την επίδραση που έχει κάθε ένας από τους όρους έκφρασης πιστότητας στα δεδομένα και regularization στη διαμόρφωση του αποτελέσματος της ανακατασκευής εικόνας SR. Τα συμπεράσματα που προκύπτουν βοηθούν στην επιλογή μίας αποτελεσματικής μεθόδου για ανακατασκευή εικόνας SR ανάμεσα σε διάφορες υποψήφιες μεθόδους για κάποια δεδομένη ακολουθία εικόνων χαμηλής ανάλυσης. Τέλος, προτείνεται μία μέθοδος παρεμβολής σε εικόνα μέσω νευρωνικού δικτύου. Χάρη στην προτεινόμενη τεχνική εκπαίδευσης το νευρωνικό δίκτυο μαθαίνει το point spread function του ψηφιοποιητή εικόνας. Τα πειραματικά αποτελέσματα αποδεικνύουν πως η προτεινόμενη μέθοδος υπερτερεί σε σχέση με τους κλασικούς αλγόριθμους δικυβικής παρεμβολής και παρεμβολής spline. Η τεχνική που προτείνεται εξετάζει για πρώτη φορά το ζήτημα της σειράς της παρουσίασης των δεδομένων εκπαίδευσης στην είσοδο του νευρωνικού δικτύου. / Coping with the limited spatial resolution of images, which is caused by the physical limitations of image sensors, is the objective of this thesis. Initially, an effort to model the scanner function when generating a document copy by means of simple models is made. In a task of scanner function simulation the proposed model should be preferred over the Gaussian and Cauchy models met in bibliography as it is equivalent in performance, simpler in implementation and does not present any dependence on certain scanner characteristics.
Afterwards, new methods for improving images spatial resolution are formulated. A nonuniform interpolation method for Super-Resolution (SR) image reconstruction is proposed. Experimentation proves that the proposed method employing Kriging interpolation predominates over the method which creates the high-resolution grid by means of the weighted nearest neighbor interpolation that is a conventional interpolation technique. Also, three new methods for stochastic regularized SR image reconstruction are presented. The Tukey error norm in combination with the Bilateral Total Variation (BTV) regularization, the Lorentzian error norm in combination with the BTV regularization and the Huber error norm combined with the BTV regularization are the three proposed methods. An additional novelty is the direct comparison of the three estimators Tukey, Lorentzian and Huber in the task of super-resolution image reconstruction, thus in rejecting outliers. The performance of the proposed methods proves superior to that of a regularized SR technique met in bibliography. Experimental results verify the robust statistics theory.
Moreover, a novel study which considers the effect of each one of the data-fidelity and regularization terms on the SR image reconstruction result is carried out. The conclusions reached help to select an effective SR image reconstruction method, among several potential ones, for a given low-resolution sequence of frames. Finally, an image interpolation method employing a neural network is proposed. The presented training procedure results in the network learning the scanner point spread function. Experimental results prove that the proposed technique predominates over the classical algorithms of bicubic and spline interpolation. The proposed method is novel as it treats, for the first time, the issue of the training data presentation order to the neural network input.
|
18 |
Taxonomy of the Rufous-naped lark (Mirafra africana) complex based on song analysisNymark, Marianne Kristine January 2021 (has links)
The Rufous-naped lark Mirafra africana complex consists of 22 subspecies spread across the African continent. Several of the subspecies have recently been suggested to potentially be treated as separate species. In this study a comparative analysis was done on the song from seven of the subspecies: M. a. africana, M. a. athi, M. a. grisescens, M. a. kabalii, M. a. nyikae, M. a. transvaalensis and M. a. tropicalis. The results showed that M. a. athi, M. a. kabalii and M. a. nyikae are all very divergent from each other as well as from the other four subspecies. In contrast, M. a. tropicalis, M. a. grisescens, M. a. africana and M. a. transvaalensis are not clearly separable from each other. Based on the results, I suggest that M. a. athi, M. a. kabalii and M. a. nyikae can be classified as separate species, with M. a. africana, M. a. tropicalis, M. a grisescens and M. a. transvaalensis forming a fourth species (M. africana sensu stricto). Finally, I conclude that this study shows that more studies need to be done on the subspecies of the Mirafra africana complex.
|
19 |
Alternativní metody a algoritmy pro detekci plamene / Alternative methods and algorithms for flame detectionKozubík, Kamil January 2008 (has links)
This master’s thesis deals with flame detection methods. The purpose of the project was to create a flame detector, which uses the alternative method of flame detection. The introduction of this thesis gives the summary overview of the existing methods for flame detection. Further, the existing flame detectors and their applications are described. Two alternative algorithms for flame detection which are based on the digital signal analysis were realized on the PC. Flame detector, which utilizes the digital analysis of audio signal, was realized on 8 bit microcontroller Atmega128 and achieved results are presented.
|
20 |
Program för frekvensanalys / Program for Frequency AnalysisRodesten, Stephan January 2017 (has links)
Denna rapport täcker arbetsprocessen bakom att skapa en spektrumanalysator. Läsaren kommer att få läsa om den valda metoden men även alternativa metoder. Utöver detta kommer även de teoretiska delarna bakom varje moment att undersökas samt jämföras med potentiella alternativa lösningar. Projektet har utförts på uppdrag av KA Automation. Syftet med projektet var att skapa en basplattform för analys av ljudfrekvenser. Målet med detta var att kunna identifiera ljudegenskaper i form av frekvenserna hos exempelvis servomotorer i vattenpumpar. Tanken var att i ett senare utvecklingsskede kunna identifiera om och när nya frekvenser dykt upp i ljudprofilen vilket i sådana fall kan resultera i att motorn är i behov av service. Basplattformen är uppbyggd med hjälp av C# och ljudbehandlingsbiblioteket NAudio. Från resultatet kan slutsatsen dras att detta program kan analysera ljud och visa de olika frekvensernas styrka och därmed är en lämplig basplattform för vidareutveckling. / This report will cover the work process behind creating a spectrum analyzer. The reader will be able to read about the chosen method but also the alternative methods. Apart from this the theoretical parts behind every moment will also be covered and compared to potential alternative solutions. The project has been carried out on behalf of KA Automation. The purpose of the project was to create a base for analyzing sound frequencies. The goal was to be able to identify sound properties in the form of frequencies in servo motors in for example water pumps. The idea was to be able to in a later development stage be able to identify when new frequencies have entered the audio profile which might result in the motor to be in need of service. The base is created with the help of C# and the sound library NAudio. From the result one can conclude that this program can analyze sound and display the magnitude of its frequency components and is therefore a suitable base for future development.
|
Page generated in 0.0941 seconds