• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 6
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 59
  • 14
  • 13
  • 12
  • 12
  • 12
  • 12
  • 12
  • 12
  • 12
  • 12
  • 12
  • 12
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Χρήση νευρωνικών δικτύων για την πρόγνωση συγκέντρωσης τροποσφαιρικού όζοντος σε αστικό περιβάλλον

Λυμπεροπούλου, Κυριακή 08 December 2008 (has links)
Η παρούσα διπλωματική εργασία πραγματεύεται την χρήση τεχνητών νευρωνικών δικτύων για την δημιουργία ενός αξιόπιστου μοντέλου πρόβλεψης της μέγιστης ημερήσιας συγκέντρωσης του τροποσφαιρικού όζοντος σε αστικό περιβάλλον. Η ανάλυση και η πρόβλεψη των επιπέδων της ατμοσφαιρικής ρύπανσης, είναι σημαντικά θέματα της ατμοσφαιρικής και περιβαλλοντικής έρευνας, λόγω του αντίκτυπου που έχει η ατμοσφαιρική ρύπανση στην υγεία και την ποιότητα ζωής του ανθρώπου. Ένας από τους πιο σημαντικούς ρύπους είναι το τροποσφαιρικό όζον (O3), και ειδικότερα το όζον του κατώτερου οριακού στρώματος της ατμόσφαιρας (επιφανειακό ή surface ozone). Επομένως, η πρόβλεψη της μέγιστης συγκέντρωσης όζοντος στις πυκνοκατοικημένες αστικές περιοχές, είναι μεγάλης σπουδαιότητας για τον έλεγχο και τη βελτίωση της ποιότητας της ατμόσφαιρας. Μέχρι σήμερα, αν και διάφορα μοντέλα πρόβλεψης όζοντος έχουν ερευνηθεί, υπάρχει ακόμα η ανάγκη για ακριβέστερα μοντέλα, έτσι ώστε να αναπτυχθούν αποτελεσματικές στρατηγικές πρόληψης και ελέγχου σε περιπτώσεις που οι οριακές τιμές όζοντος ξεπερνιούνται πέρα από κάποιο συγκεκριμένο χρονικό διάστημα (επεισόδιο ρύπανσης). Χρησιμοποιήθηκαν χρονοσειρές συγκέντρωσης όζοντος και άλλων ρύπων που οδηγούν στην δημιουργία του, από το σταθμό της “Λυκόβρυσης” και του “Αμαρουσίου”, καθώς και μετεωρολογικά δεδομένα που σχετίζονται με την δημιουργία, καταστροφή και διασπορά ή διάχυση του όζοντος. Κατά τη βελτιστοποίηση του νευρωνικού δικτύου, δόθηκε έμφαση στην κατά το δυνατόν ακριβέστερη πρόγνωση των αυξημένων τιμών της συγκέντρωσης Ο3 (επεισόδια ρύπανσης για [Ο3] >=180 μg/m3), για τις οποίες απαιτείται η λήψη εκτάκτων μέτρων. Τα Τεχνητά Νευρωνικά Δίκτυα, όπως αποδείχθηκε, αποτελούν μια πολύ καλή εναλλακτική λύση ως προς τις παραδοσιακές στατιστικές τεχνικές, καθώς για την εκπαίδευσή τους χρησιμοποιούνται διαθέσιμα στοιχεία προηγούμενων μετρήσεων αλλά και λόγω της ικανότητάς τους να χειρίζονται δεδομένα με μη γραμμικές σχέσεις μεταξύ τους. Αρχικά δοκιμάστηκαν διαφορετικές αρχιτεκτονικές νευρωνικών δικτύων επιτρέπουν την κατηγοριοποίηση των πρότυπων δεδομένων εισόδου, όπως οι χάρτες Kohonen, τα δίκτυα επιβλεπόμενης κατηγοριοποίησης LVQ και τα στοχαστικά RBF δίκτυα με σκοπό το μοίρασμα των δεδομένων εισόδου σε κατηγορίες σύμφωνα με τα επίπεδα όζοντος. Στη συνέχεια ελέγχθηκε η δυνατότητα πρόβλεψης με την χρήση πολυστρωματικών αντιληπτήρων πρόσθιας τροφοδότησης (Multilayer Feed-Forward) και εποπτευόμενης μάθησης μέσω διόρθωσης σφάλματος με ανατροφοδότηση (Back Propagation), γνωστά ως ΜultiLayer Perceptrons ή MLPs που έδωσαν και τα καλύτερα αποτελέσματα. Η απόδοση ενός μοντέλου πρόβλεψης της συγκέντρωσης του όζοντος της χαμηλής τροπόσφαιρας μπορεί να κριθεί από το ποσοστό των επεισοδίων που θα προβλεφθούν σωστά από το μοντέλο, σε αντιδιαστολή με το ποσοστό των ψεύτικων-λανθασμένων συναγερμών (δηλ. προβλέψεις επεισοδίων ρύπανσης που δεν συνέβησαν στην πραγματικότητα). Ο δείκτης απόδοσης SI, είναι ο δείκτης υψηλότερης σπουδαιότητας καθώς αντιπροσωπεύσει την απόδοση στην πρόβλεψη των επεισοδίων αλλά και στην γενικότερη συμφωνία μεταξύ των προβλεφθέντων και παρατηρηθέντων δεδομένων. Στο σταθμό της “Λυκόβρυσης” ο δείκτης απόδοσης SI κυμάνθηκε από 0,943 έως 0,831 και ο λόγος των ψεύτικων συναγερμών FA από 0 έως 0,014 ενώ στο σταθμό του “Αμαρουσίου” ο δείκτης απόδοσης SI κυμάνθηκε από 0,777 έως 0,68 και ο λόγος των ψεύτικων συναγερμών FA από 0,211 έως 0,234. / This study deals with the use of artificial neural networks for ground-level ozone modeling in the Athens area. Forecasting next day’s maximum hourly ozone concentration is an important topic of air quality research nowadays. The continuing worldwide environmental problem suggests the need for more accurate forecasting models. Development of such models is a difficult task as the meteorological variables and the photochemical reactions involved in ozone formation are complex. Meteorological variables and concentrations of ozone and ozone precursors, from two monitoring stations “Lykovrisi” and “Marousi”, are used as inputs in order to obtain the best estimate of the next day’s maximum hourly ozone concentration. The violation of the European public information threshold (ozone episode), defined by control authorities, of 180 μg/m3 is successfully predicted in most cases. Neural networks seem to be very well situated since they allow for nonlinear relations among input variables. Several architectures of Neural Networks were tested but Multi-Layer Perceptrons (MLPs) came up with the best results. At “Lykovrisi” monitoring station the Success Index (SI) that is able to represent performance in forecasting exceedances as well as the overall goodness between predicted and measured data, varied from 0.943 to 0.831 and the fraction of False Alarms (FA) that represents predicted episodes that didn’t happen to the overall number of predicted episodes, varied from 0 to 0.014. At “Marousi” monitoring station the SI varied from 0.777 to 0.68 and the fraction of False Alarms (FA) from 0.211 to 0.234.
42

Conceptual Cost Estimating Of Urban Railway System Projects

Ontepeli, Mehmet Bahadir 01 June 2005 (has links) (PDF)
Conceptual cost estimates play a crucial role on initial project decisions although scope is not finalized and very limited design information is available during early project stages. At these stages, cost estimates are needed by the owner, contractor, designer or the lending organization for several purposes including / determination of feasibility of a project, financial evaluation of a number of alternative projects or establishment of an initial budget. Conceptual cost estimates are not expected to be precise, since project scope is not finalized and very limited design information is available during the pre-design stages of a project. However / a quick, inexpensive and reasonably accurate estimate is needed based on the available information. In this study, conceptual cost estimating models will be developed for urban railway systems using data of projects from Turkey. The accuracy of the models and advantages of the study will be discussed.
43

Simulation Of A Batch Dryer By The Finite Difference Method

Turan, Umut 01 September 2005 (has links) (PDF)
The objectives of this study are to investigate the dynamic behavior of an apple slab subjected to drying at constant external conditions and under changing in the drying temperatures and to determine the effects of temperature and time combinations at different steps during drying on the process dynamics parameters, time constant and process gain of the system. For this purpose, a semi-batch dryer system was simulated by using integral method of analysis. Initially, the dynamic behavior of the drying temperature was investigated by using first order system dynamic model. Process dynamic parameters, time constant and process gain of the system, for change in drying temperature were determined. Secondly, investigation of the drying kinetics of the apple slab was carried out under constant external conditions in a semi-batch dryer. A mathematical model for diffusion mechanism assumed in one dimensional transient analysis of moisture distribution was solved by using explicit finite difference method of analysis. Thirdly, investigation of the drying kinetics of the apple slab was carried out under change in drying temperature at different time steps during drying. Inverse response system model was used for the representation of the dynamic behavior of drying. Process dynamic parameters, time constant and process gain of the system were determined. Model predicted results for apple slab drying under constant external condition and under step change in the drying temperature were compared with the experimental data.
44

Investigation Of Turkey&#039 / s Carbon Dioxide Problem By Numerical Modeling

Can, Ali 01 February 2006 (has links) (PDF)
CO2 emission is very important, because it is responsible for about 60% of the &quot / Greenhouse Effect&quot / . The major objectives of this study were to prepare a CO2 emission inventory of Turkey based on districts and provinces by using the fuel consumption data with respect to its sources, to find the CO2 uptake rate of forests in Turkey based on provinces and districts, and to estimate the ground level concentration of CO2 across Turkey using U.S. EPA&#039 / s ISCLT3 model for the preparation of ground level concentration maps. The basic sources of the CO2 emission were taken as households, manufacturing industries, thermal power plants and road vehicles. The sinks of the CO2 were forests. The CO2 uptake by forests was calculated using the annual increment of forest biomass. The results of the CO2 emission inventory conducted in this study between the years 1990 and 2003 showed that the CO2 emission in 1990 was 142.45 million tones/year and the highest emission was calculated in 2000 with a value of 207.97 million tones/year. The regional distribution of CO2 emission showed that the Marmara Region emits the highest regional CO2 emission throughout the years with an average value of 54.76 million tones/year. It was also calculated that Marmara and Aegean Regions are responsible for half of the CO2 emission of Turkey. The results of the CO2 uptake calculations showed that the CO2 uptake of forests in the coastal zone was higher that that in the inland zone. The CO2 uptake in the Central Anatolia, Eastern Anatolia and South-Eastern Anatolia Regions were 2.6, 1.9 and 1.1 million tones/year, respectively. The maximum CO2 uptake is in the Black Sea Region with a value of 16.4 million tones/year. The highest ground level CO2 concentartions without any sink effect were always obtained in the Marmara Region. However, the forest areas in this region decrease the concentrations considerably. The dispersion model performance is determined highly without the results of the year 2002.
45

Μία μέθοδος ανάλυσης της αποδοτικότητας μεγάλων οργανισμών

Καρατζάς, Ανδρέας 18 February 2010 (has links)
Σκοπός αυτής της διπλωματικής είναι να παρουσιάσει τη μεθοδολογία της Data Envelopment Analysis, μιας τεχνικής σύγκρισης οργανισμών με απώτερο σκοπό τη βελτιστοποίηση της λειτουργίας τους και τη μέτρηση της αποδοτικότητας τους. Γενικά οι μέθοδοι της ΠΕΑ χρησιμοποιούνται ως εργαλείο ώστε να αντιληφθούμε καλυτέρα και να αναλύσουμε το πώς κατανέμονται οι πόροι μιας επιχείρησης και πως αυτοί συνεισφέρουν στην παραγωγή της. Επιπρόσθετα, έχουν ως σκοπό να μεγιστοποιήσουν την απόδοση της επιχείρησης είτε περιορίζοντας τους πόρους της διατηρώντας το παραγόμενο προϊόν σταθερό είτε ελαχιστοποιώντας το παραγόμενο προϊόν διατηρώντας τους πόρους σταθερούς. Προκειμένου να μελετηθεί μια μονάδα απόφασης διαχωρίζεται σε «εισόδους» και «εξόδους». Όταν μιλάμε για εισόδους της υπό μελέτης μονάδας εννοούμε τους αναγκαίους πόρους που χρειάζεται για να λειτουργήσει ενώ αντίστοιχα ως εξόδους αναφέρουμε τα παραγόμενα προϊόντα ή υπηρεσίες που προσφέρει. Για παράδειγμα, ως είσοδοι σε τραπεζικά υποκαταστήματα μπορεί να θεωρηθούν τα λειτουργικά κόστη του ακινήτου και το προσωπικό ενώ ως έξοδοι το σύνολο των χρηματικών συναλλαγών που πραγματοποιούνται ή ο αριθμός των πελατών που έχουν συνάψει συνεργασία με το υποκατάστημα αυτό. Παρουσιάζεται αρχικά το μοντέλο CCR που είναι το βασικότερο ανάμεσα στις μεθόδους της DEA (παρουσιάστηκε το 1978 από τους Charnes, Cooper και Rhodes). Παρατίθεται η υπολογιστική διαδικασία του μοντέλου ΕΟΚ καθώς και μία επέκταση του με την χρήση του δυϊκού προβλήματος το οποίο υπερτερεί έναντι του πρωτεύοντος σε ταχύτητα επίλυσης σε μεγάλο αριθμό μονάδων απόφασης καθώς επίσης και στο εύρος λύσεων του προβλήματος. Το μοντέλο CCR καθώς και οι επεκτάσεις του στηρίχτηκαν στον ορισμό των σταθερών οικονομιών κλίμακας δηλαδή θα πρέπει να ισχύει ότι εάν μια δράση (x,y) είναι εφικτή, τότε για κάθε θετικό αριθμό t, η δράση (tx,ty) είναι επίσης εφικτή. Έτσι, αν αποδώσουμε γραφικά την αποδοτικότητα όλων των μονάδων απόφασης και σχεδιάσουμε το σύνορο αποδοτικότητας, αυτό θα αποτελείται από ευθύγραμμα τμήματα με ακμές τις μονάδες απόφασης. Το επόμενο μοντέλο που παρουσιάζεται είναι αυτό των Banker, Charnes και Cooper (BBC) όπου η κύρια διάφορα του με το προηγούμενο έγκειται στο γεγονός ότι το σύνολο παραγωγικότητας είναι το κυρτό σύνολο των σημείων που απεικονίζουν τις μονάδες απόφασης (και όχι τα ευθύγραμμα τμήματα τους). Κοινό χαρακτηριστικό και των δύο παραπάνω μοντέλων είναι ότι κάθε φορά στην ανάλυση των δεδομένων πρέπει να εστιάσουμε είτε στην ελαχιστοποίηση των εισόδων είτε στην μεγιστοποίηση των εξόδων για να εξάγουμε συμπεράσματα. Τα προσθετικά μοντέλα που παρουσιάζονται στη συνέχεια δεν κάνουν αυτόν τον διαχωρισμό καθώς στηρίζονται στην ελαχιστοποίηση της περίσσειας πόρων εισόδου και την ταυτόχρονη μεγιστοποίηση των παραγόμενων εξόδων. Επιπρόσθετα, πλεονέκτημα των προσθετικών μοντέλων είναι η ανάλυση αρνητικών δεδομένων κάτι που δεν ήταν εφικτό από τα προηγούμενα μοντέλα. Παρουσιάζεται, επίσης, μια επέκταση του προσθετικού μοντέλου όπου η μέτρηση της αποδοτικότητας δεν επηρεάζεται από τυχόν διαφορές στις μονάδες μέτρησης ανάμεσα στις εξόδους και τις εισόδους. Τέλος περιγράφεται η ανάλυση ευαισθησίας που είναι μία σημαντική παράμετρος των μεθόδων της DEA καθώς δίνει την δυνατότητα σε κάποιον να μελετήσει τις διαφοροποιήσεις όταν εισάγονται η διαγράφονται μονάδες λήψης αποφάσεων η όταν εισάγονται η διαγράφονται είσοδοι και έξοδοι σε ένα πρόβλημα. / The purpose of this thesis is to present the methodology of Data Envelopment Analysis, a technique to compare organizations with a view to optimizing the operation and measurement of their profitability. Generally, methods of DEA are used as a tool to better understand and analyze how resources are distributed and how each one contributes to company’s production. Additionally, they are designed to maximize the performance of business by limiting its resources while maintaining the output constant or by minimizing the product obtained by maintaining the resources constant. The unique characteristics of every decision making unit are "inputs" and "outputs". Inputs of a unit correspond to the resources needed for the company to operate and outputs correspond to the products or services offered. For example, inputs in bank branches can be considered all the operating costs of the property and the personnel occupied and us outputs all financial transactions carried out or the whole number of customers that have made transactions with a particular branch. Initially the CCR model is presented as it is considered to be the very first method of DEA (firstly introduced by Charnes, Cooper and Rhodes). The whole process of the CCR model is presented and also an extension and the use of the dual problem that outweighs the computational speed of the primary model in solving a large number of decision points as well as the range of solutions to the problem. The CCR model and its extensions are based on the definition of constant economies of scale which can be expressed as if an action (x, y) is feasible, then for each positive number t, the action (tx, ty) is also feasible. Thus, if we depict the performance of every decision making unit in a single graph with their corresponding performance, then the efficient frontier consists of segments that have decision making units in each edge The next model presented is that of Banker, Charnes and Cooper (BBC) where the main difference with the previous lies in the fact that total productivity is the convex set of points that reflects the decision making units (and not their segments). A common feature of both these models is that each time the data analysis should focus either on minimizing inputs or on maximizing outputs to come over a conclusion. The additive models presented does not make this distinction as they are based on the minimization of the excess resources of inputs and simultaneously on the maximization of produced outputs. Additionally, a competitive advantage of the additive model is the analysis of negative data which was not possible with previous models. An extension of the additive model is presented where the measurement of efficiency is not affected by any differences in units between the inputs and outputs. Finally, the sensitivity analysis is described as an important parameter of DEA’s methods as it analyses the differences in production when a decision making unit is imported or deleted or when inputs and outputs are being inserted or deleted in a problem set.
46

Uma vida em dança = movimentos e percursos de Denize Stutz / A life in dance : movement and pathways of Denize Stutz

Vilela, Lilian Freitas 08 December 2010 (has links)
Orientador: Marcia Maria Strazzacappa Hernandez / Acompanhado de DVD: A história encenada: narrativa videográfica das obras coreográficas / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Educação / Made available in DSpace on 2018-08-17T00:56:53Z (GMT). No. of bitstreams: 1 Vilela_LilianFreitas_D.pdf: 97085575 bytes, checksum: e1fa9c8dcb9662ae09225cbac88a53a9 (MD5) Previous issue date: 2010 / Resumo: Este trabalho de pesquisa acadêmica de doutorado versa sobre a história de vida artística da bailarina brasileira Denise Stutz, em seus percursos de atuação cênica, no período de 1970 até os dias atuais. A investigação está centrada nas experiências vividas pela bailarina em seus diferentes projetos poéticos, intitulados como momentos de formação, transformação e afirmação na dança. Como procedimento metodológico foi adotada a seleção, com recorte analítico, de suas narrativas orais por meio da transcriação (MEIHY, 2005) de seus relatos de vida trazidos em depoimentos gravados em momentos de rememorações; e de suas narrativas cênicas extraídas de seis espetáculos escolhidos como obras de referência (Maria, Maria; Folia; Não Olhe Agora; Homo politicus; 3 solos em um tempo e Justo uma imagem: cartas e processos). As narrativas cênicas foram trazidas para o texto através dos procedimentos de análise de movimento e análise de espetáculos adaptados dos estudos de LABAN (1978) e PAVIS (2003) para esta pesquisa. Assim, a fala e os movimentos cênicos de Denise Stutz vão sendo revelados no decorrer da narrativa, contracenando voz e corpo na escrita textual e imagética de uma vida em dança. Observamos que o corpo desta bailarina foi formado por diversas referências estéticas como balé clássico, dança moderna, teatro de rua, butoh e improvisação; em momentos de pertencimento a grupos, companhias de dança, coletivos artísticos, além de momentos solo. Nestas trajetórias, foi possível perceber as opções estéticas e políticas adotadas por este corpo ao dançar, como também, refletir sobre a reorganização do ambiente da dança contemporânea em relação à cena, à movimentação do corpo, às funções do bailarino e às formas de criação. Tais transformações refletem a afirmação de Denise Stutz como bailarina e de sua dança como modo de produção de sentido e expressão de vida. / Abstract: The work presents several different axis of investigation performed by a doctoral research on the life of Denise Stutz, Brazilian dancer who remains actively performing since the 1970s until the present days. The perspective of this research focuses on the experiences of this ballerina throughout her multiple poetic paths - her moments of formation, transformation and affirmation through dance. The methodological procedure adopted was the selection, with an analytical approach, of oral narratives through the transcreation (MEIHY, 2005) of her stories that were brought to life in recorded statements at times of recollection, and through narratives drawn from six scenic spectacles chosen as reference works (Mary, Mary, Folia, Do not Look Now; Homo politicus; three soils at a time and a fair picture: Letters and processes). The speech and movements of Denise Stutz were revealed during the narrative opposing the voice with the body, resulting in written text and imagery of a life in dance. We observe that this ballerina's body was formed by extensive references - classical ballet, modern dance, street drama, butoh, improvisation - going from moments of belonging to groups, dance companies and art groups, as well as solo projects. By investigating this path one may realize the different aesthetic and political choices made by this body when dancing and also one can reflect on the reorganization of contemporary dance's environment in relation to the scene and to the assignment of roles and forms of creation. Denise Stutz's transformations reflect her self-affirmation as a ballerina and also present her dance as a form of production of meaning and expression of life. / Doutorado / Educação, Conhecimento, Linguagem e Arte / Mestre em Educação
47

L’oeuvre d’art comme expression et comme langage dans l'Esthétique de Benedetto Croce / The work of art identified to expression and language, in the Aesthetics of Benedetto Croce

Garelli, Céline 20 June 2014 (has links)
L’objectif principal de ce travail est d’établir le sens attribué à la science de l’expression et de préciser comment elle est identifiée à la linguistique générale, dans l’Esthétique de Benedetto Croce. Adversaire de l’intellectualisme et du rationalisme, Croce a éprouvé au plus profond de lui-même les questions que l’homme se pose. C’est dans l’expérience du langage que l’homme expérimente la profondeur de son existence au monde. Il s’agit de l’essence du langage comprise comme expression dans laquelle l’intuition se réalise intégralement. D’où, le langage est le résultat de la création irremplaçable de chaque expression singulière. C’est le langage non répétitif et intraduisible de l’œuvre d’art. Le langage est un art, il prend son sens dans l’art et se comprend par rapport à l’art. Philosophie du langage et philosophie de l’art sont la même chose. C’est selon cette perspective que l’art pour Croce est expression. C’est l’expression de l’intuition comme faculté de la transposition esthétique qui occupe la première position de la vie de l’esprit. Il en sera différemment pour la place de l’oeuvre d’art. Débat qui se prolongera sur la question de l’art abstrait, contemporain de l’Esthétique de Croce. / The goal of my research is to establish the meaning given to the science of expression and specialy how it is identified to general linguistic, in Benedetto Croce’s Aesthetics. Against Intelectualism and rationalism, Croce felt deep inside him, the questioning of Man. It is in the experience of language that Man experiments the depth of his being to the world. The essence of language, understood as expression, is in which intuition realises itself, totaly. Therefore, language is the result of an irreplaceable creation of each single expression. It is a non repetitive and untranslatable language of the work of art. Language is art, it takes its meaning in art and is understood in regard to art. Philosophy of language and philosophy of art are alike. It is in this perspective that art for Croce is expression. It is the intuition’s expression as the faculty of aesthetic transposition that is in first position of the mind. It will be different for the work of art. This debate will continue on the question of abstract art, contemporary to the Aesthetics of Croce.
48

Uncertainty quantification and calibration of a photovoltaic plant model : warranty of performance and robust estimation of the long-term production. / Quantification des incertitudes et calage d'un modèle de centrale photovoltaïque : garantie de performance et estimation robuste de la production long-terme

Carmassi, Mathieu 21 December 2018 (has links)
Les difficultés de mise en œuvre d'expériences de terrain ou de laboratoire, ainsi que les coûts associés, conduisent les sociétés industrielles à se tourner vers des codes numériques de calcul. Ces codes, censés être représentatifs des phénomènes physiques en jeu, entraînent néanmoins tout un cortège de problèmes. Le premier de ces problèmes provient de la volonté de prédire la réalité à partir d'un modèle informatique. En effet, le code doit être représentatif du phénomène et, par conséquent, être capable de simuler des données proches de la réalité. Or, malgré le constant développement du réalisme de ces codes, des erreurs de prédiction subsistent. Elles sont de deux natures différentes. La première provient de la différence entre le phénomène physique et les valeurs relevées expérimentalement. La deuxième concerne l'écart entre le code développé et le phénomène physique. Pour diminuer cet écart, souvent qualifié de biais ou d'erreur de modèle, les développeurs complexifient en général les codes, les rendant très chronophages dans certains cas. De plus, le code dépend de paramètres à fixer par l'utilisateur qui doivent être choisis pour correspondre au mieux aux données de terrain. L'estimation de ces paramètres propres au code s'appelle le calage. Cette thèse propose dans un premier temps une revue des méthodes statistiques nécessaires à la compréhension du calage Bayésien. Ensuite, une revue des principales méthodes de calage est présentée accompagnée d'un exemple comparatif basé sur un code de calcul servant à prédire la puissance d'une centrale photovoltaïque. Le package appelé CaliCo qui permet de réaliser un calage rapide de beaucoup de codes numériques est alors présenté. Enfin, un cas d'étude réel d'une grande centrale photovoltaïque sera introduit et le calage réalisé pour effectuer un suivi de performance de la centrale. Ce cas de code industriel particulier introduit des spécificités de calage numériques qui seront abordées et deux modèles statistiques y seront exposés. / Field experiments are often difficult and expensive to make. To bypass these issues, industrial companies have developed computational codes. These codes intend to be representative of the physical system, but come with a certain amount of problems. The code intends to be as close as possible to the physical system. It turns out that, despite continuous code development, the difference between the code outputs and experiments can remain significant. Two kinds of uncertainties are observed. The first one comes from the difference between the physical phenomenon and the values recorded experimentally. The second concerns the gap between the code and the physical system. To reduce this difference, often named model bias, discrepancy, or model error, computer codes are generally complexified in order to make them more realistic. These improvements lead to time consuming codes. Moreover, a code often depends on parameters to be set by the user to make the code as close as possible to field data. This estimation task is called calibration. This thesis first proposes a review of the statistical methods necessary to understand Bayesian calibration. Then, a review of the main calibration methods is presented with a comparative example based on a numerical code used to predict the power of a photovoltaic plant. The package called CaliCo which allows to quickly perform a Bayesian calibration on a lot of numerical codes is then presented. Finally, a real case study of a large photovoltaic power plant will be introduced and the calibration carried out as part of a performance monitoring framework. This particular case of industrial code introduces numerical calibration specificities that will be discussed with two statistical models.
49

GALS design methodology based on pausible clocking

Fan, Xin 22 April 2014 (has links)
Globally Asynchronous Locally Synchronous (GALS) Design ist eine Lösung zur Skalierbarkeit und Modularität für die SoC-Integration. Heutzutage ist GALS-Design weit in der Industrie angewendet. Die meisten GALS-Systeme basieren auf Dual-Clock-FIFOs für die Kommunikation Zwischen Taktdomänen. Um Leistungsverluste aufgrund der Synchronisationslatenzzeit zu vermindern, müssen die On-Chip-FIFOs ausreichend groß sein. Dies führt jedoch oft zu erheblichen Kosten-Hardware. Effiziente GALS- Lösungen sind daher vonnöten. Diese Arbeit berichtet unsere neuesten Fortschritte in GALS Design, das auf der Pausierenden Taktung basiert. Kritische Designthemen in Bezug auf Synchronisation-szuverlässigkeit bzw. Kommunikationsfähigkeit sind systematisch und analytisch un-tersucht. Ein lose gekoppeltes GALS Data-Link-Design wird vorgeschlagen. Es unter-stützt metastabilitätsfreie Synchronisation für Sub-Takt-Baum Verzögerungen. Außer-dem unterstützt es kontinuierliche Datenübertragung für High-Throughput-Kommuni-kation. Die Rosten hinsichtlich Energie verbrauch und Chipfläche sind marginal. GALS Design ist eingesetzt, um digitales On-Chip Umschaltrauschen zu verringern. Plesiochron Taktung mit balanciertem Leistungsverbrauch zwischen GALS Blöcken wird insbesondere untersucht. Für M Taktbereiche wird eine Reduzierung um 20lgM dB für die spektralen Spitzen des Versorgungsstroms bei der Takt-Grundfrequenz theoretisch hergcleitet. Im Vergleich zu den bestehenden synchronen Lösungen, geben diese Methode eine Alternative, um das digitale schaltrauschen effektiv zu senken. Schließlich wurde die entwickelte GALS Design Methodik schon bei reale Chip-Implementierungen angewendet. Zwei komplizierte industriell relevante Test-Chips, Lighthouse und Moonrake, wurden entworfen und mit State-Of-The-Art-Technologien hergestellt. Die experimentellen Ergebnisse bzw. / Globally asynchronous locally synchronous (GALS) design presents a solution of scalability and modularity to SoC integration. Today, it has been widely applied in the industry. Most of the GALS systems are based on dual-clock FIFOs for clock domain crossing. To avoid performance loss due to synchronization latency, the on-chip FIFOs need to be sufficiently large. This, however, often leads to considerable hardware costs. Efficient design solutions of GALS are therefore in great demand. This thesis reports our latest progress in GALS design bases on pausible clocking. Critical design issues on synchronization reliability and communication performance are studied systematically and analytically. A loosely-coupled GALS data-link design is proposed. It supports metastability-free synchronization for sub-cycle clock-tree delay, and accommodates continuous data transfer for high-throughput communication. Only marginal costs of power and silicon area are required. GALS design has been employed to cope with the on-chip digital switching noise in our work. Plesiochronous clocking with power-consumption balance between GALS blocks is in particular explored. Given M clock domains, a reduction of 20lgM dB on the spectral peaks of supply current at the fundamental clock frequency is theoretically derived. In comparison with the existing synchronous design solutions, it thus presents an alternative to effective attenuation of digital switching noise. The developed GALS design methodology has been applied to chip implementation. Two complicated industry-relevant test chips, named Lighthouse and Moonrake, were designed and fabricated using state-of-the-art technologies. The experimental results as well as the on-chip measurements are reported here in detail. We expect that, our work will contribute to the practical applications of GALS design based on pausible clocking in the industry.
50

Rhode. Caracterització del jaciment i de les produccions dels seus tallers ceràmics

Puig i Griessenberger, Anna M. 22 December 2006 (has links)
La tesi ha estat publicada pel Museu d'Arqueologia de Catalunya-Girona dins la Sèrie Monogràfica número 23 amb el títol La colònia grega de Rhode (Roses, Alt Empordà). 643 p. ISBN: 84-393-7334-1 / RESUMEn la primera part de la tesi es revisen els materials arqueològics i els documents de les excavacions antigues al jaciment grec de la Ciutadella de Roses (Alt Empordà). Es fan estudis comparatius i de conjunt amb els resultats proporcionats per les excavacions recents. A partir d'aquí s'obté una periodització del jaciment, des del moment de la fundació de la colònia massaliota de Rhode, al segon quart del segle IV aC, fins a la fi de la ciutat, al 195 aC. Es tracten aspectes de topografia, urbanisme i estudi dels edificis. La segona part analitza les produccions dels tallers ceràmics (vernissos negres, pastes clares, ceràmiques de cuina i altres produccions secundàries). Es fa una nova classificació, un estudi de les formes, de la cronologia i paral·lels. S'estudien les instal·lacions dels tallers, els forns, la seva capacitat, les argiles i les terreres. Es conclou amb una caracterització socioeconòmica i històrica de la ciutat, i dels aspectes històrics relacionats amb les fases de la seva fundació, desenvolupament i fi. / In the first part of this doctoral thesis archaeological materials and documents from old excavations in the Greek site of the Citadel in Roses are revised. Comparative and global investigation is carried out between information provided by old excavations and that coming from the more recent ones. The results help to put forward a site periodisation from the Rhode massaliot colony foundation, during the 4th century up to the ending of the village in 195 BC.Topographic and urban aspects as well as studies of the buildings are presented. The second half of the study analyzes the production of the pottery workshops (black varnishes, light pastes, kitchenware and other secondary productions). A new classification system is presented which is based on both morphological and chronological studies and their territorial similarities. Workshops installation, their ovens, their capacity, clays and claypits are examined.The paper is finished with a description of socioeconomic and historic aspects of the village and the historical traits concerning the foundation phases, their development and final stages.

Page generated in 0.023 seconds