• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 14
  • 12
  • 10
  • 6
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 118
  • 33
  • 33
  • 31
  • 18
  • 17
  • 15
  • 15
  • 12
  • 11
  • 11
  • 9
  • 9
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Estimation de l'attitude et commande bornée en attitude d'un corps rigide : application à un mini hélicoptère à quatre rotors

Guerrero Castellanos, Fermi 11 January 2008 (has links) (PDF)
Ce travail de thèse porte sur l'estimation de l'attitude et la commande bornée en attitude d'un corps rigide. L'application « mini hélicoptère à quatre rotors » a été le support pour analyser les apports de nos approches. La première partie de cette thèse est consacrée à la description et la modélisation de l'hélicoptère à quatre rotors. Dans la deuxième partie, nous abordons le problème de l'estimation de l'attitude d'un corps rigide doté d'un ensemble de capteurs GAM (gyromètres, accéléromètres et magnétomètres). Nous proposons un observateur non linéaire afin de fusionner les différents types de mesures. Nous montrons que la dynamique de l'erreur d'observation peut se décomposer en deux sous-systèmes passifs reliés en « feedback ». Cette propriété est utilisée pour montrer que la dynamique de l'erreur d'observation est stable au sens Entrée-Etat (ISS) en considérant une perturbation comme l'entrée et l'erreur d'attitude comme l'état. Une validation avec des données simulées et une implantation en temps réel montrent la capacité et les performances de l'approche<br />proposée. Dans la dernière partie de ce travail, nous établissons une loi de commande bornée pour la stabilisation globale en attitude d'un corps rigide. Dans le schéma proposé, l'attitude est paramétrisée par le quaternion et la loi de commande est basée sur des fonctions de saturation imbriquées. La loi de commande permet de respecter des contraintes liées à la vitesse angulaire. De plus, la stabilité du système en boucle fermée est indépendante des paramètres inertiels du système. La caractéristique principale de l'approche proposée est son extrême simplicité qui autorise son implantation sur des systèmes embarqués où les capacités de calcul sont réduites. Ce résultat est ensuite étendu du corps rigide à l'hélicoptère à quatre rotors. Finalement, la loi de commande et l'observateur non linéaire sont implantés en temps réel et la stabilisation en attitude de l'hélicoptère est réalisée.
82

Vers une mesure du vent thermoacoustique

Debesse, Philippe 05 December 2008 (has links) (PDF)
Les phénomènes non-linéaires présents dans les systèmes thermoacoustiques sont responsables de l'apparition des écoulements continus secondaires qui se superposent aux oscillations acoustiques dominantes, pénalisant l'efficacité des systèmes. L'objectif de cette étude est de caractériser le champ acoustique dans un résonateur contenant un générateur d'onde thermoacoustique et de mettre en évidence les écoulements secondaires. Nous mesurons le champ de vitesse par vélocimétrie par images de particules (PIV). Les premières mesures enregistrées sans relation de phases avec la période acoustique, permettent de reconstruire la composante acoustique sur une période, en réordonnant les vitesses suivant leur phase avec une technique de projection par décomposition aux valeurs singulières (SVD). Celle-ci fait partie d'une batterie de post-traitements qui permettent d'obtenir des résultats concordant avec l'acoustique linéaire. Ils mettent en évidence un contenu harmonique important et le caractère non-linéaire de l'écoulement acoustique. Le calcul du champ de vitesse moyenné en temps montre l'existence d'un écoulement continu différent de celui de Rayleigh-Schlichting. Dans la fenêtre de mesure, il est composé de cellules de convection dont l'extension radiale tend à croître avec le rapport moteur. Il fait aussi apparaître un caractère tridimensionnel. Un deuxième type de mesures PIV synchronisées aux mesures de pression, apporte un complément d'information sur les écoulements secondaires et confirme globalement les résultats obtenus à partir des premières mesures. Cependant ces mesures synchronisées se révèlent moins précises que les premières.
83

Méthodologie d'analyse de levés électromagnétiques aéroportés en domaine temporel pour la caractérisation géologique et hydrogéologique

Reninger, Pierre-Alexandre 24 October 2012 (has links) (PDF)
Cette thèse doctorale aborde divers aspects méthodologiques de l‟analyse de levés électromagnétiques aéroportés en domaine temporel (TDEM) pour une interprétation détaillée à finalités géologique et hydrogéologique. Ce travail s‟est appuyé sur un levé réalisé dans la région de Courtenay (Nord-Est de la région Centre) caractérisée par un plateau de craie karstifié (karst des Trois Fontaines) recouvert par des argiles d‟altération et des alluvions. Tout d‟abord, une méthode de filtrage des données TDEM utilisant la Décomposition en Valeurs Singulières (SVD) a été développée. L‟adaptation rigoureuse de cette technique aux mesures TDEM a permis de séparer avec succès les bruits, qui ont pu être cartographiés, et le " signal géologique ", diminuant grandement le temps nécessaire à leur traitement. De plus, la méthode s‟est avérée efficace pour obtenir, rapidement, des informations géologiques préliminaires sur la zone. Ensuite, une analyse croisée entre le modèle de résistivité obtenu en inversant les données filtrées et les forages disponibles a été effectuée. Celle-ci a mené à une amélioration de la connaissance géologique et hydrogéologique de la zone. Une figure d‟ondulation, séparant deux dépôts de craie, et le réseau de failles en subsurface ont pu être imagés, apportant un cadre géologique au karst des Trois Fontaines. Enfin, une nouvelle méthode combinant l‟information aux forages et les pentes issues du modèle de résistivité EM a permis d‟obtenir un modèle d‟une précision inégalée du toit de la craie. L‟ensemble de ces travaux fournit un cadre solide pour de futures études géo-environnementales utilisant des données TDEM aéroportées, et ce, même en zone anthropisée.
84

Type-2 Neuro-Fuzzy System Modeling with Hybrid Learning Algorithm

Yeh, Chi-Yuan 19 July 2011 (has links)
We propose a novel approach for building a type-2 neuro-fuzzy system from a given set of input-output training data. For an input pattern, a corresponding crisp output of the system is obtained by combining the inferred results of all the rules into a type-2 fuzzy set which is then defuzzified by applying a type reduction algorithm. Karnik and Mendel proposed an algorithm, called KM algorithm, to compute the centroid of an interval type-2 fuzzy set efficiently. Based on this algorithm, Liu developed a centroid type-reduction strategy to do type reduction for type-2 fuzzy sets. A type-2 fuzzy set is decomposed into a collection of interval type-2 fuzzy sets by £\-cuts. Then the KM algorithm is called for each interval type-2 fuzzy set iteratively. However, the initialization of the switch point in each application of the KM algorithm is not a good one. In this thesis, we present an improvement to Liu's algorithm. We employ the result previously obtained to construct the starting values in the current application of the KM algorithm. Convergence in each iteration except the first one can then speed up and type reduction for type-2 fuzzy sets can be done faster. The efficiency of the improved algorithm is analyzed mathematically and demonstrated by experimental results. Constructing a type-2 neuro-fuzzy system involves two major phases, structure identification and parameter identification. We propose a method which incorporates self-constructing fuzzy clustering algorithm and a SVD-based least squares estimator for structure identification of type-2 neuro-fuzzy modeling. The self-constructing fuzzy clustering method is used to partition the training data set into clusters through input-similarity and output-similarity tests. The membership function associated with each cluster is defined with the mean and deviation of the data points included in the cluster. Then applying SVD-based least squares estimator, a type-2 fuzzy TSK IF-THEN rule is derived from each cluster to form a fuzzy rule base. After that a fuzzy neural network is constructed. In the parameter identification phase, the parameters associated with the rules are then refined through learning. We propose a hybrid learning algorithm which incorporates particle swarm optimization and a SVD-based least squares estimator to refine the antecedent parameters and the consequent parameters, respectively. We demonstrate the effectiveness of our proposed approach in constructing type-2 neuro-fuzzy systems by showing the results for two nonlinear functions and two real-world benchmark datasets. Besides, we use the proposed approach to construct a type-2 neuro-fuzzy system to forecast the daily Taiwan Stock Exchange Capitalization Weighted Stock Index (TAIEX). Experimental results show that our forecasting system performs better than other methods.
85

Tinklalapio navigavimo asociacijų analizės ir prognozavimo modelis / A model for analyzing and predicting the scent of a web site

Kučaidze, Artiom 08 September 2009 (has links)
Darbe, remiantis informacijos paieškos teorija, bandoma sukurti tinklalapio navigavimo asociacijų analizės ir prognozavimo modelį. Šio modelio tikslas – simuliuoti potencialių tinklalapio vartotojų informacijos paieškos kelius turint apibrėžtą informacinį tikslą. Modelis kuriamas apjungiant LSA, SVD algoritmus ir koreliacijos koeficientų skaičiavimus. LSA algoritmas naudojamas kuriant semantines erdves, o koreliacijos koeficientų skaičiavimai naudojami statistikoje. Kartu jie leidžia tinklalapio navigavimo asociacijų analizės ir prognozavimo modeliui analizuoti žodžių semantinį panašumą. Darbo eigoje išskiriamos pagrindinės problemos, su kuriomis gali susidurti tinklalapio lankytojai sudarant tinklalapio navigavimo asociacijas – tai yra konkurencijos tarp nuorodų problema, klaidinančių nuorodų problema ir nesuprantamų nuorodų problema. Demonstruojama kaip sukurtas modelis atpažįsta ir analizuoja šias problemas. / In this document we develop a model for analyzing and predicting the scent of a web site, which is based on information foraging theory. The goal of this model is to simulate potential web page users and their information foraging paths having specific information needs. Model is being developed combining LSA, SVD algorithms and correlation values calculations. LSA algorithm is used for creating semantic spaces and correlation values are user in statistics. Together they provide possibility to analyze word‘s semantic similarity. Primary problems of web navigation are described in this document. These problems can occur for users while creating the scent of a web site. User can face with concurrency between links problem, wrong sense link problem and unfamiliar link problem. In this document we demonstrate how model recognizes and analyzes these problems.
86

Large Scale Solar Power Integration in Distribution Grids : PV Modelling, Voltage Support and Aggregation Studies

Samadi, Afshin January 2014 (has links)
Long term supporting schemes for photovoltaic (PV) system installation have led to accommodating large numbers of PV systems within load pockets in distribution grids. High penetrations of PV systems can cause new technical challenges, such as voltage rise due to reverse power flow during light load and high PV generation conditions. Therefore, new strategies are required to address the associated challenges. Moreover, due to these changes in distribution grids, a different response behavior of the distribution grid on the transmission side can be expected. Hence, a new equivalent model of distribution grids with high penetration of PV systems is needed to be addressed for future power system studies. The thesis contributions lie in three parts. The first part of the thesis copes with the PV modelling. A non-proprietary PV model of a three-phase, single stage PV system is developed in PSCAD/EMTDC and PowerFactory. Three different reactive power regulation strategies are incorporated into the models and their behavior are investigated in both simulation platforms using a distribution system with PV systems. In the second part of the thesis, the voltage rise problem is remedied by use of reactive power. On the other hand, considering large numbers of PV systems in grids, unnecessary reactive power consumption by PV systems first increases total line losses, and second it may also jeopardize the stability of the network in the case of contingencies in conventional power plants, which supply reactive power. Thus, this thesis investigates and develops the novel schemes to reduce reactive power flows while still keeping voltage within designated limits via three different approaches: decentralized voltage control to the pre-defined set-points developing a coordinated active power dependent (APD) voltage regulation Q(P)using local signals developing a multi-objective coordinated droop-based voltage (DBV) regulation Q(V) using local signals   In the third part of the thesis, furthermore, a gray-box load modeling is used to develop a new static equivalent model of a complex distribution grid with large numbers of PV systems embedded with voltage support schemes. In the proposed model, variations of voltage at the connection point simulate variations of the model’s active and reactive power. This model can simply be integrated intoload-flow programs and replace the complex distribution grid, while still keepingthe overall accuracy high. The thesis results, in conclusion, demonstrate: i) using rms-based simulations in PowerFactory can provide us with quite similar results using the time domain instantaneous values in PSCAD platform; ii) decentralized voltage control to specific set-points through the PV systems in the distribution grid is fundamentally impossible dueto the high level voltage control interaction and directionality among the PV systems; iii) the proposed APD method can regulate the voltage under the steady-state voltagelimit and consume less total reactive power in contrast to the standard characteristicCosφ(P)proposed by German Grid Codes; iv) the proposed optimized DBV method can directly address voltage and successfully regulate it to the upper steady-state voltage limit by causing minimum reactive power consumption as well as line losses; v) it is beneficial to address PV systems as a separate entity in the equivalencing of distribution grids with high density of PV systems. / <p>The Doctoral Degrees issued upon completion of the programme are issued by Comillas Pontifical University, Delft University of Technology and KTH Royal Institute of Technology. The invested degrees are official in Spain, the Netherlands and Sweden, respectively. QC 20141028</p>
87

Construction d'un Atlas 3D numérique de la cornée humaine par recalage d'images

Haddeji, Akram 12 1900 (has links)
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne. / We propose to build a 3D digital atlas which contains the average characteristics and variability of the morphology of an organ. In particular our work consists in the construction of a 3D digital atlas of the entire human cornea including anterior and posterior surfaces. The atlas was built using topographies provided by the Orbscan II system. First, we normalized the given population of corneas using a variant of the ICP (iterative closest point) algorithm for shape registration to fit simultaneously the anterior and posterior surfaces with the anterior and posterior surfaces of a reference cornea. Indeed, we developed a specific algorithm for corneas topographies that considers scaling during registration and which is based on neighborhood search via the Euclidean distance to find the correspondence between points. After that, we built the corneal atlas by averaging elevations of anterior and posterior surfaces and by calculating their associated standard deviations. A population of 100 healthy corneas was used to construct the normal corneal atlas. To illustrate the atlas, we used topographic color maps like those already offered by existing topographic systems. Finally, observations were made on the corneal atlas that reflects its precision and allows to develop a better understanding of corneal anatomy.
88

Návrh dřevostavby rodinného domu

Vařejka, Jindřich January 2015 (has links)
This thesis describes the design of wooden buildings house, whose layout corresponds to the size requirements of the four/five person family. The main objective is the development of technical documentation for realization wooden building system frame construction. The work is divided into text and section drawings. In the text part, we focus on the structural system of wooden frame. Further to the proposal of the building envelope system diffusion open structure. For each construction envelope is made of heat-technical assessment. The work is completely processed and architectural layout wooden buildings. The last part is focused on determining the gross price of the house. Drawing section contains both drawings needed for building permits and manufacturing documentation for implementation of wooden buildings house.
89

Implementation av webbsida för rekommendationssystem med användaruppbyggd databas / Implementation of a recommendation system webservice with a usergenerated database

Brundin, Michelle, Morris, Peter, Åhlman, Gustav, Rosén, Emil January 2012 (has links)
The goal of this project was to create a web-based, crowd-sourced, correlational database, that easily allowed users to submit objects and receive correlated objects as results. The webservice was created in the web development languages of HTML, CSS, PHP and Javscript, with MySQL to handle the database. Simultaneous development was kept in check with the aid of the source code management system GIT. Upon completion, the service contained several HTML-views, the ability to add and rate objects, a per-object dedicated page with information parsed from Wikipedia.org, and a view with objects ranked in accordance to the preferences specific to the current user. Roughly a month after the beginning of development, the website was publicly launched and promoted in order to collect data, and improvements were added to the website as needed. Two weeks after the public launch, the collected data was measured and analyzed. The algorithm proved effective and scalable, especially with the introduction of tags and simultaneous computation of object features.
90

Provable Methods for Non-negative Matrix Factorization

Pani, Jagdeep January 2016 (has links) (PDF)
Nonnegative matrix factorization (NMF) is an important data-analysis problem which concerns factoring a given d n matrix A with nonnegative entries into matrices B and C where B and C are d k and k n with nonnegative entries. It has numerous applications including Object recognition, Topic Modelling, Hyper-spectral imaging, Music transcription etc. In general, NMF is intractable and several heuristics exists to solve the problem of NMF. Recently there has been interest in investigating conditions under which NMF can be tractably recovered. We note that existing attempts make unrealistic assumptions and often the associated algorithms tend to be not scalable. In this thesis, we make three major contributions: First, we formulate a model of NMF with assumptions which are natural and is a substantial weakening of separability. Unlike requiring a bound on the error in each column of (A BC) as was done in much of previous work, our assumptions are about aggregate errors, namely spectral norm of (A BC) i.e. jjA BCjj2 should be low. This is a much weaker error assumption and the associated B; C would be much more resilient than existing models. Second, we describe a robust polynomial time SVD-based algorithm, UTSVD, with realistic provable error guarantees and can handle higher levels of noise than previous algorithms. Indeed, experimentally we show that existing NMF models, which are based on separability assumptions, degrade much faster than UTSVD, in the presence of noise. Furthermore, when the data has dominant features, UTSVD significantly outperforms existing models. On real life datasets we again see a similar outperformance of UTSVD on clustering tasks. Finally, under a weaker model, we prove a robust version of uniqueness of NMF, where again, the word \robust" refers to realistic error bounds.

Page generated in 0.0246 seconds