• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 7
  • 5
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 42
  • 42
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Power Systems Analysis in the Power-Angle Domain

Arana, Andrew Jex 23 December 2009 (has links)
The idea of performing power systems dynamic analysis in the power-angle domain has been hinted at by previous researchers, but this may be the first published document to develop detailed techniques by which entire power systems can be represented and solved in the power-angle domain. With the widespread deployment of phasor measurement units and frequency data recorders the industry is looking for more real-time analytical tools to turn real-time wide-area measurements into useful information. Applications based on power-angle domain analysis are simple enough that they may be used online. Power-angle domain analysis is similar to DC load-flow techniques in that a flat voltage profile is used and it is assumed that real power and voltage angle are completely decoupled from reactive power and voltage magnitude. The linearized equations for the dynamics of generators and loads are included in the model, which allows the electromechanical response to be solved using conventional circuit analysis techniques. The effect of generation trips, load switching, and line switching can be quickly approximated with nodal analysis or mesh analysis in the power-angle domain. The analysis techniques developed here are not intended to be as accurate as time-domain simulation, but they are simpler and fast enough to be put online, and they also provide a better analytical insight into the system. Power-angle domain analysis enables applications that are not readily available with conventional techniques, such as the estimation of electromechanical propagation delays based on system parameters, the formulation of electromechanical equivalents, modal analysis, stability analysis, and event location and identification based on a small number of angle or frequency measurements. Fault studies and contingency analysis are typically performed with detailed time-domain simulations, where the electromechanical response of the system is a function of every machine in the interconnection and the lines connecting them. All of this information is rarely known for the entire system for each operating condition; as a result, for many applications it may be more suitable to compute an approximation of the system response based on the current operating state of only the major lines and generators. Power-angle domain analysis is adept at performing such approximations. / Ph. D.
22

Exploração visual do espaço de características: uma abordagem para análise de imagens via projeção de dados multidimensionais / Visual feature space exploration: an approach to image analysis via multidimensional data projection

Machado, Bruno Brandoli 13 December 2010 (has links)
Sistemas para análise de imagens partem da premissa de que o conjunto de dados sob investigação está corretamente representado por características. Entretanto, definir quais características representam apropriadamente um conjunto de dados é uma tarefa desafiadora e exaustiva. Grande parte das técnicas de descrição existentes na literatura, especialmente quando os dados têm alta dimensionalidade, são baseadas puramente em medidas estatísticas ou abordagens baseadas em inteligência artificial, e normalmente são caixas-pretas para os usuários. A abordagem proposta nesta dissertação busca abrir esta caixa-preta por meio de representações visuais criadas pela técnica Multidimensional Classical Scaling, permitindo que usuários capturem interativamente a essência sobre a representatividade das características computadas de diferentes descritores. A abordagem é avaliada sobre seis conjuntos de imagens que contém texturas, imagens médicas e cenas naturais. Os experimentos mostram que, conforme a combinação de um conjunto de características melhora a qualidade da representação visual, a acurácia de classificação também melhora. A qualidade das representações é medida pelo índice da silhueta, superando problemas relacionados com a subjetividade de conclusões baseadas puramente em análise visual. Além disso, a capacidade de exploração visual do conjunto sob análise permite que usuários investiguem um dos maiores desafios em classificação de dados: a presença de variação intra-classe. Os resultados sugerem fortemente que esta abordagem pode ser empregada com sucesso como um guia para auxiliar especialistas a explorar, refinar e definir as características que representam apropriadamente um conjunto de imagens / Image analysis systems rely on the fact that the dataset under investigation is correctly represented by features. However, defining a set of features that properly represents a dataset is still a challenging and, in most cases, an exhausting task. Most of the available techniques, especially when a large number of features is considered, are based on purely quantitative statistical measures or approaches based on artificial intelligence, and normally are black-boxes to the user. The approach proposed here seeks to open this black-box by means of visual representations via Multidimensional Classical Scaling projection technique, enabling users to get insight about the meaning and representativeness of the features computed from different feature extraction algorithms and sets of parameters. This approach is evaluated over six image datasets that contains textures, medical images and outdoor scenes. The results show that, as the combination of sets of features and changes in parameters improves the quality of the visual representation, the accuracy of the classification for the computed features also improves. In order to reduce this subjectiveness, a measure called silhouette index, which was originally proposed to evaluate results of clustering algorithms, is employed. Moreover, the visual exploration of datasets under analysis enable users to investigate one of the greatest challenges in data classification: the presence of intra-class variation. The results strongly suggest that our approach can be successfully employed as a guidance to defining and understanding a set of features that properly represents an image dataset
23

Explicit state space verification

Schmidt, Karsten 15 November 2002 (has links)
Gegenstand der Arbeit ist die Verifikation von verteilten diskreten Systemen in bezug auf Spezifikationen ihres Verhaltens. Diskrete Systeme bestehen aus einer abzaehlbaren Zustandsmenge und einer Zustandsuebergangsrelation. Bei verteilten Systemen ist eine signifikante Zahl von Zustandsuebergaengen nur durch eine kleine Zahl von Komponenten eines strukturierten Zustandsraumes bedingt und aendert auch nur wenige Komponenten. Bei praktisch relevanten Systemen ist die Zustandszahl unbeherrschbar gross. Dieses Phaenomen wird Zustandsraumexplosion genannt. Verteiltheit gilt als eine der wesentlichen Ursachen fuer Zustandsraumexplosion, weil nebenlaeufig moegliche lokale Zustandsuebergaenge abhaengig von ihren exponentiell vielen Ausfuehrungsreihenfolgen exponentiell viele verschiedene Zwischenzustaende erzeugen koennen. Fuer Verifikationsaufgaben sind Systeme daher implizit gegeben durch eine Beschreibung von Anfangszustaenden und (lokale) Regeln zur Generierung von Folgezustaenden. Solche Systembeschreibungen folgen verschiedenen Paradigmen, z.B. dem variablenorientierten Paradigma (Zustaende sind Werte von Variablen, die durch Zustandsuebergaenge gelesen und geschrieben werden) oder dem ressourcenorientierten Paradigma (Zustaende sind Verteilungen von Ressourcen im System, die durch Zustandsuebergaenge konsumiert oder produziert werden). Die Verfuegbarkeit von Verifikationstechniken oder spezifischen Implementationen haengt vom zugrundeliegenden Paradigma ab. Als Sprache zur Formulierung von Spezifikationen des Verhaltens verwenden wir etablierte temporale Logiken und fuer die Praxis bedeutsame Fragmente solcher Logiken. Temporale Logik beschreibt Eigenschaften von Abfolgen von Zustaenden, basierend auf elementaren, einzelne Zustaende betreffenden Eigenschaften. Auf einer expliziten Systemdarstellung lassen sich temporallogische Eigenschaften effizient, d.h. mit einer linear von der Zustandszahl abhaengigen Laufzeit, verifizieren. Eine solche Verifikation basiert auf einfachen Suchalgorithmen in dem durch das System definierten Zustandsgraph. Ein solcher Verifikationsansatz ist aber wegen der genannten Zustandsraumexplosion nicht durchfuehrbar. Im wesentlichen werden drei Loesungsansaetze in Richtung durchfuehrbarer Verifikationsalgorithmen verfolgt. Die strukturelle Verifikation versucht, Eigenschaften direkt aus spezifischen Mustern in der impliziten Systembeschreibung abzuleiten. Der derzeitige Stand der Technik gestattet solche Ableitungen nur fuer wenige und einfach strukturierte Verhaltensspezifikationen und erfordert auch dann in einigen Faellen recht aufwendige Berechnungen. Bei der symbolischen Zustandsraumanalyse wird der Zustandsraum erschoepfend durchmustert, allerdings unter Benutzung von Datenstrukturen, deren elementare Objekte ganze Mengen von Zustaenden beschreiben, und deren elementare Operationen die Folgezustaende fuer ganze solche Mengen aus der impliziten Systembeschreibung errechnen. Bei der expliziten Zustandsraumverifikation, dem Thema der vorliegenden Habilitationsschrift, wird eine explizite Repraesentation eines Zustandsraumes generiert, der wesentlich kleiner ist als der Zustandsraum des untersuchten Systems, in bezug auf die untersuchte Eigenschaft aber per Konstruktion aequivalent zum originalen System ist. Zur Konstruktion werden Informationen aus der impliziten Systembeschreibung herangezogen. Eine Technologie zur expliziten Zustandsraumverifikation besteht also aus - Einer mathematisch fundierten Theorie, die einer bestimmten Konstruktionsmethode bescheinigt, welche Eigenschaften durch sie bewahrt werden; - effizienten Algorithmen zur Implementation eine solchen Konstruktion; Die Arbeit enthaelt, fuer mehrere bekannte Verfahren, Beitraege zu jeweils mindestens einem der beiden Bestandteile einer expliziten Zustandsraumverifikationstechnik. Die Methode der sturen Mengen verkleinert den explizit zu konstruierenden Zustandsraum dadurch, dass von den in einem Zustand moeglichen Zustandsuebergaengen nur einige tatsaechlich untersucht werden, so dass weit weniger Zwischenzustaende durch verschiedene Abfolge nebenlaeufiger lokaler Zustandsuebergaenge entstehen. Die zu untersuchenden Uebergaenge werden abhaengig von der zu verifizierenden Eigenschaft und Informationen aus der Systemstruktur so ausgewaehlt, dass zu jeder Klasse von fuer die Eigenschaft relevanten Systemablaeufen wenigstens einer im reduzierten Zustandsraum repraesentiert ist. Die erste 1988 veroeffentlichte Methode diente der Bewahrung von terminalen Zustaenden sowie mindestens eines Pfades unendlicher Laenge. In der Folge wurde diese Technik auf viele andere Klassen von Eigenschaften erweitert, wobei vor allem die Faehigkeit, einen unendlichen Pfad zu bewahren, dahingehend verfeinert wurde, dass gezielt Pfade mit bestimmten Eigenschaften bewahrt werden konnten. Dabei spielte das Konzept unsichtbarer Zustandsuebergaenge eine tragende Rolle, wobei ein unsichtbarer Zustandsuebergang die Eigenschaft hat, dass er keine fuer die Eigenschaft relevanten Zustandskomponenten aendert. Daher war die Anwendung der Methode sturer Mengen begrenzt auf lokale Systemeigenschaften, weil andereseits zu wenige unsichtbare Uebergaenge fuer eine substantielle Reduktion zur Verfuegung stuenden. In der vorliegenden Arbeit setzen wir an der ersten Arbeit zur Methode sturer Mengen an und verfeinern die Faehigkeit, terminale Zustaende zu bewahren, dahingehend, dass nun die Praesenz von Zustaenden mit beliebigen in temporaler Logik formulierbaren Eigenschaften bewahrt werden. Die neue Methode basiert nicht auf der Existenz unsichtbarer Uebergaenge und kann in der Tat auch bei der Verifikation globaler Systemeigenschaften zu substantieller Reduktion fuehren. Das neue Konzept zur Konstruktion des reduzierten Zustandsraumes sind sogenannte UP-Mengen. Eine UP-Menge ist eine Menge von Uebergaengen, von denen mindestens einer in einem Systemablauf von einem Zustand, der die untersuchte Eigenschaft nicht erfuellt, zu einem Zustand, der die Eigenschaft erfuellt, vorkommen muss. Wir geben Algorithmen an, die kleine UP-Mengen fuer beliebige Zustaende aus der impliziten Systembeschreibung und einer Repraesentation der untersuchten Eigenschaft in der temporalen Logik CTL berechnet. Wir zeigen, dass jede Konstruktion, die in einem Zustand alle Uebergaenge in einer schwach sturen Obermenge einer zu dem Zustand berechneten UP-Menge untersucht, alle Zustaende erreicht, die die Eigenschaft besitzen. Dabei ist die Konstruktion schwach sturer Mengen die allen Methoden sturer Mengen gemeinsame Grundkonstruktion. Symmetrische Reduktion verkleinert den zu untersuchenden Zustandsraum dadurch, dass zu jeder Klasse von in bezug auf Symmetrie aequivalenten Zustaenden jeweils nur einer weiterverfolgt wird. Dadurch lassen sich alle gegenueber Symmetrie insensitive Eigenschaften bewahren (wobei man oft Insensitivitaet einer Eigenschaft durch die geeignete Wahl der Symmetrienmenge erreichen kann). Symmetrische Reduktion beinhaltet zwei Probleme, erstens das Aufinden der einem System innewohnenden Symmetrie, und zweitens, zu einem gegebenen Zustand, das Auffinden zu ihm aequivalenter Zustaende in der Menge bereits untersuchter Zustaende. Die meisten vorhandenen Implementationen leiten Symmetrien aus speziellen Datenstrukturen ab, in denen wegen der eingeschraenkten Operationen die verschiedenen Elemente des Typs austauschbar sind. Das Auffinden aequivalenter Zustaende wird durch eine Transformation neu berechnter Zustaende in einen aequivalenten kanonischen Repraesentanten realisert. Alternativ zu diesem Ansatz wurde zur Beschreibung von Symmetrien die Verwendung von Graphautomorphismen auf netzartigen impliziten Systembeschreibungsformen vorgeschlagen. Es zeigt sich, dass per Umwandlung von Datenabhaengigkeiten in Graphrepraesentationen, jede Datentypsymmetrie auch einen Graphautomorphismus bildet, andererseits aber durch Graphautomorphismen Symmetrien beschreibbar sind, die sich in Datentypbetrachtungen nicht wiederfinden lassen. Diese zusaetzlichen Symmetrien erlauben eine staerkere Reduktion des Zustandsraumes. Zur Graphautomorphismentechnik fehlten bislang leistungsfaehige Algorithmen zur Umsetzung dieser Technologie. Wir setzen an der auf Graphautomorphismen basierenden Methode an und unterlegen alle Teilprobleme mit leistungsfaehigen Algorithmen. Die Berechnung der Automorphismen beschraenken wir auf ein Erzeugendensystem, das polynomiell viele Elemente, gemessen an der Groesse der impliziten Systembeschreibung, hat. Die Berechnung selbst ist schlimmstenfalls exponentiell, was nicht verwundert, weil das Problem mit einem Entscheidungsproblem eng korreliert, von dem bekannt ist, dass es in der Klasse NP, aber unbekannt, ob es NP-vollstaendig oder in P liegt. Diese Eigenschaft hat dem Problem eingehende Untersuchung zuteil werden lassen, wegen der nach wie vor offenen "P ungleich NP?"-Frage. Trotzdem ist kein polynomieller Algorithmus bekannt. Umso erfreulicher ist es, dass unser Berechnungsalgorithmus sich auf realistischen Beispielen bisher durchweg polynomiell verhielt, und lediglich bei eigens konstruierten Systemen ins Exponentielle ausriss. Fuer die Loesung des Problems, aequivalente bereits bekannte Zustaende aufzuspueren, schlagen wir mehrere Techniken vor und beschreiben ihre Leistungsfaehigkeit abhaengig von der Struktur der innewohnenden Symmetrie. Fuer duenne Symmetriegruppen (wenige symmetrische Transformationen) eignet sich eine Technik, bei der die Symmetrien der Reihe nach aus dem Erzeugendensystem generiert werden, und das symmetrische Bild des neuen Zustandes mit der Menge der bekannten Zustaende verglichen wird. Dabei koennen wir, abhaengig vom Ausgang einer solchen Ueberpruefung, die Generierung von Symmetrien unterdruecken, von denen aus vorhandenen Informationen klar ist, dass sie keinesfalls zum Erfolg fuehren. Dadurch kann eine erhebliche Effizienzsteigerung erzielt werden. Bei einer zweiten Technik iterieren wir die bekannten Zustaende, genauer gesagt, diejenigen Zustaende, die fuer eine die Symmetrie respektierende Hashfunktion denselben Wert liefert wie der neue Zustand, ob es eine Symmetrie gibt, die beide Zustaende ineinander ueberfuehrt. Das verbleibende Problem kann durch eine Adaption des Symmetrieberechnungsverfahrens geloest werden. Eine vorherige Berechnung des Erzeugendensystems kann entfallen. Die dritte vorgeschlagene Technik benutzt das Erzeugendensystem, um den neuen Zustand approximativ in einen kanonischen aequivalenten Zustand zu ueberfuehren. Diese Technik ist von allen beschriebenen Methoden die effizienteste, liefert aber groessere Zustandsraeume als die beiden anderen Techniken. Wir studieren die Vor- und Nachteile aller Techniken anhand mehrerer Beispielsysteme. Die dritte in der Arbeit behandelte Technik ist die Methode der Ueberdeckbarkeitsgraphen. Sie ist spezifisch fuer die ressourcenbasierte Systembeschreibungsform der Petrinetze. Sie diente urspruenglich zur Aufspuerung von Stellen im System, an denen sich unbeschraenkt viele Ressourcen ansammeln koennen. Formal ist ein Ueberdeckbarkeitsgraph eine endliche Abstraktion eines Systems mit bis zu unendlich vielen Zustaenden. Von nur wenigen Eigenschaften war bekannt, dass sie sich aus dem Ueberdeckbarkeitsgraphen ableiten lassen. Wir formulieren Regeln zur Auswertung von Ueberdeckbarkeitsgraphen, mit deren Hilfe es moeglich ist, eine Vielzahl von in temporaler Logik formulierten Eigenschaften aus dem Ueberdeckbarkeitsgraph abzuleiten. Diese Reglen sind inhaerent unvollstaendig, da bekannt ist, dass fuer viele Eigenschaften es Paare von Systemen gibt, die isomorphe Ueberdeckbarkeitsgraphen liefern, sich aber in bezug auf die Eigenschaft verschieden verhalten. Fuer universelle Eigenschaften des CTL-Fragments ACTL erhalten wir Bewahrungsresultate durch das Ausweisen einer Simulationsrelation zwischen dem originalen System und seinem Ueberdeckbarkeitsgraph. Fuer existentielle Eigenschaften basieren unsere Resultate auf einer Abschwaechung der Erfuellbarkeitsrelation ueber Zustaenden des Ueberdeckbarkeitsgraphen. Einem Zustand des Ueberdeckbarkeitsgraphen entsprechen divergierende Folgen von Zustaenden des Originalgraphen. Normalerweise schreibt man einem Zustand des Ueberdeckbarkeitsgraphen dann eine Eigenschaft zu, wenn alle Folgenglieder im Originalsystem die Eigenschaft besitzen. Wir arbeiten dagegen mit einem Begriff, wo Gueltigkeit der Eigenschaft nur fuer fast alle Folgenglieder gefordert wird. Eine letzte Gruppe von Techniken ist bisher in der Zustandsraumverifikation nicht eingestzt worden, aber aus der strukturellen Verifikation fuer Petrinetze bekannt. Zu einem Petrinetz kann eine ganzzahlige Inzidenzmatrix C gebildet werden, mit deren Hilfe ein linear-algebraischer Zusammenhang zwischen voneinander errichbaren Zustaenden hergestellt werden kann. Stellen- und Transitionsinvarianten sind Loesungen der durch C-T bzw. C definierten homogenen Gleichungssysteme. Dabei dienen Stelleninvarianten gewoehnlich einer Abschaetzung der Menge der erreichbaren Zustaende nach oben, mit daraus resultierenden Moeglichkeiten der Ableitung von Eigenschaften, waehrend Transitionsinvarianten Zyklen im Zustandsraum charakterisieren. Wir verwenden Stelleninvarianten zur Kompression von einzelnen Zustaenden. Durch Stelleninvarianten lassen sich einige Komponenten in einen funktionalen Zusammenhang zu den verbleibenden Komponenten stellen. Dadurch ist auch nach dem Streichen der funktional abhaengigen Stellen der Zustand noch eindeutig determiniert. Wir zeigen, dass bei der Konstruktion des Zustandsraumes ein durch die verbleibenden Stellen gebildeter "Fingerabdruck" ausreicht. Transitionsinvarianten verwenden wir dazu, eine Menge von Zustaenden so auszuzeichnen, dass jeder Zyklus im Zustandsraum mindestens einen ausgezeichneten Zustand enthaelt. Darufhin speichern wir noch noch ausgezeichnete Zustaende permanent, sparen also Speicherplatz. Fuer nicht ausgezeichnete Zustaende kann es passieren, dass sie mehrmals aufgesucht werden (auf verschiedene Weise aus Vorgaengerzustaenden entstehen). Weil sie nicht gespeichert sind, werden auch wiederholt ihre Nachfolgezustaende untersucht. Da in jedem Kreis mindestens ein ausgezeichneter, also permanent zu speichernder Zustand enthalten ist, entstehen durch diese wiederholte Berechnung keine Probleme in bezug auf Terminierung des Verfahrens, wohl aber erhebliche Laufzeiteinbussen. Wir schlagen Methoden zur Begrenzung der Laufzeiteinbussen um den Preis weiterer zu speichernder Zustaende vor. Fuer alle untersuchten Methoden studieren wir die Abhaengigkeit der Anwendbarkeit und Effizienz der Methode von dem der gegebenen impliziten Systembeschreibung zugrundeliegenden Paradigma. Wir untersuchen ebenfalls die Kompatibilitaet der Verfahren mit verschiedenen Strategien zur Generierung des Zustandsraumes (Tiefe zuerst, Breite zuerst, verteilt) und Moeglichkeiten der gemeinsamen Anwendung verschiedener Techniken. / Verification is the task of determining whether a (model of a) system holds a given behavioral property. State space verification comprises a class of computer aided verification techniques where the property is verified through exhaustive exploration of the reachable states of the system. Brute force implementations of state space verification are intractable, due to the well known state explosion problem. Explicit state space verification techniques explore the state space one state at a time, and rely usually on data structures where the size of the data structure increases monotonously with an increasing number of explored states. They alleviate state explosion by constructing a reduced state space that, by a mathematically founded construction, behaves like the original system with respect to the specified properties. Thereby, decrease of the number of states in the reduced system is the core issue of a reduction technique thus reducing the amount of memory required. An explicit state space verification technique comprises of - a theory that establishes whether, and how, certain properties can be preserved through a construction of a reduced state space; - a set of procedures to execute the actual construction efficiently. In this thesis, we contribute to several existing explicit state space verification techniques in either of these two respects. We extend the class of stubborn set methods (an instance of partial order reduction) by constructions that preserve previously unsupported classes of properties. Many existing constructions rely on the existence of "invisible" actions, i.e. actions whose effect does not immediately influence the verified property. We propose efficient constructions that can be applied without having such invisible actions, and prove that they preserve reachability properties as well as certain classes of more complex behavioral system properties. This way, so called "global" properties can now be approached with better stubborn set methods. We pick up a graph automorphism based approach to symmetry reduction and propose a set of construction algorithms that make this approach feasible. In difference to established symmetry techniques that rely on special "symmetry creating" data types, a broader range of symmetries can be handled with our approach thus obtaining smaller reduced state spaces. Coverability graph construction leads to a finite representation of an infinite state space of a Petri net by condensing diverging sequences of states to their limit. We prove rules to determine temporal logic properties of the original system from its coverability graph, far beyond the few properties known to be preserved so far. We employ the Petri net concept of linear algebraic invariants for compressing states as well as for leaving states out of explicit storage. Compression uses place invariants for replacing states by smaller fingerprints that still uniquely identify a state (unlike many hash compression techniques). For reducing the number of explicitly stored states, we rely on the capability of Petri net transition invariants to characterize cycles in the state space. For termination of an exhaustive exploration of a finite state space, it is sufficient to cover all cycles with explicitly stored states. Both techniques are easy consequences of well known facts about invariants. As a novel contribution, we observe that both techniques can be applied without computing an explicit representation of (a generating set for) the respective invariants. This speeds up the constructions considerably and saves a significant amount of memory. For all presented techniques, we illustrate their capabilities to reduce the complexity of state space reduction using a few academic benchmark examples. We address compatibility issues, i.e. the possibility to apply techniques in combination, or in connection with different strategies for exploring the reduced state space. We propose a scheme to distribute state space exploration on a cluster of workstations and discuss consequences for using this scheme for state space reduction. We collect observations concerning the impact of the choice of system description formalisms, and property specification languages, on the availability of explicit state space verification techniques.
24

Värdering av bostadsmiljöer i medelstora städer : En metod att mäta upplevelse

Olsson, Lisa, Råsmark, Matilda January 2011 (has links)
Examensuppsatsen syftar på att utreda hur folk uppfattar en bostadsmiljö av en viss karaktär utifrån de konstvetenskapliga områdena arkitektur och bebyggelsemönster. En undersökning genomförs där allmänheten värderar tio områden från tre olika städer. Resultatet presenteras bland annat med hjälp av polära diagram, i diagrammet bildas en värderos, vars bild illustrerar den upplevda känslan av området. / The undergraduate thesis aims to investigate how people perceive a residential environment of a particular character based on the art of scientific fields of architecture and urban design. A survey is carried out, in which the public evaluate ten areas from three different cities. The results are presented by the use of polar diagrams, the values forms an image which illustrates the perceived sensation of the area.
25

Architecting aircraft power distribution systems via redundancy allocation

Campbell, Angela Mari 12 January 2015 (has links)
Recently, the environmental impact of aircraft and rising fuel prices have become an increasing concern in the aviation industry. To address these problems, organizations such as NASA have set demanding goals for reducing aircraft emissions, fuel burn, and noise. In an effort to reach the goals, a movement toward more-electric aircraft and electric propulsion has emerged. With this movement, the number of critical electrical loads on an aircraft is increasing causing power system reliability to be a point of concern. Currently, power system reliability is maintained through the use of back-up power supplies such as batteries and ram-air-turbines (RATs). However, the increasing power requirements for critical loads will quickly outgrow the capacity of the emergency devices. Therefore, reliability needs to be addressed when designing the primary power distribution system. Power system reliability is a function of component reliability and redundancy. Component reliability is often not determined until detailed component design has occurred; however, the amount of redundancy in the system is often set during the system architecting phase. In order to meet the capacity and reliability requirements of future power distribution systems, a method for redundancy allocation during the system architecting phase is needed. This thesis presents an aircraft power system design methodology that is based upon the engineering decision process. The methodology provides a redundancy allocation strategy and quantitative trade-off environment to compare architecture and technology combinations based upon system capacity, weight, and reliability criteria. The methodology is demonstrated by architecting the power distribution system of an aircraft using turboelectric propulsion. The first step in the process is determining the design criteria which includes a 40 MW capacity requirement, a 20 MW capacity requirement for the an engine-out scenario, and a maximum catastrophic failure rate of one failure per billion flight hours. The next step is determining gaps between the performance of current power distribution systems and the requirements of the turboelectric system. A baseline architecture is analyzed by sizing the system using the turboelectric system power requirements and by calculating reliability using a stochastic flow network. To overcome the deficiencies discovered, new technologies and architectures are considered. Global optimization methods are used to find technology and architecture combinations that meet the system objectives and requirements. Lastly, a dynamic modeling environment is constructed to study the performance and stability of the candidate architectures. The combination of the optimization process and dynamic modeling facilitates the selection of a power system architecture that meets the system requirements and objectives.
26

Metodologias para estimativa da dimensão fractal do crescimento de aglomerados urbanos: uma contribuição ao estudo da expansão urbana da região metropolitana de São Paulo entre 1905 e 2001

Marques, Mara Lúcia [UNESP] 23 May 2005 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:27Z (GMT). No. of bitstreams: 0 Previous issue date: 2005-05-23Bitstream added on 2014-06-13T20:40:22Z : No. of bitstreams: 1 marques_ml_dr_rcla.pdf: 4034507 bytes, checksum: 74bcd4b249cb65dbe434b718494640ab (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este estudo teve como propósito principal aplicar e avaliar metodologias para análise fractal da expansão de espaços urbanos metropolitanos, tendo como caso o aglomerado da região metropolitana de São Paulo, Brasil. O estudo foi realizado a partir de mapas temáticos e imagens orbitais relativos ao período 1905-2001, aos quais foram aplicados três métodos para a estimativa da dimensão fractal: densidade de preenchimento (Dd), perímetro-área (DPA) e perímetro-resolução (DPR). A partir da análise fractal dos mapas e imagens, foram avaliados a dinâmica temporal do preenchimento dos vazios urbanos e da expansão multidirecional do perímetro urbano. Os resultados mostraram que o aglomerado urbano como um todo, apresentou no período analisado, valores médios Dd (1,755) ou tendência de preenchimento das áreas centrais e diluição das periféricas; DPA (1,400) ou sinuosidade do perímetro urbano a medida em que estas áreas foram ocupadas e DPR (1,859) ou limitada organização espacial das estruturas urbanas. A análise fractal multidirecional de crescimento foi realizada em oito setores radiais de expansão urbana, cujos valores médios do parâmetro Dd no período 1905-2001 são abaixo mencionados: (I) Cantareira=1,829; (II) Zona Leste=1,898; (III) Mauá=1,848; (IV) Ipiranga=1,852; (V) Billings=1,858; (VI) Santo Amaro/Interlagos=1,848; (VII) Castelo Branco/Anhanguera=1,859 e (VIII) Anhanguera/Bandeirantes=1,863. Dentre os fatores que influenciaram o comportamento fractal destes setores, destaca-se a ocupação fragmentada pela topografia, hidrografia e restrições jurídico-ambientais nos setores I, III, IV, V, VI e VIII e, nos setores II, III, IV, VI e VII a maior densificação foi impulsionada por incentivos públicos e de infra-estrutura, que contribuíram para a concentração industrial e de serviços. / The aim of this research is to evaluate and apply fractal dimension analysis methodologies to study the growing of metropolitan areas, using thematic maps and satellite images of time series. The Sao Paulo metropolitan area it was choose as test area to calculate fractal dimension variability over 96 years time series (1905-2001). Fractal dimension of the metropolitan area as a whole and urban expansion radial sectors it was calculated using the following fractal dimension methods: occupation urban density (Dd); area-perimeter (DPA) and perimeter -scale- (DPR). The study was accomplished to thematic maps and orbital images from 1905 to 2001 that supplied information to estimate fractal dimensions from relations of density (Dd), areaperimeter and perimeter-scale (DPR). Fractal dimension of maps and images were to evaluate the time oscillation of empty urban spaces and the radial growing of urban perimeter. Over period analyzed, urban agglomeration as a whole show means values of Dd = 1.755 - a trend to fill central areas and dilution of occupation density at peripheral ones; DPA = 1.400 - related to tortuous urban boundary at time the urban peripheries were occupied; and DPR = 1.859 related to low spatial organization of urban structures. The radial growing fractal analysis was accomplished to eight urban radial sectors, whose show means values of Dd parameter over 1905-2001, as following:(I) Cantareira =1.829; (II) East Zone =1.898; (III) Máua=1.848; (IV) Ipiranga=1.852; (V) Billings=1.858; (VI) Santo Amaro/Interlagos =1.848; (VII) Castelo Branco /Anhanguera=1.859; e (VIII) Anhanguera/Bandeirantes =1.863. Among determinants factors on fractal behavior of sectors I, III, IV, V, VI e VIII, the results show the topographical, hydrographical and environment-legal constraints influenced the fragmented occupation and; for sectors II, III, IV, VI e VII... (Complete abstract, click eletronic address below).
27

Exploração visual do espaço de características: uma abordagem para análise de imagens via projeção de dados multidimensionais / Visual feature space exploration: an approach to image analysis via multidimensional data projection

Bruno Brandoli Machado 13 December 2010 (has links)
Sistemas para análise de imagens partem da premissa de que o conjunto de dados sob investigação está corretamente representado por características. Entretanto, definir quais características representam apropriadamente um conjunto de dados é uma tarefa desafiadora e exaustiva. Grande parte das técnicas de descrição existentes na literatura, especialmente quando os dados têm alta dimensionalidade, são baseadas puramente em medidas estatísticas ou abordagens baseadas em inteligência artificial, e normalmente são caixas-pretas para os usuários. A abordagem proposta nesta dissertação busca abrir esta caixa-preta por meio de representações visuais criadas pela técnica Multidimensional Classical Scaling, permitindo que usuários capturem interativamente a essência sobre a representatividade das características computadas de diferentes descritores. A abordagem é avaliada sobre seis conjuntos de imagens que contém texturas, imagens médicas e cenas naturais. Os experimentos mostram que, conforme a combinação de um conjunto de características melhora a qualidade da representação visual, a acurácia de classificação também melhora. A qualidade das representações é medida pelo índice da silhueta, superando problemas relacionados com a subjetividade de conclusões baseadas puramente em análise visual. Além disso, a capacidade de exploração visual do conjunto sob análise permite que usuários investiguem um dos maiores desafios em classificação de dados: a presença de variação intra-classe. Os resultados sugerem fortemente que esta abordagem pode ser empregada com sucesso como um guia para auxiliar especialistas a explorar, refinar e definir as características que representam apropriadamente um conjunto de imagens / Image analysis systems rely on the fact that the dataset under investigation is correctly represented by features. However, defining a set of features that properly represents a dataset is still a challenging and, in most cases, an exhausting task. Most of the available techniques, especially when a large number of features is considered, are based on purely quantitative statistical measures or approaches based on artificial intelligence, and normally are black-boxes to the user. The approach proposed here seeks to open this black-box by means of visual representations via Multidimensional Classical Scaling projection technique, enabling users to get insight about the meaning and representativeness of the features computed from different feature extraction algorithms and sets of parameters. This approach is evaluated over six image datasets that contains textures, medical images and outdoor scenes. The results show that, as the combination of sets of features and changes in parameters improves the quality of the visual representation, the accuracy of the classification for the computed features also improves. In order to reduce this subjectiveness, a measure called silhouette index, which was originally proposed to evaluate results of clustering algorithms, is employed. Moreover, the visual exploration of datasets under analysis enable users to investigate one of the greatest challenges in data classification: the presence of intra-class variation. The results strongly suggest that our approach can be successfully employed as a guidance to defining and understanding a set of features that properly represents an image dataset
28

Podnikatelský záměr - rozšíření Hostelu u Minoritů / Entrepreneurial Project - Expansion of the Hostel u Minoritů

Bertelová, Sandra January 2013 (has links)
The aim of the thesis is to compile a business plan for extending the accommodation space in the enterprise called “Hostel u Minoritů”, focused on providing short-term accommodating service. The premises of the establishment are currently located in the second floor of the private house at the Minoritská Street 10. The extending involves the whole third floor of the same building. Based on theoretical knowledge and acquired facts, the thesis suggests the form of the execution of the changes and the economical evaluation.
29

Chemical Bonding Models and Their Implications for Bonding-Property Relations in MgAgAs-Type and Related Compounds: A Quantum-Chemical Position-Space Study

Bende, David 06 April 2016 (has links)
In this work, chemical bonding models are developed and extended by the aid of the quantum-chemical position-space analysis. The chemical bonding models are then utilized to rationalize and predict the structure and conducting properties of MgAgAs-type and other intermetallic compounds. Additionally, new position-space bonding indicators are developed.
30

Krize veřejného prostoru a pokusy o jeho revitalizaci / The Crisis of the Public Space and the Attemps to Revitalize It

Andělová, Tereza January 2016 (has links)
The thesis called Crisis of public space and the attempts for its revitalisation is trying to analyse public space from the perspective of urban anthropology and sociology and it introduces the role of semiotics in this issue. It presents the crisis of public space and tries to uncover the causes and possible solutions. It opposes the modernistic concepts of the city which looked away from the human aspect and focuses on everyday life of people in urban space. The thesis adverts to the necessity of blending various fields which deal with the issue of public space and perceiving the city as a whole. It takes notice of the mutual relationship of space and people, of creating individual's identity and character of the society based on the environment which surrounds it and at the same time the possibility for everyone to participate in changing their surroundings, mind patterns and perception. At first, this thesis addresses the issue of the definition of public space, presents the fundamental theoretical publications dealing with its origin and crisis. Then it in detail describes the characteristics of the city, analyses the demand for good-quality space and takes notice of the tendencies that threaten public space. In terms of the attempts to revitalize public space, this thesis points out the...

Page generated in 0.0687 seconds