• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 187
  • 147
  • 48
  • 26
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 485
  • 485
  • 149
  • 146
  • 88
  • 65
  • 64
  • 61
  • 55
  • 55
  • 53
  • 52
  • 51
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Consideração da confiabilidade humana na concepção de sistemas complexos: desenvolvimento e aplicação da TECHR. / Consideration of human reliability in complex systems design: development and application of TECHR.

Maturana, Marcos Coelho 20 February 2017 (has links)
A APS (Análise Probabilística de Segurança) de instalações industriais é assunto que evoluiu com a complexidade dos sistemas. A princípio, foram desenvolvidas ferramentas e técnicas com o propósito de analisar plantas já instaladas, possibilitando a identificação de fenômenos e mecanismos de falha desconhecidos até então. Com a evolução dos estudos dos acidentes, foram desenvolvidas técnicas aplicáveis às fases pré-operacionais com o propósito de diminuir os riscos na operação. Observa-se, portanto, um bom número de técnicas ideais para analisar projetos prontos ou em fase de conclusão. O mesmo não é observado para a fase de concepção. Apesar disto, cada vez mais especialistas na área de risco propõem que as considerações de segurança são mais eficazes quando ponderadas ao longo de toda a vida dos sistemas críticos. O estudo das APS realizadas no mundo em várias indústrias ajuda a entender o consenso sobre a contribuição potencial destas análises no desenvolvimento de novos sistemas. Para explorar este potencial, é essencial a elaboração de processos e modelos prospectivos que sejam simples, quantitativos, realistas, capazes de alimentar análises no estágio de projeto e que tragam resultados que possam ser interpretados pelos profissionais envolvidos no processo decisório. Estas considerações são extensíveis à ACH (Análise de Confiabilidade Humana), i.e., poucas são as ferramentas que ponderam aspectos operacionais, em especial o desempenho humano, na fase de projeto. A reconhecida contribuição do fator humano em acidentes envolvendo sistemas complexos - por vezes atribuída à falta de ferramentas adequadas para sua consideração na fase de projeto - evidencia ainda mais esta lacuna. Neste contexto, esta tese apresenta o desenvolvimento de uma metodologia e de uma técnica para a consideração precoce da confiabilidade humana na concepção de sistemas complexos, sendo que: 1) o desenvolvimento desta metodologia primou pela facilidade de entendimento de suas etapas e resultados, i.e., procurou-se a inteligibilidade para as pessoas envolvidas no projeto, sendo especialistas em ACH ou não, e; 2) a TECHR (Technique for Early Consideration of Human Reliability) foi concebida com o propósito de desenvolver um modelo prospectivo para o desempenho humano que possa ser explorado na fase de concepção de sistemas, e se baseia no aproveitamento da opinião de especialistas em relação a sistemas que operam ou operaram nos últimos anos para obter estimativas das probabilidades dos diversos tipos de erro humano que podem ocorrer durante a execução de uma ação específica. A metodologia proposta e a TECHR resultam em um procedimento simples e capaz de produzir modelos extremamente úteis na fase de projeto, representando uma contribuição original para o estado da arte da concepção de sistemas baseada em dados incertos. / PSA (Probabilistic Safety Assessment) is an industrial plant issue that has evolved with the complexity of systems. Initially, tools and techniques have been developed with the main purpose of analyzing operational plants, enabling the identification of phenomena and fault mechanisms hitherto not highlighted. With the evolution of accidents studies, some techniques applicable to pre-operational phases were developed in order to reduce the risks in operation. Therefore, a number of techniques adequate to analyze ready or near completion designs can be found. The same is not observed for the early design phase. Despite this, more and more experts in the risk assessment field suggest that safety considerations are most effective when assessed over the whole life of critical systems. Probabilistic safety analyses performed worldwide in various industries help us understand the consensus on the potential contribution of these analyses for developing new systems. To exploit this potential, it is essential to develop processes and prospective models that are simple, quantitative, realistic, able to feed analyses at the design stage and to bring results that can be interpreted by the professionals involved in the decision making process. These considerations are extended to HRA (Human Reliability Analysis), i.e., there are few tools that consider operational aspects, especially human performance, during the design phase. The recognized contribution of the human factor in accidents involving complex systems - sometimes attributed to the lack of suitable tools for its consideration in the design phase - further highlights this gap. In this context, this thesis presents a methodology and a technique developed for the early consideration of human reliability in complex systems design, and: 1) the development of this methodology has prioritized the easy understanding of its steps and results, i.e., its intelligibility for people involved in the system design has been sought, with expertise in HRA or not, and; 2) the technique for early consideration of human reliability (TECHR) was designed for developing a prospective human performance model that can be exploited in the system design phase, and is based on the use of expert opinion in relation to systems that operate or have operated in recent years to obtain estimates of the probabilities of the various types of human error that may occur during the performance of a specific action. The proposed methodology and technique result in a simple procedure capable of producing useful models for the design phase, representing an original contribution to the state of the art of systems conception under uncertainty.
292

Estudo das propriedades e robustez da rede de transporte público de São Paulo / Study of properties and robustness of the public transport network of São Paulo

Sousa, Sandro Ferreira 08 June 2016 (has links)
Sistemas Complexos são característicos por possuir uma rede interna representando o relacionamento estrutural entre seus elementos e uma forma natural de interpretar essa interação é através de um grafo. Neste trabalho, o sistema de transporte público urbano de São Paulo é reinterpretado de forma acoplada (ônibus e metrô juntos) como uma rede complexa, abstraindo detalhes operacionais e focando na conectividade. Pelo grafo empiricamente gerado, é feita uma caraterização estatística nas métricas de redes complexas, onde diferentes valores de raio de distância são usados para agrupar pontos e estações próximas que antes se apresentavam desconectados. Esse agrupamento pode ser interpretado como uma ferramenta de política pública, representando a disposição do usuário em se locomover ao ponto mais próximo para acessar o transporte. O processo mostrou que aumentar essa disposição gera grande redução na distância e número de passos entre ônibus, trens e linhas de metrô para atingir todos os destinos da rede. É utilizado um modelo exploratório que testa a robustez da rede aleatoriamente, deterministicamente e probabilisticamente tendo como alvo pontos e linhas. De acordo com os raios de agrupamento, definido como disposição, diferentes valores de fragmentação foram obtidos diante dos ataques simulados. Esses resultados suportam duas principais características observadas na literatura de redes deste tipo: possuem um elevado grau de robustez à falhas aleatórias, mas são vulneráveis a ataques tendo como alvo nós ou links importantes / Complex systems are characteristic by having an internal network representing the structural relationship between its elements and a natural way to interpret this interaction is through a graph. In this work, the urban public transport system of São Paulo is reinterpreted as a coupled (bus and subway) complex network, bypassing operational details and focusing on connectivity. Using the empirically generated graph, a statistical characterisation is made by network metrics where different radius values are used to group nearby stops and stations that were disconnected before. That can be interpreted as a public policy tool, representing the user\'s willingness to get around the nearest point to access transportation. This process has shown that increasing this willingness generates great reduction in the distance and in the number of jumps between buses, trains and subways lines to achieve all the network destinations. An exploratory model is used to test the robustness of the network by randomly, deterministically and preferentially targeting the stops and service lines. According to the grouping radius, aka willingness, different fragmentation values were obtained under attack simulations. These findings support two main characteristics observed in such networks literature: they have a high degree of robustness to random failures, but are vulnerable to targeted attacks
293

Fronteiras permeáveis entre a arquitetura e a biologia: processos de projeto digital / Permeable boundaries between architecture and biology: digital design processes

Nascimento, Anelise Ventura 28 May 2015 (has links)
A pesquisa visa a estudar as inter-relações1 entre os processos de projeto da arquitetura contemporânea, mediados por tecnologia computacional, e os processos da biologia, com o olhar sob os conceitos da ecologia, apoiados na teoria dos sistemas e na cibernética. As análises pretendem relacionar questões de âmbitos teórico e prático, dentro da observação dos processos de projeto, por meio das seguintes etapas: 1. Introdução e compreensão das atuais mudanças de paradigma nas áreas da biologia, ecologia e ciência da computação, que influenciam diretamente os modos de produção de informação nos processos de projeto digital em arquitetura; 2. Reflexões sobre a teoria da cibernética e sistemas complexos como costuradores dos processos biológicos aos processos de projeto de arquitetura, com implicações em emergência e inovação em arquitetura e 3. Análises práticas da integração de processos de projeto e produção digitais recorrentes das interrelações da arquitetura com a biologia. / The research aims to study the interrelationship between the contemporary architecture design processes, mediated by computer technology and the biology processes, with a view under the concepts of ecology, supported on system theory and cybernetics. The analyzes aim to relate issues on the spheres of theory and practice, within the observation of design processes, through the following steps: 1. Introduction and understanding of the current paradigm shifts in biology, ecology and computer science, which directly holds the modes of producing information in architecture digital design processes; 2. Thoughts on cybernetic theory and complex systems like links between biological processes and architectural design processes, with implications in emergence and innovation in architecture 3. Analyses of study cases about design processes and digital production integration recurrent from the interrelationship between architecture and biology.
294

Simulação baseada em agentes para análise econômica de sistemas de apoio à decisão hospitalar em indicação de Unidades de Terapia Intensiva / Economic analysis of hospitalar intensive care indications using decision suport systems through agent based simulation

Guimarães, Gabriel Magalhães Nunes 21 October 2014 (has links)
Sistemas gerenciais em estabelecimentos de saúde podem ser considerados sistemas complexos, tendo em vista interação entre diferentes tipos de agentes na tomada de decisão (médico, paciente, gestor, entre outros), observação de transições de fase em epidemiologia, emergência de padrões de comportamento auto-organizado entre profissionais de saúde e incertezas quanto ao desfecho em saúde pós-tratamento. Em geral, os sistemas de apoio à decisão médica buscam maximizar resultados positivos e minimizar riscos em saúde aos pacientes, assim como propor diretrizes terapêuticas padronizadas e controlar custos em saúde. Há evidências de diferenças nos custos e benefícios derivados de sistemas decisórios Bayesianos centralizados (única distribuição a priori) e descentralizados (uma distribuição a priori por médico) aplicados ao processo de decisão de reserva de leito de Unidades de Terapia Intensiva (UTI) para períodos pós-operatórios. A existência de interação entre médicos com diferentes papéis no sistema decisório de indicação de UTI requer técnicas sofisticadas de avaliação econômica para comparação de vantagens e desvantagens associadas sistemas decisórios Bayesianos centralizados e descentralizados; tendo em vista que a aplicação de técnicas simples, como árvores de decisão ou cadeias de Markov, podem apresentar resultados imprecisos. Os objetivos deste estudo foram analisar a relação custo-benefício de sistemas de apoio à decisão médica centralizados e descentralizados para indicação de reserva de leito de UTI pós-operatório da perspectiva do sistema de saúde. Foi utilizada modelagem baseada em agentes, a partir de simulação de agentes usando raciocínio e atualização de crenças Bayesianos implementada no software NetLogo com análise de sensibilidade em Behavior Space. O modelo de decisão descentralizada apresenta benefício três vezes superior ao modelo centralizado (R$600 contra R$200). O modelo decisório descentralizado apresenta melhor razão custo-benefício ao sistema de saúde, permitindo maior flexibilidade na decisão médica e adaptabilidade dos agentes a diferentes situações. / Management systems in health facilities may be considered complex systems, due to the interaction among different types of agents in the decision process (physician, patient, manager, among other), observation of phase transitions in epidemiology, emergence of patterns in self-organized behavior among health professionals, and uncertainty in relation to health outcomes after treatment. In general, the medical decision support systems seek to maximize positive results and minimize risks in health to patients, as well as to propose standard therapeutic guidelines and to control the treatment costs. There are evidences of differences in costs and benefits derived from centralized (unique distribution a priori) and decentralized (one distribution a priori for each physician) Bayesian decision systems applied to the process related to decision of post-operatory booking of hospital beds in Intensive Care Unit (ICU). The existence of interaction among physicians in different roles in the decision system for ICU indication requires sophisticated techniques in economic evaluation for comparison of advantages and disadvantages associated to centralized and decentralized Bayesian decision systems; since other techniques, as decision trees and Markov chains, may present imprecise results. The objective of this study was to analyze the cost-benefit ratio of centralized and decentralized medical decision support systems for indication of booking of ICU beds in post-operatory period using the perspective of the health system. One agent-based model was applied, using simulation of agents based on Bayesian reasoning and beliefs updating implemented in the software NetLogo with sensitivity analysis in Behavior Space. The decentralized decision model presents benefits three times higher than the centralized decision model (US$270.27 versus US$90.09). The decentralized decision model presents better cost-benefit ratio to the health system, allowing enhanced flexibility in the medical decision process and adaptability of the agents to different situations.
295

Estratégias de preço na difusão de inovação: simulação baseada em agentes aplicado ao mercado brasileiro de carros elétricos / Pricing strategies at innovation diffusion process: Agent-based model simulation applied to Brazilians market of electric car

Cha, Paulo Yun 29 January 2016 (has links)
No contexto dos sistemas complexos, o presente trabalho investiga 3 estratégias de precificação:(1)desnatação,(2) penetração e (3)aprendizado, na difusão de carros elétricos em diferentes contextos.Por meio da modelagem baseada em agentes com 100.000 entidades autônomas, o primeiro modelo testa três situações relacionados à demanda energética:(1)desabastecimento,(2)estabilidade e (3)crescimento moderado da demanda.A forte escassez de energia estimulou a rápida migração dos agentes aos carros elétricos. As três estratégias de precificação exibiram resultados similares em termos de faturamento e % na participação do mercado, no entanto a estratégia de penetração foi capaz de capturar uma parcela maior do mercado em menor tempo.No segundo modelo,3 diferentes comportamentos sociais são aplicadas aos agentes: (1)conservador,(2)racional e (3) social,em diferentes proporções afim de avaliar a influência da composição social na dinâmica difusora.No que concerne ao faturamento e % na participação do mercado, o segundo modelo detectou diferenças estatisticamente significativas para cada estratégia de precificação.Em sociedades proeminentemente conservadoras, as três estratégias não apresentaram indícios de diferença significativa no tocante relação ao faturamento,% na participação final do mercado e taxa de adoção média.Sociedades compostas majoritariamente por agentes racionais, apresentaram a mais rápida convergência aos carros elétricos,sendo este, o veículo mais caro.Isto se deve à percepção positiva do custo/benefício ao longo prazo.O maior faturamento é proveniente das sociedades compostas preponderantemente por agentes com atitudes sociais dado à compra e troca mais recorrente entre diferentes veículos no decorrer das interações.A estratégia de desnatação demonstrou maior versatilidade ao exibir performance superior com maior regularidade no que tange em faturamento em todas as composições sociais testadas.A estratégia de penetração exibiu índices maiores em taxa de adoção e faturamento em redes compostas integralmente por agentes com comportamentos sociais iguais,mas não foi possível detectar este padrão em redes parciais. Por fim, a estratégia de aprendizado apresentou o menor faturamento em todos os cenários, no entanto, sua taxa de adoção similar à estratégia de penetração, pode ser a estratégia de precificação mais crível e eficiente para empresas iniciantes / In the context of complex systems,the following research investigated 3 pricing strategies:(1)skimming,(2)penetration and (3)learning, at electric car diffusion in several different scenarios. Through the agent-based modelling with 100.000 autonomous entities, the first model tested 3 situations related to energy demand:(1)severe shortage,(2)stability and (3)moderate growing of demand. The strong shortage of energy forced an fast-paced migration of agents towards the electric cars. The 3 strategies showed up similar results in terms revenues and market share, however the penetration strategy was able to capture a large part of the market faster than others. At the second model, 3 different social behaviors were implemented in each agent:(1)conservative,(2)rational and (3)social,in different proportions in order to assess social composition and its influence in the innovation diffusion process. Revenue and market share as concerned,the second model detected significant statistic difference for each pricing strategy. For societies predominantly conservative, all strategies did not show significant differences evidences regarding to revenue,market share and average adoption rate. Societies comprised mostly of rational agents presented the quickest convergence to electric cars, which it is the most expensive car. This is because a positive perception of benefits over cost in the long term.The largest revenue were derived from societies primarily composed of agents with social behaviors due to recurrent purchase and exchange between different vehicles over the interactions. Skimming strategy demonstrated greater versatility by displaying superior performance more regularly in terms of revenue in every social composition simulated. Penetration strategy exhibited highest rates of adoption and revenue in social networks composed entirely of agents with same social behavior, but it was not possible to detect such pattern at partial social networks. Finally, the learning strategy reported the lowest revenues at every scenario, none the less, its rate of adoption was equivalent to penetrations strategy rates, this strategy could be the most feasible and efficient to startups and small companies
296

Propriedades de redes complexas de telecomunicações / Properties of complex networks telecommunications

Miranda Vera, Arturo 08 December 2011 (has links)
Os objetivos desta monografia foram analisar as propriedades de topologias de redes complexas, analisar as potencialidades e comparar desempenho de softwares gratuitos de geração de topologias e simular roteamento de tráfego em redes de telecomunicações. As principais topologias analisadas foram a regular, aleatória e livre de escala. As propriedades topológicas incluem o grau nodal, a distribuição de grau, o coeficiente de agrupamento, o comprimento médio do caminho, além do efeito mundo pequeno. Foram avaliadas as potencialidades de três ferramentas gratuitas de geração e análise de redes, o B-A, Pajek e NetLogo. Como exemplos de aplicação em redes de telecomunicações, com destaque para redes ópticas utilizando técnica de multiplexação por divisão de comprimento de onda, foram implementados os seguintes algoritmos de roteamento de tráfego: roteamento fixo com alocação de comprimento de onda sequencial fixa e roteamento adaptativo com alocação de comprimento de onda menos usado, mais usado, aleatória e busca exaustiva. O desempenho dos algoritmos de roteamento e alocação de comprimentos de onda de modo nas topologias analisadas foram comparados. / The purposes of this master\'s thesis are to analyze the properties of complex network topologies, analyze and compare the performance of free software for generating topologies and simulate traffic routing in telecommunication networks. The main topologies analyzed were the regular, random and scale-free. The topological properties include the nodal degree, the distribution degree, clustering coefficient, average path length and small-world effect. The performance of the free softwares B-A, Pajek and Netlogo were evaluated. As examples of application in telecommunication networks, especially for optical networks using wavelength division multiplexing technique, the following routing traffic algorithms were implemented: Fixed routing with first-fit wavelength assignment and adaptive routing with least used wavelength assignment, most used, random and exhaustive search. The performance of algorithms for routing and wavelength allocation employed in the analyzed topologies was compared.
297

"Le simple est-il robuste ?" : une étude de la robustesse des systèmes complexes par les automates cellulaires / "Is simple also robust?" : a study of the robustness of complex systems through cellular automata

Bouré, Olivier 13 September 2013 (has links)
Dans cette thèse, nous étudions la robustesse dans le contexte de la modélisation de systèmes complexes par les automates cellulaires. En effet, si l'on cherche à reproduire un comportement émergent à partir d'un modèle d'automate cellulaire, il nous semble nécessaire de se demander si les comportements observés sont bien le résultat d'interactions entre entités constituantes, ou bien s'ils dépendent d'une définition particulière du modèle. Nous allons ainsi être amenés à considérer la robustesse du modèle, à savoir la résistance de son comportement à de petites variations sur les attributs de sa définition. Dans un premier temps, nous montrons la pertinence de cette approche en considérant plusieurs définitions possibles d'une perturbation de la mise à jour globale et en les appliquant à une classe simple et représentative de modèles d'automates cellulaires, les Automates Cellulaires Elémentaires. Nous observons que, malgré le fait que nos perturbations soient proches et qu'une majorité des modèles considérés ne change pas de comportement, quelques cas particuliers montrent des changements qualitatifs du comportement que nous étudions plus en détail. Dans un second temps, nous appliquons cette approche en nous penchant sur un modèle particulier d'automate cellulaire, qui simule le phénomène de formation d'essaim à partir d'un modèle évolué d'automate cellulaire, le gaz sur réseau. Nous explorons la robustesse du comportement du modèle en considérant la perturbation de deux attributs du modèle, la forme de la grille cellulaire et la mise à jour globale, et en tirons les conclusions sur la relation entre l'observation du comportement et la définition précise du modèle / In this thesis, we study the role of robustness in the context of the modelling of complex systems by cellular automata. Indeed, if we consider a cellular automaton which aims at reproducing an emergent behaviour from a similar structure, we want to determine whether its observed dynamics are the result of the interaction of entities, or whether it depends a precise definition of the model. We thus consider the model's robustness, that is, the resistance of the behaviour to small perturbations on the model features. First, we show the relevance of this approach by considering several definitions of a perturbation of the global updating and by applying them to a simple and representative class of cellular automata, the Elementary Cellular Automata. We observe that, despite the fact that most models show little or no change between the different perturbations, some particular cases show qualitative changes that we study in detail. Second, we apply this approach to a particular model of cellular automata, which simulates a swarming behaviour based on a lattice-gas model. We then explore the model robustness by considering the pertubations of two of the model's attributes, the lattice shape and the global updating, and discuss the relationship between the observation of the behaviour and the precise definitions of the model
298

How wires shape volumes

Menck, Peter-Johannes 18 March 2014 (has links)
Diese Arbeit ist der Frage gewidmet, wie die Stabilität eines Stromnetzes mit seiner Topologie zusammenhängt. Stabilität wird hier mit Hilfe von Bassin-Stabilität vermessen, einer nichtlokalen und nichtlinearen Methode, mit der sich quantifizieren lässt, wie stabil ein Stromnetz gegen große Störungen ist. Netzartige Systeme werden mit den Methoden der Theorie komplexer Netzwerke beschrieben. Bassin-Stabilität wird zunächst formal eingeführt. Dann wird die Methode angewendet, und zwar einmal auf abstrakte und einmal auf konkrete Weise. Der abstrakte Ansatz ist dadurch motiviert, dass die Funktion eines Stromnetzes auf dem synchronen Zusammenwirken seiner Komponenten beruht. Er betrifft die Frage, wie generelle dynamische Netzwerke strukturiert sein sollten, um stabile Synchronisation zu unterstützen. Es stellt sich heraus, dass Netzwerke mit maximaler Bassin-Stabilität am entgegengesetzten Ende eines gewissen netzwerktheoretischen Spektrums angesiedelt sind als Netzwerke, die optimal sind in Hinsicht auf lokale Stabilität. Dies deutet darauf hin, dass in der Entwicklung von synchron funktionierenden Systemen die Optimierung auf lokale Stabilität hin und die gleichzeitige Optimierung auf nichtlokale Stabilität hin als entgegengesetzte Kräfte gewirkt haben. Der konkrete Ansatz geht aus von einem Stromnetzmodell aus der Ingenieuersliteratur. Bassin-Stabilität wird komponentenweise eingesetzt, um zu untersuchen, wie der Grad der Stabilität eines Stromnetzes gegen große Einzelknoten-Störungen beeinflusst wird von gewissen Mustern in der Netztopologie. Simulationen in einem Ensemble von Stromnetzen bringen diverse Statistiken hervor, die alle eine wesentliche Beobachtung stützen: Ausgerechnet das kostengünstigste und weitverbreitetste Anschlussschema - bestehend aus Stichleitungen - vermindert die Netzstabilität beträchtlich. Es lässt sich ein fundamentales Designprinzip ableiten: Vermeide Stichleitungen. / This thesis addresses the question how the stability of a power grid depends on the network topology. Stability is assessed here by means of basin stability, a nonlocal and nonlinear inspection scheme that allows to quantify how stable a power grid is against large perturbations. Networked systems are characterized using the instruments of complex network theory. A rigorous definition of basin stability is provided. Then, basin stability is applied once in an abstract and once in a more applied way. The abstract approach is motivated by the fact that power grids rely on the synchronous operation of their components, and focusses on the problem how general dynamical networks should be structured to support a stable synchronous state. It turns out that networks with maximum basin stability are located at the opposite end of a certain network-theoretical spectrum than networks optimal with respect to local stability. This suggests that, during the evolution of synchronizing networks, the optimization for local stability and the simultaneous optimization for nonlocal stability have acted as opposing forces. The more applied approach draws on a power grid model from the engineering literature. A component-wise version of basin stability is used to assess how a grid''s degree of stability against large single-node perturbations is influenced by certain patterns in the wiring topology. Simulations in an ensemble of power grids yield various statistics that all support one main finding: The widespread and cheapest of all connection schemes, so-called dead ends and dead trees, strongly diminish stability. The inverse is also true: `Healing'' dead ends by addition of transmission lines substantially enhances stability. This indicates a basic design principle for future power grids: avoid dead ends.
299

Mentale Modelle der Benutzer von Fahrerinformationssystemen

Schilling, Tanja 02 December 2008 (has links)
Ziel dieser Arbeit ist es einerseits, allgemeine Erwartungen an die Bedienabläufe eines Fahrerinformationssystems zu ermitteln, welche Benutzer aus ihren Vorerfahrungen mit anderen technischen Geräten mitbringen, und andererseits zu zeigen, dass sich die Anpassung der Bedienabläufe eines Fahrerinformationssystems an diese allgemeinen Benutzererwartungen vorteilhaft auf die Gebrauchstauglichkeit des Gerätes auswirkt. Dabei wird eine Erwartung, welche in einer bestimmten Bediensituation an das Gerät besteht, verstanden als das mentale Modell von der Funktionsweise des Systems, welches der Benutzer in genau dieser Situation aus seinem schematischen Vorwissen und Merkmalen der Bedienoberfläche des zu bedienenden Gerätes bildet. In einer ersten Studie werden zunächst durch einen Vergleich mit dem konzeptuellen Modell eines bestehenden Fahrerinformationssystems diejenigen mentalen Modelle der Benutzer von Bedienabläufen identifiziert, welche interindividuell übereinstimmen. Dazu wird eine auf process tracing aufbauende, eigens entwickelte Methodik eingesetzt, welche es ebenfalls erlaubt, für diese Erwartungen diejenigen Aspekte zu ermitteln, welche unabhängig von speziellen Merkmalen des untersuchten Systems auch für Bedienabläufe eines Fahrerinformationssystems generell zutreffen. In einer nächsten Studie werden die ermittelten systemunabhängigen Benutzererwartungen verifiziert, indem aus ihnen das Bedienverhalten für ein zweites FIS mit anderem Bedienkonzept vorhergesagt wird. Dank der Verwendung des gleichen, handlungspsychologisch definierten Analyseniveaus für mentale und konzeptuelle Modelle können die verifizierten systemunabhängigen, interindividuell übereinstimmenden Benutzererwartungen als konzeptuelle Modelle in Form von Status-Übergangs-Diagrammen dargestellt und so als allgemeine Gestaltungsempfehlungen für Bedienabläufe in Fahrerinformationssystemen festgehalten werden. In einer dritten Studie werden die Bedienabläufe eines Prototypen entsprechend den allgemeinen Benutzererwartungen gestaltet und gegenüber Bedienabläufen evaluiert, welche von den Benutzererwartungen abweichen. Dabei zeigt sich, dass Bedienabläufe, welche mit den allgemeinen mentalen Modellen der Benutzer übereinstimmen, zu besseren Bedienleistungen und Systembewertung auf Seiten der Benutzer führen. Die formulierten allgemeinen Gestaltungsempfehlungen sind meist generalisierbar auf andere Domänen und die Ergebnisse dieser Arbeit bieten Ansatzpunkte für zukünftige Forschungsarbeiten. / The presented research project has two main goals: To learn about the nature of users’ general expectancies towards the operation of infotainment systems in passenger cars and to show that designing the paths of operation according to the users’ expectancies has positive effects on the usability of such systems. An expectancy at a certain point in the course of operation is understood as the mental model which the user forms of the system’s functionality in this situation on the basis of the system’s interface’s properties and his or her past experiences with other technical devices. A first study compares the conceptional model of an existing in-car infotainment system with the mental models of people using this system and thus identifies which mental models are shared interindividually by a majority of the users. The methodology used in this study was developed based on process tracing and permitted to equally identify those aspects of the mental models which are independent of the specific interaction concept of the examined system and therefore apply to the paths of operation of any in-car infotainment system in general. A next study verifies the users’ system-independent expectancies found in the first study by predicting users’ behavior during the operation of a second system with a different user interface. Both the users’ mental models and the systems’ conceptional models are analyzed and described using the same level of abstraction which is defined on the basis of action regulation theory. Thus directly comparable to the conceptional models, the users’ expectancies are described as state-transition diagrams which in turn as conceptional models represent the derived recommendations for the design of operational paths in infotainment systems. A third study uses a prototype system to evaluate paths of operation which have been designed according to the general recommendations versus paths of operation which deviate from the users’ expectancies. The results of this third study show that a system with paths of operation matching the users’ general mental models permits better user performance and leads to greater customer satisfaction. The general rules for designing the paths of operation of an in-car infotainment system described in this project can be applied to other domains and open perspectives for future research.
300

Essays on long memory processes. / Ensaios sobre processos de memória longa.

Fernandes Neto, Fernando 28 November 2016 (has links)
The present work aims at discussing the main theoretical aspects related to the occurrence of long memory processes and its respective application in economics and finance. In order to discuss the main theoretical aspects of its occurrence, it is worth starting from the complex systems approach and emergent phenomena, keeping in mind that many of these are computationally irreducible. In other words, the current state of the system depends on all previous states, in such a way that any change in the initial configuration must cause a significant difference in all posterior states. That is, there is a persistence of information over time - this is a concept directly related to long memory processes. Hence, based on complex systems simulations, three factors (possibly there are many others) were related to the rise of long memory processes: agents\' heterogeneity, occurrence of large deviations from the steady states (in conjunction with the motion laws of each system) and spatial complexity (which must influence on information propagation and on the dynamics of agents competition). In relation to the applied knowledge, first it is recognized that the explanatory factors for the rise of long memory processes are common to the structures/characteristics of real markets and it is possible to identify potential stylized facts when filtering the long memory components from time series - a considerable part of information present in time series is a consequence of the autocorrelation structure, which is directly related to the specificities of each market. Given that, in this thesis was developed a new risk contagion technique that does not need any further intervention. This technique is basically given by the calculation of rolling correlations between long memory filtered series of the conditional variances for different economies, such that these filtered series contain the stylized facts (risk peaks), free from possible overreactions caused by market idiosyncrasies. Then, based on the identification of risk contagion episodes related to the 2007/2008 Subprime Crisis in the U.S. and its respective contagion to the Brazilian economy, it was filtered out from the conditional variance of the Brazilian assets (which are an uncertainty measure) aiming at eliminating the contagion episodes and, consequently, it was made a counterfactual projection of what would have happened to the Brazilian economy if the risk contagion episodes had not occurred. Moreover, in conjunction with the evolutionary trend of the Brazilian economy prior to the crisis, it is possible to conclude that 70% of the economic crisis posterior to the 2008 events was caused by macroeconomic policies and only 30% is due to the effects of risk contagion episodes from the U.S. / O presente trabalho tem como objetivo discutir os principais aspectos teóricos ligados à ocorrência dos processos de memória longa e sua respectiva aplicação em economia e finanças. Para discutir os principais aspectos teóricos da sua ocorrência, recorre-se primeiramente à abordagem de sistemas complexos e fenômenos emergentes, tendo em vista que muitos destes são irredutíveis computacionalmente, ou seja, o estado atual do sistema depende de todos os estados anteriores, tal que, qualquer mudança nos instantes iniciais deve causar significativa diferença nos estados posteriores. Em outras palavras, há uma persistência da informação - conceito este intimamente ligado à memória longa. Portanto, com base em simulações de sistemas complexos computacionais, três fatores (podendo haver outros mais) foram relacionados ao surgimento de processos de memória longa: heterogeneidade dos agentes, ocorrência de grandes desvios do equilíbrio do sistema (em consonância com as respectivas leis do movimento de cada sistema estudado) e a complexidade espacial (que deve influenciar na propagação da informação e na dinâmica competitiva dos agentes). Em relação à aplicação do conhecimento, primeiro é reconhecido que os fatores explicativos para o surgimento de processos de memória longa são inerentes a estruturas/características de mercados reais e que é possível identificar potenciais fatos estilizados, ao filtrar as componentes de memória longa de séries temporais - grande parte da informação presente nas séries é função da estrutura de autocorrelação que advém das especificidades de cada mercado. Com base nisso, nesta tese foi desenvolvida uma nova técnica de estimação de contágio de risco, que não necessita intervenções adicionais, tendo em vista a identificação prévia de potenciais fatos estilizados em diferentes economias, utilizando as séries filtradas de variância condicional, tal que a partir destas séries filtradas é calculada uma correlação com horizonte móvel de observações entre choques (picos de risco) de curto prazo livres de possíveis reações causadas por idiossincrasias de cada mercado. Posteriormente, com base na identificação dos episódios ligados à Crise do Subprime de 2007/2008 nos Estados Unidos e seu respectivo contágio para a economia brasileira, filtrou-se a variância condicional dos ativos brasileiros (que é uma medida de incerteza), objetivando-se eliminar os eventos de contágio e, consequentemente, foi feita uma projeção contrafactual da evolução da economia, caso os episódios da crise não tivessem ocorrido. Com base nestes dados e com uma análise da tendência evolutiva da economia brasileira no período anterior à crise, constatou-se que 70% da crise econômica vivenciada no Brasil no período pós-2008 é decorrente de falhas na condução da política macroeconômica e somente 30% decorre dos efeitos do cenário externo na economia.

Page generated in 0.0861 seconds