• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 28
  • 18
  • 12
  • 11
  • 8
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 209
  • 45
  • 38
  • 32
  • 30
  • 29
  • 22
  • 22
  • 21
  • 18
  • 18
  • 17
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

An integrated method for the transient solution of reduced order models of geometrically nonlinear structural dynamic systems

Lülf, Fritz Adrian 05 December 2013 (has links) (PDF)
For repeated transient solutions of geometrically nonlinear structures the numerical effort often poses a major obstacle. Thus, the introduction of a reduced order model, which takes the nonlinear effects into account and accelerates the calculations considerably, is often necessary.This work yields a method that allows for rapid, accurate and parameterisable solutions by means of a reduced model of the original structure. The structure is discretised and its dynamic equilibrium described by a matrix equation. The projection on a reduced basis is introduced to obtain the reduced model. A comprehensive numerical study on several common reduced bases shows that the simple introduction of a constant basis is not sufficient to account for the nonlinear behaviour. Three requirements for an rapid, accurate and parameterisable solution are derived. The solution algorithm has to take into account the nonlinear evolution of the solution, the solution has to be independent of the nonlinear finite element terms and the basis has to be adapted to external parameters.Three approaches are provided, each responding to one requirement. These approaches are assembled to the integrated method. The approaches are the update and augmentation of the basis, the polynomial formulation of the nonlinear terms and the interpolation of the basis. A Newmark-type time-marching algorithm provides the frame of the integrated method. The application of the integrated method on test-cases with geometrically nonlinear finite elements confirms that this method leads to the initial aim of a rapid, accurate and parameterisable transient solution.
132

Describing differences between overlapping databases

Müller, Heiko 12 August 2009 (has links)
Die Analyse existierender Daten ist wichtiger Bestandteil moderner Forschung. Das Thema Datenqualität gewinnt deshalb im Bereich der wissenschaftlichen Forschung zunehmend an Bedeutung. Existierende Verfahren zur Datenbereinigung sind für wissenschaftliche Daten jedoch nur bedingt einsetzbar. Dies liegt zum einen an der höheren Komplexität der Daten und zum anderen an unserer oftmals noch unvollständigen Kenntnis der Regularien in den entsprechenden Domänen. Die vorliegende Arbeit ist leistet folgende Beiträge im Hinblick auf Datenqualität und Datenbereinigung wissenschaftlicher Daten: Im ersten Teil der Arbeit geben wir einen Überblick über existierende Verfahren zur Datenbereinigung und diskutieren deren Stärken und Schwächen. Aus unseren Ergebnissen folgern wir, daß überlappende Datenquellen großes Potential zur Verbesserung der Korrektheit und Genauigkeit wissenschaftlicher Daten haben. Überlappende Datenquellen decken Bereiche potentiell minderer Datenqualität in Form von (Daten-)konflikten auf und bieten gleichzeitig eine Möglichkeit zur Qualitätsverbesserung durch Datenintegration. Eine wichtige Voraussetzung für die Integration überlappender Datenquellen ist das Auflösen existierender Konflikte. In vielen Fällen treten die Konflikte nicht zufällig auf sondern folgen einer systematischen Ursache. Im zweiten Teil dieser Arbeit entwickeln wir Algorithmen, die das Auffinden systematischer Konflikte unterstützen. Wir klassifizieren Konflikte dabei anhand charakteristischer Muster in den überlappenden Daten. Diese Widerspruchsmuster unterstützen einen Experten bei der Festlegung von Konfliktlösungsstrategien zur der Datenintegration. Im dritten Teil dieser Arbeit verwenden wir ein prozeßbezogenes Model zur Beschreibung systematischer Konflikte, um Abhängigkeiten zwischen Konfliktgruppen aufzeigen zu können. Wir verwenden hierzu Sequenzen mengenorientierter Modifikationsoperationen die eine Datenquelle in die andere überführen. Wir präsentieren Algorithmen zur Bestimmung minimaler Modifikationssequenzen für ein gegebenes Paar von Datenquellen. Die Komplexität des Problems bedingt die Verwendung von Heuristiken. In unseren Experimenten zeigen wir die vielversprechende Qualität der Ergebnisse unserer Heuristiken. / Data quality has become an issue in scientific research. Cleaning scientific data, however, is hampered by incomplete or fuzzy knowledge of regularities in the examined domain. A common approach to enhance the overall quality of scientific data is to merge overlapping sources by eliminating conflicts that exist between them. The main objective of this thesis is to provide methods to aid the developer of an integrated system over contradicting databases in the task of resolving value conflicts. We contribute by developing a set of algorithms to identify regularities in overlapping databases that occur in conjunction with conflicts between them. These regularities highlight systematic differences between the databases. Evaluated by an expert user the discovered regularities provide insights on possible conflict reasons and help assess the quality of inconsistent values. Instead of inspecting individual conflicts, the expert user is now enabled to specify a conflict resolution strategy based on known groups of conflicts that share the same conflict reason. The thesis has three main parts. Part I gives a comprehensive review of existing data cleansing methods. We show why existing data cleansing techniques fall short for the domain of genome data and argue that merging overlapping data has outstanding ability to increase data accuracy; a quality criteria ignored by most of the existing cleansing approaches. Part II introduces the concept of contradiction patterns. We present a model for systematic conflicts and describe algorithms for efficiently detecting patterns that summarize characteristic data properties for conflict occurrence. These patterns help in providing answers to questions like “Which are the conflict-causing attributes, or values?” and “What kind of dependencies exists between the occurrences of contradictions in different attributes?”. In Part III, we define a model for systematic conflicts based on sequences of set-oriented update operations. Even though we only consider a restricted form of updates, our algorithms for computing minimal update sequences for pairs of databases require exponential space and time. We show that the problem is NP-hard for a restricted set of operations. However, we also present heuristics that lead to convincing results in all examples we considered.
133

Biometrics in a data stream context / Biometria em um contexto de fluxo de dados

Pisani, Paulo Henrique 10 March 2017 (has links)
The growing presence of the Internet in day-to-day tasks, along with the evolution of computational systems, contributed to increase data exposure. This scenario highlights the need for safer user authentication systems. An alternative to deal with this is by the use of biometric systems. However, biometric features may change over time, an issue that can affect the recognition performance due to an outdated biometric reference. This effect can be called as template ageing in the area of biometrics and as concept drift in machine learning. It raises the need to automatically adapt the biometric reference over time, a task performed by adaptive biometric systems. This thesis studied adaptive biometric systems considering biometrics in a data stream context. In this context, the test is performed on a biometric data stream, in which the query samples are presented one after another to the biometric system. An adaptive biometric system then has to classify each query and adapt the biometric reference. The decision to perform the adaptation is taken by the biometric system. Among the biometric modalities, this thesis focused on behavioural biometrics, particularly on keystroke dynamics and on accelerometer biometrics. Behavioural modalities tend to be subject to faster changes over time than physical modalities. Nevertheless, there were few studies dealing with adaptive biometric systems for behavioural modalities, highlighting a gap to be explored. Throughout the thesis, several aspects to enhance the design of adaptive biometric systems for behavioural modalities in a data stream context were discussed: proposal of adaptation strategies for the immune-based classification algorithm Self-Detector, combination of genuine and impostor models in the Enhanced Template Update framework and application of score normalization to adaptive biometric systems. Based on the investigation of these aspects, it was observed that the best choice for each studied aspect of the adaptive biometric systems can be different depending on the dataset and, furthermore, depending on the users in the dataset. The different user characteristics, including the way that the biometric features change over time, suggests that adaptation strategies should be chosen per user. This motivated the proposal of a modular adaptive biometric system, named ModBioS, which can choose each of these aspects per user. ModBioS is capable of generalizing several baselines and proposals into a single modular framework, along with the possibility of assigning different adaptation strategies per user. Experimental results showed that the modular adaptive biometric system can outperform several baseline systems, while opening a number of new opportunities for future work. / A crescente presença da Internet nas tarefas do dia a dia, juntamente com a evolução dos sistemas computacionais, contribuiu para aumentar a exposição dos dados. Esse cenário evidencia a necessidade de sistemas de autenticação de usuários mais seguros. Uma alternativa para lidar com isso é pelo uso de sistemas biométricos. Contudo, características biométricas podem mudar com o tempo, o que pode afetar o desempenho de reconhecimento devido a uma referência biométrica desatualizada. Esse efeito pode ser chamado de template ageing na área de sistemas biométricos adaptativos ou de mudança de conceito em aprendizado de máquina. Isso levanta a necessidade de adaptar automaticamente a referência biométrica com o tempo, uma tarefa executada por sistemas biométricos adaptativos. Esta tese estudou sistemas biométricos adaptativos considerando biometria em um contexto de fluxo de dados. Neste contexto, o teste é executado em um fluxo de dados biométrico, em que as amostras de consulta são apresentadas uma após a outra para o sistema biométrico. Um sistema biométrico adaptativo deve então classificar cada consulta e adaptar a referência biométrica. A decisão de executar a adaptação é tomada pelo sistema biométrico. Dentre as modalidades biométricas, esta tese foca em biometria comportamental, em particular em dinâmica da digitação e em biometria por acelerômetro. Modalidades comportamentais tendem a ser sujeitas a mudanças mais rápidas do que modalidades físicas. Entretanto, havia poucos estudos lidando com sistemas biométricos adaptativos para modalidades comportamentais, destacando uma lacuna para ser explorada. Ao longo da tese, diversos aspectos para aprimorar o projeto de sistemas biométricos adaptativos para modalidades comportamentais em um contexto de fluxo de dados foram discutidos: proposta de estratégias de adaptação para o algoritmo de classificação imunológico Self-Detector, combinação de modelos genuíno e impostor no framework do Enhanced Template Update e aplicação de normalização de scores em sistemas biométricos adaptativos. Com base na investigação desses aspectos, foi observado que a melhor escolha para cada aspecto estudado dos sistemas biométricos adaptativos pode ser diferente dependendo do conjunto de dados e, além disso, dependendo dos usuários no conjunto de dados. As diferentes características dos usuários, incluindo a forma como as características biométricas mudam com o tempo, sugerem que as estratégias de adaptação deveriam ser escolhidas por usuário. Isso motivou a proposta de um sistema biométrico adaptativo modular, chamado ModBioS, que pode escolher cada um desses aspectos por usuário. O ModBioS é capaz de generalizar diversos sistemas baseline e propostas apresentadas nesta tese em um framework modular, juntamente com a possibilidade de atribuir estratégias de adaptação diferentes por usuário. Resultados experimentais mostraram que o sistema biométrico adaptativo modular pode superar diversos sistemas baseline, enquanto que abre um grande número de oportunidades para trabalhos futuros.
134

[en] HYBRID METHOD BASED INTO KALMAN FILTER AND DEEP GENERATIVE MODEL TO HISTORY MATCHING AND UNCERTAINTY QUANTIFICATION OF FACIES GEOLOGICAL MODELS / [pt] MÉTODO HÍBRIDO BASEADO EM FILTRO DE KALMAN E MODELOS GENERATIVOS DE APRENDIZAGEM PROFUNDA NO AJUSTE DE HISTÓRICO SOB INCERTEZAS PARA MODELOS DE FÁCIES GEOLÓGICAS

SMITH WASHINGTON ARAUCO CANCHUMUNI 25 March 2019 (has links)
[pt] Os métodos baseados no filtro de Kalman têm tido sucesso notável na indústria do petróleo nos últimos anos, especialmente, para resolver problemas reais de ajuste de histórico. No entanto, como a formulação desses métodos é baseada em hipóteses de gaussianidade e linearidade, seu desempenho é severamente degradado quando a geologia a priori é descrita em termos de distribuições complexas (e.g. modelos de fácies). A tendência atual em soluções para o problema de ajuste de histórico é levar em consideração modelos de reservatórios mais realistas com geologia complexa. Assim, a modelagem de fácies geológicas desempenha um papel importante na caracterização de reservatórios, como forma de reproduzir padrões importantes de heterogeneidade e facilitar a modelagem das propriedades petrofísicas das rochas do reservatório. Esta tese introduz uma nova metodologia para realizar o ajuste de histórico de modelos geológicos complexos. A metodologia consiste na integração de métodos baseados no filtro de Kalman em particular o método conhecido na literatura como Ensemble Smoother with Multiple Data Assimilation (ES-MDA), com uma parametrização das fácies geológicas por meio de técnicas baseadas em aprendizado profundo (Deep Learning) em arquiteturas do tipo autoencoder. Um autoencoder sempre consiste em duas partes, o codificador (modelo de reconhecimento) e o decodificador (modelo gerador). O procedimento começa com o treinamento de um conjunto de realizações de fácies por meio de algoritmos de aprendizado profundo, através do qual são identificadas as principais características das imagens de fácies geológicas, permitindo criar novas realizações com as mesmas características da base de treinamento com uma reduzida parametrização dos modelos de fácies na saída do codificador. Essa parametrização é regularizada no codificador para fornecer uma distribuição gaussiana na saída, a qual é utilizada para atualizar os modelos de fácies de acordo com os dados observados do reservatório, através do método ES-MDA. Ao final, os modelos atualizados são reconstruídos através do aprendizado profundo (decodificador), com o objetivo de obter modelos finais que apresentem características similares às da base de treinamento. Os resultados, em três casos de estudo com 2 e 3 fácies, mostram que a parametrização de modelos de fácies baseada no aprendizado profundo consegue reconstruir os modelos de fácies com um erro inferior a 0,3 por cento. A metodologia proposta gera modelos geológicos ajustados que conservam a descrição geológica a priori do reservatório (fácies com canais curvilíneos), além de ser consistente com o ajuste dos dados observados do reservatório. / [en] Kalman filter-based methods have had remarkable success in the oil industry in recent years, especially to solve several real-life history matching problems. However, as the formulation of these methods is based on the assumptions of gaussianity and linearity, their performance is severely degraded when a priori geology is described in terms of complex distributions (e.g., facies models). The current trend in solutions for the history matching problem is to take into account more realistic reservoir models, with complex geology. Thus the geological facies modeling plays an important role in the characterization of reservoirs as a way of reproducing important patterns of heterogeneity and to facilitate the modeling of the reservoir rocks petrophysical properties. This thesis introduces a new methodology to perform the history matching of complex geological models. This methodology consists of the integration of Kalman filter-based methods, particularly the method known in the literature as Ensemble Smoother with Multiple Data Assimilation (ES-MDA), with a parameterization of the geological facies through techniques based on deep learning in autoencoder type architectures. An autoencoder always consists of two parts, the encoder (recognition model) and the decoder (generator model). The procedure begins with the training of a set of facies realizations via deep generative models, through which the main characteristics of geological facies images are identified, allowing for the creation of new realizations with the same characteristics of the training base, with a low dimention parametrization of the facies models at the output of the encoder. This parameterization is regularized at the encoder to provide Gaussian distribution models in the output, which is then used to update the models according to the observed data of the reservoir through the ES-MDA method. In the end, the updated models are reconstructed through deep learning (decoder), with the objective of obtaining final models that present characteristics similar to those of the training base. The results, in three case studies with 2 and 3 facies, show that the parameterization of facies models based on deep learning can reconstruct facies models with an error lower than 0.3 percent. The proposed methodology generates final geological models that preserve the a priori geological description of the reservoir (facies with curvilinear channels), besides being consistent with the adjustment of the observed data of the reservoir.
135

Dynamic Software Update for Production and Live Programming Environments / Mise à jour Dynamique pour Environnemts de Production et Programmation Interactive

Tesone, Pablo 17 December 2018 (has links)
Mettre à jour des applications durant leur exécution est utilisé aussi bien en production pour réduire les temps d’arrêt des applications que dans des environnements de développement interactifs (IDE pour live programming). Toutefois, ces deux scénarios présentent des défis différents qui font que les solutions de mise à jour dynamique (DSU pour Dynamic Software Updating) existantes sont souvent spécifiques à l’un des deux. Par exemple, les DSUs pour la programmation interactives ne supportent généralement pas la détection automatique de points sûrs de mise à jour ni la migration d’instances, alors que les DSUs pour la production nécessitent une génération manuelle de l’ensemble des modifications et manquent d’intégration avec l’IDE. Les solutions existantes ont également une capacité limitées à se mettre à jour elles-mêmes ou à mettre à jour les bibliothèques de base du langage ; et certaines d’entre elles introduisent mêmle une dégradation des performances d’exécution en dehors du processus de mise à jour.Dans cette thèse, nous proposons un DSU (nommé gDSU) unifié qui fonctionne à la fois pour la programmation interactive et les environnements de production. gDSU permet la détection automatique des points sûrs de mise à jour en analysant et manipulant la pile d’exécution, et offre un mécanisme réutilisable de migration d’instances afin de minimiser les interventions manuelles lors de l’application d’une migration. gDSU supporte également la mise à jour des bibliothèques du noyau du langage et du mécanisme de mise à jour lui-même. Ceci est réalisé par une copie incrémentale des objets à modifier et une application atomique de ces modifications.gDSU n’affecte pas les performances globales de l’application et ne présente qu’une pénalité d’exécution lors processus de mise à jour. Par exemple, gDSU est capable d’appliquer une mise à jour sur 100 000 instances en 1 seconde. Durant cette seconde, l’application ne répond pas pendant 250 milli-secondes seulement. Le reste du temps, l’application s’exécute normalement pendant que gDSU recherche un point sûr de mise à jour qui consiste alors uniquement à copier les éléments modifiés.Nous présentons également deux extensions de gDSU permettant un meilleur support du développement interactif dans les IDEs : la programmation interactive transactionnelle et l’application atomique de reusinages (refactorings). / Updating applications during their execution is used both in production to minimize application downtine and in integrated development environments to provide live programming support. Nevertheless, these two scenarios present different challenges making Dynamic Software Update (DSU) solutions to be specifically designed for only one of these use cases. For example, DSUs for live programming typically do not implement safe point detection or insistance migration, while production DSUs require manual generation of patches and lack IDE integration. These sollutions also have a limited ability to update themselves or the language core libraries and some of them present execution penalties outside the update window.In this PhD, we propose a unified DSU named gDSU for both live programming and production environments. gDSU provides safe update point detection using call stack manipulation and a reusable instance migration mechanism to minimize manual intervention in patch generation. It also supports updating the core language libraries as well as the update mechanism itself thanks to its incremental copy of the modified objects and its atomic commit operation.gDSU does not affect the global performance of the application and it presents only a run-time penalty during the window. For example, gDSU is able to apply an update impacting 100,000 instances in 1 second making the application not responsive for only 250 milliseconds. The rest of the time the applications runs normally while gDSU is looking for a safe update point during which modified elements will be copied.We also present extensions of gDSU to support transactional live programming and atomic automactic refactorings which increase the usability of live programming environments.
136

Atualização de dados de entrada aplicada à previsão de vazões de curto prazo

Ticona Gutierrez, Juan Carlos January 2015 (has links)
Neste estudo, foi realizada uma revisão dos problemas observados na modelagem chuva-vazão, que influenciam a incerteza das condições iniciais dos processos de previsão de vazão. Foi realizada, também, uma revisão do estado da arte de alguns dos modelos de previsão de vazão de curto prazo utilizados no Brasil e, por último, uma revisão das metodologias de atualização de dados empregadas em trabalhos passados. Mas o principal enfoque deste estudo foi à elaboração de uma metodologia de atualização de dados de entrada, baseada na correção do desvio entre a vazão de saída de um modelo hidrológico e a vazão observada, por meio da perturbação dos dados de entrada de precipitação. O estudo de caso está composto por três bacias: Bacia do rio Ijuí, Bacia do rio Tesouras e a Bacia do rio Canoas. Estas bacias foram escolhidas, pois apresentam características distintas, tanto físicas quanto climáticas e, além disso, pela existência de estudos prévios com o modelo hidrológico utilizado neste trabalho. O processo de avaliação do método foi realizado em três etapas: 1) utilizando séries sintéticas; 2) utilizando séries reais; 3) previsão de vazões com atualização de dados. As duas primeiras etapas utilizaram o modelo em modo atualização (“off-line”) e, a última, o modelo em modo de previsão (“on-line”). Para a aplicação do método é necessário estabelecer condições de parada, sendo então, propostos dois conjuntos de critérios de parada. Com isto, foi estabelecido um conjunto adequado de critérios para que estes fiquem fixos para possibilitar futuras aplicações em outros modelos ou em outros estudos de casos. A técnica de previsão de vazão de curto prazo utilizada foi com base na chuva prevista, sendo adotada a previsão de chuva conhecida ou perfeita. Foram geradas previsões diárias de até 7 dias, durante 20 dias contínuos, escolhendo-se dois eventos de diferentes características em cada uma das bacias do estudo de caso. Em modo previsão os resultados se mostraram promissores, o objetivo desejado inicialmente foi atingido pelos dois conjuntos de critérios de parada propostos. Conseguiu-se ter um ganho significativo até o quarto dia de previsão, como, também, melhoras nos períodos de subidas do hidrograma, porém nos períodos de estiagens o ganho foi quase nulo. Além disso, este trabalho mostrou a viabilidade da utilização do modelo IPH II para a geração de previsões de vazões baseadas em previsão de chuva. / In this study a review of the problems observed in rainfall-runoff modeling has been made, which influence the uncertainty of initial conditions of flow forecasting processes, as well as a review of the state of the art of some of the short-term flow forecasting models used in Brazil and the data update methodologies used in many past jobs. However the focus of this study has been the development of a data entry update methodology based on the correction of the deviation between the output flow of a hydrological model and the observed flow, by means of the disruption of rainfall input data. The case study is composed of the three river basins: River Ijuí, River Tesouras and Canoas. These basins have been chosen due to their different characteristics, both physical and climate, besides having been used in previous studies of the hydrological model used. The evaluation process of the method is done in three steps: 1) using synthetic series; 2) using real series; 3) stream flow forecasting with data update, the first two with the model in update mode ("off-line") and the last in predict mode ("on-line"). For the application of this method is necessary to establish stopping conditions for application, and for this have been proposed two sets of stop criteria. With this, intended to establish an appropriate set of criteria so that they become fixed to permit future applications in other models. The short-term flow forecasting technique used has been based on the forecast rain, adopted the rain forecast known or perfect. Predictions have been generated daily up to 7 days, for 20 consecutive days, choosing two events of different features in each case study basins. In predict mode the results have been promissory, the desired goal initially achieved by the two sets of proposed stopping criteria. It was possible to have a significant gain until the fourth day forecast also improvements in periods of hydrograph increases but not during periods of drought the gain was almost nil. This work has also showed the ability to generate predictions of rain forecast based flow as the IPH II model in real time.
137

A experiência de Verô ou janela para Vera(cidade) / A experiência de Verô ou janela para Vera(cidade)

Mônica Poli Palazzo 10 December 2009 (has links)
A Experiência de Verô ou Janela para Vera(cidade) aborda a multiplicidade de dimensões espaço-temporais que permeia a vida social a partir do avanço exponencial da tecnologia. A metodologia adotada no trabalho poético, a que este texto corresponde, segue a orientação da pesquisa da sensação, que propõe problematizar a experiência sensorial, considerando-a como fonte de problemas sensíveis. Foi construída uma videoinstalação composta por projeção em vídeo e cenário para funcionar como ambiente propício à experimentação polifônica de sensações oriundas de diversos dispositivos tecnológicos. A convergência dos elementos existentes no ambiente cenográfico está expressa nas janelas/telas que se multiplicam e caracterizam as diversas manifestações em vídeo de acontecimentos sincrônicos e diacrônicos. Janela para Vera(cidade) cria, a partir de operações poéticas audiovisuais, a possibilidade de uma experiência singular do corpo no espaço e no tempo, em que as interpenetrações multidimensionais simultâneas são uma constante. / A Experiência de Verô ou Janela para Vera(cidade) addresses the multiple dimensions of space-time that permeates the social life from the exponential advance of technology. The methodology adopted in the poetic work follows the guidance of \"search of sensation,\" which aims to discuss the sensory experience, considering it as a source of sensitive issues. The video installation project consists in a video projection and a scenario. This environment conducts to a polyphonic sensations experiment, which comes from different technological devices. The convergence of elements in the environment is expressed in the scenic windows / screens that multiply and characterize the different kinds of events in video synchronic and diachronic. Experiência de Verô ou Janela para Vera(cidade) creates, from poetic audiovisual operations, the possibility of a singular experience of the body in space and time, where simultaneous multidimensional interrelationships are constant.
138

A experiência de Verô ou janela para Vera(cidade) / A experiência de Verô ou janela para Vera(cidade)

Palazzo, Mônica Poli 10 December 2009 (has links)
A Experiência de Verô ou Janela para Vera(cidade) aborda a multiplicidade de dimensões espaço-temporais que permeia a vida social a partir do avanço exponencial da tecnologia. A metodologia adotada no trabalho poético, a que este texto corresponde, segue a orientação da pesquisa da sensação, que propõe problematizar a experiência sensorial, considerando-a como fonte de problemas sensíveis. Foi construída uma videoinstalação composta por projeção em vídeo e cenário para funcionar como ambiente propício à experimentação polifônica de sensações oriundas de diversos dispositivos tecnológicos. A convergência dos elementos existentes no ambiente cenográfico está expressa nas janelas/telas que se multiplicam e caracterizam as diversas manifestações em vídeo de acontecimentos sincrônicos e diacrônicos. Janela para Vera(cidade) cria, a partir de operações poéticas audiovisuais, a possibilidade de uma experiência singular do corpo no espaço e no tempo, em que as interpenetrações multidimensionais simultâneas são uma constante. / A Experiência de Verô ou Janela para Vera(cidade) addresses the multiple dimensions of space-time that permeates the social life from the exponential advance of technology. The methodology adopted in the poetic work follows the guidance of \"search of sensation,\" which aims to discuss the sensory experience, considering it as a source of sensitive issues. The video installation project consists in a video projection and a scenario. This environment conducts to a polyphonic sensations experiment, which comes from different technological devices. The convergence of elements in the environment is expressed in the scenic windows / screens that multiply and characterize the different kinds of events in video synchronic and diachronic. Experiência de Verô ou Janela para Vera(cidade) creates, from poetic audiovisual operations, the possibility of a singular experience of the body in space and time, where simultaneous multidimensional interrelationships are constant.
139

Internet sur rails

Maureira, Juan-Carlos 21 January 2011 (has links) (PDF)
Cette thèse propose une nouvelle méthode pour fournir une connexion réseau à des véhicules au cours de trajets prédéterminés (trains, métros, autobus urbains, etc.). La communication entre le véhicule et l'infrastructure réseau est basée uniquement sur la technologie WiFi. Les contributions de ce travail sont d'une part la conception d'une méthode pour réaliser le handover horizontal (entre bornes WiFi), et d'autre part la modélisation et l'analyse de topologies pour le réseau d'infrastructure (réseau backbone plus réseau d'accès WiFi) déployé sur la trajectoire du véhicule. Dans une première partie, nous proposons une méthode, appelée Spiderman Handover, pour réaliser le handover horizontal d'un réseau en mouvement (embarqué dans le véhicule) et une procédure de mise à jour des informations de routage (couche 2 OSI) lors du handover. Nous évaluons notre proposition par simulation et validons nos résultats par des mesures expérimentales. Dans une deuxième partie, nous étudions théoriquement les paramètres de plusieurs familles de topologies du type Chordal pour le réseau backbone construit sur un réseau d'accès linéaire. A partir de la comparaison de ces paramètres, nous proposons une topologie backbone issue de la combinaison de deux topologies Chordal. Cette topologie fournit un bon compromis entre coût du déploiement, nombre de sauts nécessaires pour atteindre la passerelle du réseau et résilience raisonnable. Enfin, nous évaluons l'intégration de la topologie proposée pour le réseau d'infrastructure avec le système handover par des simulations. Les résultats présentés suggèrent que l'algorithme de handover proposé fonctionne correctement sur le réseau d'infrastructure proposé. Cela permet la garantie d'une connexion continue aux passagers à bord des trains, métros ou autobus urbains.
140

DEN POPULÄRA BLOGGEN : - OM UPPDATERINGSFREKVENSEN AV BLOGGAR OCH DESS INVERKAN PÅ BESÖKSSTATISTIK

von Sydow, Wilhelm January 2007 (has links)
<p>Abstract:</p><p>Title: The popular blog – on updating and its effects on vistor statistics</p><p>Number of pages: 35</p><p>Author: Wilhelm von Sydow</p><p>Tutor: Else Nygren</p><p>Course: Media and Communication Studies C</p><p>Period: Autumn 2006</p><p>University: Division of Media and Communication, Department of Information Science, Uppsala University</p><p>Purpose/Aim: To examine to which, if any, extent the update frequency of blogs affects their visitor statistics.</p><p>Material/Method: Quantitative method, Swedish blogs, visitor statistics and updating frequency.</p><p>Main results: No results could prove the causal effects of the relation between visitor statistics and updating frequency. A noticeable connection between the two variables could, however, be identified.</p><p>Keywords: Blog, update frequency, visitor statistics, quantitative, Habermas, public sphere, Else Nygren, intranet, Matt Haig, business websites</p>

Page generated in 0.0425 seconds