• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4502
  • 203
  • 183
  • 183
  • 179
  • 125
  • 120
  • 63
  • 63
  • 55
  • 54
  • 53
  • 15
  • 6
  • 3
  • Tagged with
  • 4792
  • 2010
  • 1378
  • 953
  • 815
  • 792
  • 733
  • 725
  • 564
  • 538
  • 505
  • 491
  • 471
  • 462
  • 455
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

La animación como desplazamiento de la pintura

Huichaqueo, Francisco January 2009 (has links)
No description available.
192

Recuperação de perfis atmosféricos a partir de ocultação GPS: fundamentos, implementação e análise de resultados

Holzschuh, Marcelo Leandro [UNESP] 31 July 2007 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:25Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-07-31Bitstream added on 2014-06-13T18:08:14Z : No. of bitstreams: 1 holzschuh_ml_me_prud.pdf: 1897806 bytes, checksum: 49dcd938d6b1fba152b414f9f4c978cc (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / A ocultação, um fenômeno pelo qual um corpo celeste deixa de ser visto em razão da sobreposição de um outro, começou a ser usada para estudar a atmosfera de outros planetas há vários anos. Com o advento dos satélites artificiais GPS (Global Positioning System), em conjunto com os satélites LEO (Low Earth Orbiting), surge a Rádio Ocultação GPS (ROGPS), abrindo-se novas perspectivas para as pesquisas sobre o clima e previsão de tempo. Na RO GPS, os sinais que são enviados pelo satélite GPS e recebidos no satélite LEO sofrem os efeitos da troposfera e da ionosfera ao atravessarem a atmosfera terrestre, afetando a fase e a amplitude das ondas dos sinais envolvidos. A propagação do sinal sofre refração formando uma linha curva entre o satélite transmissor e o receptor, o que permite calcular diferentes índices de refratividade, os quais carregam informações da composição da atmosfera terrestre. A partir de perfis desses índices de refratividade é possível extrair perfis de temperatura, umidade e pressão atmosférica na troposfera, além da distribuição na densidade de elétrons na ionosfera terrestre. Vários trabalhos foram realizados para verificar a qualidade dos perfis atmosféricos obtidos com o emprego do satélite CHAMP (Challenging Minisatellite Payload of Geophysical Research and Application), um satélite LEO, em diversas regiões do globo. Nesse trabalho, objetiva-se investigar e implementar a técnica de ocultação GPS, bem como avaliar a qualidade de perfis de temperatura obtidos com o satélite CHAMP sobre a América do Sul, comparando-os com perfis de radiossondas e perfis provenientes da condição inicial do modelo de Previsão Numérica de Tempo (PNT). A implementação da recuperação de um perfil da atmosfera foi realizada utilizando o código C/A para o cálculo do ângulo de curvatura e o parâmetro de impacto, cujos valores aproximados foram 0,043° e 6381 km, respectivamente. / The occultation, phenomenon in which a celestial body in not seen because of the superposition of another one, started being used several years ago to study the atmosphere of other planets. With the advent of GPS (Global Positioning System) satellites, together with the LEO (Low Earth Orbit) satellites, the GPS Radio Occultation (GPS-RO) arises, in order to obtain new perspectives in studies related to climate and weather forecast. In GPS-RO, the signals sent by the GPS satellite and received by the LEO satellite are disturbed by the ionosphere and troposphere while cross the terrestrial atmosphere, this affects the phase and the amplitude from the involved signals. The signals propagation is affected by refraction, this generates a bending angle between the transmitter and receiver satellites, allowing computing different refractivity index, which carry information about the terrestrial atmosphere composition. Using these profiles of refractivity index is possible to extract profiles of temperature, humidity, atmospheric pressure in the troposphere, and to obtain the electronic density distribution in terrestrial ionosphere. Several works were realized to verify the quality of atmospheric profiles obtained using the CHAMP (Challenging Minisatellite Payload of Geophysical Research and Application) satellite, LEO satellite, in several regions of the globe. In this research the goal is to investigate and implement the GPS occultation technique, and additionally to evaluate the quality of the temperature profiles obtained by CHAMP satellite over the South of America, comparing them with the RSO (Radiosonde) profiles and with the profiles obtained by the initial condition of Numeric Weather Prediction (NWP) model.
193

Heurísticas especializadas aplicadas ao problema de carregamento de contêiner /

Utida, Mariza Akiko. January 2012 (has links)
Orientador: Rubén Augusto Romero Lázaro / Banca: José Roberto Sanches Mantovani / Banca: Silvio Alexandre de Araujo / Banca: José Elias Claudio Arroyo / Banca: Eduardo Nobuhiro Asada / Resumo: O problema de carregamento de contêiner consiste em carregar um número conhecido de caixas de tipos diferentes e dimensões conhecidas dentro de um contêiner, de modo a utilizar o espaco do contêiner da melhor maneira possível, ou seja, de modo a diminuir os espacos não ocupados. O problema de carregamento de contêiner e um problema NP-difícil e, portanto, muito complexo de ser resolvido de forma exata usando um modelo matemático de programacao inteira e pacotes comerciais de otimizacao baseados em técnicas tipo branch and bound. Neste trabalho e realizada a elaboracao, assim como a implementacao computacional, de dois algoritmos de otimizacao. A primeira proposta de otimizacao consiste de um algoritmo heurístico construtivo. A segunda proposta de otimizacao um algoritmo GRASP que usa, na fase construtiva, uma generalizacao do algoritmo heurístico construtivo desenvolvido neste trabalho. A metaheurística GRASP desenvolvida neste trabalho apresentou resultados promissores quando foram realizados testes usando 13 instâncias conhecidas na literatura especializada / Abstract: The container loading problem is to load a known number boxes of different dimensions and known within a container, in order to use the space of the container the best way possible, ie, in order to reduce the empty spaces. The problem of container loading is NP-hard and therefore too complex to be solved using an exact mathematical model integer programming and commercial packages based on optimization techniques branch and bound type. In this work the preparation, as well as the computational implementation of two optimization algorithms. The first proposal consists of an optimization constructive heuristic algorithm. The second proposal is an optimization GRASP that uses in construction phase, a generalization of the algorithm constructive heuristic developed in this work. The GRASP developed in this work showed promising results when tests were performed using 13 known instances in the literature specialized / Doutor
194

RADA: uma abordagem para a documentação de arquiteturas de referência através de linguagens de descrição arquiteturais

Brandes, Eduardo da Silva January 2010 (has links)
Made available in DSpace on 2014-08-27T02:01:46Z (GMT). No. of bitstreams: 1 000460611-Texto+Completo-0.pdf: 5773039 bytes, checksum: 467b60e5a0961be6d1d5fdcb576c8e52 (MD5) Previous issue date: 2010 / Reuse practices in the software development context, as well as other activities, contribute significantly for improving the quality of generated artifacts. Domain Engineering (DE) has been proposing methods and approaches that aim at supporting software reuse. In the design phase of DE methods artifacts may be created for the Reference Architecture (RA) creation. A RA constitutes structural models that represent the main concepts among the software architecture of a given domain. Although the majority of methods intend to support of RA creation, in fact this support is not enough. The goal of this research is to propose a systematic approach for reference architecture documentation, integrated to a DE process. / Práticas de reúso em um contexto de desenvolvimento de software, assim como em outras atividades, contribuem significativamente para a melhoria da qualidade dos artefatos gerados. Nesse sentido, pesquisas em Engenharia de Domínio (ED) vêm propondo métodos e abordagens com o intuito de apoiarem o reúso de software. A fase de projeto dos métodos de ED visa à criação de artefatos com o objetivo de construir uma Arquitetura de Referência (AR) que constituem modelos de organização estrutural que representam os conceitos mais importantes entre as arquiteturas de software em um domínio. Porém, mesmo que a maioria dos métodos preveja o apoio a construção de AR, na prática o suporte oferecido é insuficiente ou até mesmo inexistente. Nesse contexto, o objetivo dessa pesquisa é propor uma abordagem sistematizada para a documentação de Arquiteturas de Referência para Domínios de Aplicações, integrada a um processo de Engenharia de Domínio com foco em Reuso.
195

Explorando programação híbrida no contexto de clusters de máquinas NUMA

Ribeiro, Neumar Silva January 2011 (has links)
Made available in DSpace on 2013-08-07T18:43:39Z (GMT). No. of bitstreams: 1 000431674-Texto+Completo-0.pdf: 1334645 bytes, checksum: 55861ee97a2e33bdceeff48db81e493d (MD5) Previous issue date: 2011 / Typically, the message passing paradigm is the programming model used for cluster architectures. On the other hand, programming for multiprocessor architectures requires the shared memory paradigm. Recently, the emergence of new technologies enabled the creation of clusters with multiprocessor nodes. In these architectures, computing nodes are composed by more than one processor or core sharing the same memory. This scenario creates the possibility of using new hybrid programming models. In the spectrum of possible alternatives for hybrid programming for clusters of multiprocessors, the use of MPI along with OpenMP is emerging as a de-facto standard. Most hybrid MPI and OpenMP codes are based on hierarchical structure model, which allows exploring coarse and medium grain parallelism with MPI and fine grain parallelism with OpenMP. Clearly, the main idea is to take advantage of the best features of both programming paradigms. Additionally, the nodes of these clusters can be NUMA (Non-Uniform Memory Access) machines. These machines enable the developer to explore memory affinity, improving application performance. The main objective of this work is to investigate the use of hybrid programming with MPI and OpenMP in clusters of NUMA machines, exploiting memory affinity aiming at the identification of a set of good programming practices to be used in this context. / Normalmente, utiliza-se o paradigma de troca de mensagens quando se está programando uma arquitetura do tipo cluster. Porém, quando se deseja programar uma máquina multiprocessada, é requirido o paradigma de memória compartilhada. Recentemente, o surgimento de novas tecnologias possibilitou a criação de clusters com nós multiprocessados. Nestas arquiteturas os nós são compostos por mais de um processador ou core, e compartilham a mesma memória. Este cenário, cria a possibilidade de usar novos modelos de programação híbrida. No amplo espectro de soluções possíveis para o desenvolvimento de código híbrido para clusters de máquinas multiprocessadas, a utilização da dupla MPI e OpenMP está emergindo como um padrão de fato. A maioria dos códigos híbridos MPI e OpenMP são baseados em um modelo de estrutura hierárquica, que torna possível a exploração de grãos grandes e médios de paralelismo no nível de MPI, e grão fino no paralelismo no nível do OpenMP. O objetivo é claramente tirar vantagens das melhores características de ambos os paradigmas de programação. Os nós desses clusters podem ainda ser máquinas NUMA (Non- Uniform Memory Access). Estas máquinas com acesso não uniforme à memória possibilitam que o desenvolvedor explore afinidade de memória, melhorando o desempenho da aplicação. O objetivo principal deste trabalho é investigar o uso de programação híbrida com MPI e OpenMP em clusters de máquinas NUMA, explorando afinidade de memória, visando identificar um conjunto de boas práticas de programação híbrida a serem utilizadas neste contexto.
196

Ferramenta de análise e simulação computacional de sistema catadióptrico omnidirecional hiperbólico de lobo duplo

Ribeiro, Marcello Marinho 18 December 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-06-24T12:44:41Z No. of bitstreams: 1 2012_MarcelloMarinhoRibeiro.pdf: 4552297 bytes, checksum: fdec893ce9a6851948a6572a2232a5a1 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-06-24T14:18:10Z (GMT) No. of bitstreams: 1 2012_MarcelloMarinhoRibeiro.pdf: 4552297 bytes, checksum: fdec893ce9a6851948a6572a2232a5a1 (MD5) / Made available in DSpace on 2013-06-24T14:18:10Z (GMT). No. of bitstreams: 1 2012_MarcelloMarinhoRibeiro.pdf: 4552297 bytes, checksum: fdec893ce9a6851948a6572a2232a5a1 (MD5) / A cada dia tornam-se mais comuns aplicações de Visão Computacional no cotidiano. Com o intuito de fortalecer este tipo de aplicações, torna-se interessante o estudo de técnicas e métodos que permitam aumentar o campo de visão de câmeras (ferramentas básicas para captura de imagens em sistemas computacionais de visão). O campo de estudo da visão computacional omnidirecional aparece então como uma estratégia promissora para dar vazão a este interesse. Com foco em aumentar a capacidade da câmera em capturar informações do ambiente, a visão omnidirecional levanta uma variedade de técnicas com tal propósito, entre elas a visão omnidirecional catadióptrica, que baseia-se na utilização de espelhos para permitir a captura de imagens com campo de visão de 360º do ambiente. Entre os diferentes perfis de espelhos possíveis de se utilizar junto à câmera, este trabalho foca no uso do espelho convexo hiperbólico de lobo duplo. Este espelho além de possuir a propriedade de centro único de projeção (que minimiza as distorções geométricas das imagens geradas pelo ambiente), permite a captura de duas imagens diferentes da mesma cena, permitindo assim o uso de estereoscopia omnidirecional para cálculo de informações do ambiente. Este trabalho tem como objetivo verificar a influência dos parâmetros de criação do espelho hiperbólico de lobo duplo na reconstrução de cenas simples. Para tal, a simulação computacional de um sistema omnidirecional estéreo catadióptrico baseado em espelho duplo, a partir de imagens panorâmicas cilíndricas, é realizada. Estas imagens servem de base para a realização da estereoscopia omnidirecional. Um sistema computacional denominado de OmniViz foi elaborado para tal tarefa. Ele permite que o usuário personalize os parâmetros de construção do espelho, simula a imagem omnidirecional a partir de uma imagem panorâmica cilíndrica, acentua as características que serão utilizadas (neste caso os cantos dos objetos), realiza a correlação dos pontos e calcula as distâncias destas para o sistema de visão simulado. Além disso um trabalho de análise dos resultados é realizado com a ajuda do MatLab® para se validar a eficiência do sistema apresentado. Esta análise baseia-se no erro associado às alterações dos parâmetros do espelho, em relação ao cálculo das informações do ambiente. Os resultados demonstram que as escolhas corretas de parâmetros do espelho, implicam na capacidade do espelho de gerar imagens que podem facilitar ou dificultar a reconstrução de uma determinada cena. _______________________________________________________________________________________ ABSTRACT / Each day computer vision applications become more common in daily life. Aiming at strengthening this type of applications the study of techniques and methods to increase the cameras field of view becomes interesting. The field of omnidirectional computer vision appears as a promising strategy to give vents to this interest. With focus on increasing the camera’s capacity to capture information from an environment, the omnidirectional vision raises a variety of techniques for that purpose, including the catadioptric omnidirectional vision, which is based on the use of mirrors to allow the capture a wide angle image from the environment. Among different profiles of possible mirrors that could be used with the camera, this work focuses on the use of convex hyperbolic double lobed mirror. This mirror also has the single view point property (minimizing geometric images distortions generated by the environment), which allows to capture two different images of the same scene, thus making it possible the use of omnidirectional stereoscopic for calculating environmental information. This work aims to verify of the parameters influence to create the hyperbolic double lobed mirror to allow the scene reconstruction. For this, the simulation of a double lobed catadioptric omnidirectional system from cylindrical panoramic images is performed. These images are basis for performing stereoscopic omnidirectional to calculate the distances between objects corners present in the scene relative the capture system. A software called OmniViz was prepared for such task. It allows the user to customize the mirror design parameters, simulates the omnidirectional image from a cylindrical panoramic image, emphasizes the features that will be used (in this case the objects corners), performs the points correlation and calculates the distances between points and the simulated vision system. Still an analysis is performed with aid of MatLab ® to validate the efficiency of the presented system. This analysis is based on the error associated with the parameter changes of the mirror design, in relation to calculating environmental data. The results demonstrate that the correct choices of the design mirror parameters imply in the mirror ability to generate images that can facilitate or hinder the reconstruction of a particular scene.
197

Morfogênese dos jogos digitais

Guimarães, Danilo Silva 13 July 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Artes, Departamento de Artes Visuais, Programa de Pós-Graduação em Artes, 2011. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-02-27T14:55:52Z No. of bitstreams: 1 2011_DaniloSilvaGuimaraes.pdf: 2837292 bytes, checksum: cfbd73a715ff56a2497e3b615d573a53 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2012-02-27T20:51:25Z (GMT) No. of bitstreams: 1 2011_DaniloSilvaGuimaraes.pdf: 2837292 bytes, checksum: cfbd73a715ff56a2497e3b615d573a53 (MD5) / Made available in DSpace on 2012-02-27T20:51:25Z (GMT). No. of bitstreams: 1 2011_DaniloSilvaGuimaraes.pdf: 2837292 bytes, checksum: cfbd73a715ff56a2497e3b615d573a53 (MD5) / O presente trabalho pretende mapear afirmações que abordam os jogos digitais como expressão artística. Teorias filosóficas afirmam que os jogos são entidades com grande potencial artístico, cultural, dotados de autonomia e fomentadores das mais diferenciadas formas de evasão do cotidiano. Com intuito de fornecer uma base conceitual, a primeira parte da investigação esclarece temas que se correlacio-nam ao universo das estéticas dos trabalhos tecnológicos, invenção fotográfica e inteligência artificial. Especificamente, a digitalização da informação permitiu o surgimento de novas dinâmicas de atuação. Nos jogos, sua incorporação criou os jogos digitais, popularmente chamados de games, local em que se concentra a segunda parte da pesquisa. Artistas observaram seu poder cultural e com a utilização de modos criativos de intervenção, subverteram seus valores e elaboraram o conceito de gamearte. Portanto, os jogos digitais como proposta artística se utiliza livremente das linguagens dos games para questionar, indagar e se expressar. A parte final procura esclarecer e propor uma forma de elaboração dos jogos digitais, ao descrever e analisar cuidadosamente todas as etapas de concepção do gamearte Evolutione. O jogo multiusuário tem um apelo ecológico, que procura indagar as ações humanas, seu antropocentrismo e demonstra uma potencial forma de equilíbrio planetário. ______________________________________________________________________________ ABSTRACT / This paper aims to map affirmations that digital games are artistic expressions. Philosophical theories claim that the games are entities with great artistic potential, cultural, with autonomy and developers of differentiated forms of escape from everyday life. In order to provide a conceptual framework, the first part of the investigation clarifies issues that correlate to the universe of aesthetic technological, invention of protography and artificial intelligence. Specifically, the digitization of information has allowed the emergence of new dynamics presentation. In the games, its incorpóration created the digital games, generally known as games, where it focuses the second part of the research. Artists observed their cultural power and the used of creative ways to intervene, subverted their values and developed the concepts of gameart. Therefore, the digital games as artistic proposal makes use of the games language to question, inquire and express themselves. The final part of the research seeks to clarify and propose a form of development of digital games, to describe an analyze carefully all the steps of designing the gameart Evolutione. The game multiplayer has proposed ecological appeal, which seeks to investigate human actions, its anthropocentrism and demonstrates a potential form of planetary balance.
198

XGIS Flex : um framework livre para o desenvolvimento de sistemas de informações geográficas para a WEB

Pascual, Mariano Federico 09 April 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Geociências, Programa de Pós-Graduação em Geociências, 2013. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-09-23T15:19:07Z No. of bitstreams: 1 2013_MarianoFedericoPascual.pdf: 1686370 bytes, checksum: f49f0b6e29bce7ec63eb24c2579db567 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-09-24T15:17:23Z (GMT) No. of bitstreams: 1 2013_MarianoFedericoPascual.pdf: 1686370 bytes, checksum: f49f0b6e29bce7ec63eb24c2579db567 (MD5) / Made available in DSpace on 2013-09-24T15:17:23Z (GMT). No. of bitstreams: 1 2013_MarianoFedericoPascual.pdf: 1686370 bytes, checksum: f49f0b6e29bce7ec63eb24c2579db567 (MD5) / Esta dissertação de mestrado apresenta dois estudos de caso relacionados a arquiteturas de implantação de sistemas de informações geográficas (SIG) em ambiente web que culminaram no desenvolvimento de um framework composto por um conjunto de componentes de apoio à construção de novos softwares de SIG para web. O primeiro estudo foi realizado com foco na interoperabilidade de serviços de mapas na web, contemplando principalmente as funções de consulta e disponibilização de dados em formatos diversos. Para viabilizar a troca e integração de informações espacializadas, foi necessário o desenvolvimento de alguns componentes que foram escritos sobre tecnologias proprietárias tais como Esri Flex API. Entendidas as limitações que um motor central de código fechado poderia trazer ao objeto principal do estudo, isto é, o desenvolvimento de uma arquitetura de intercâmbio de informações geográficas, surgiu a idéia de construir um conjunto de software que contornassem tais dificuldades. O segundo estudo foi realizado com foco na elaboração de um framework livre para desenvolvimento de SIG em ambiente web de padrão Rich Internet Application (RIA) e que seguisse conceitos da Web 2.0, possibilitando a indexação e visualização de dados provenientes de diferentes tipos de mídia (fotografias, vídeos, documentos) que fossem aderentes aos padrões da Open Geospatial Consortium (OGC), mas que, ainda assim, fossem possíveis de serem compartilhadas com outros formatos de dados. Este último estudo buscou ainda reduzir a complexidade e custos de implantação de projetos dessa natureza e facilitar a customização por parte de usuários finais. Ao conjunto de códigos desenvolvidos e sua arquitetura, foi dado o nome de XGIS Flex Framework. ______________________________________________________________________________ ABSTRACT / This MSc. Thesis presents two study cases related to the architectures of implementation of geographical information systems (GIS) in web environment that ended in the development of a framework composed by a set of components supporting the preparation of new web GIS software packages. The first study was conducted focused on the interoperability of map services in the web, mainly covering the functions of consultation and release of data at varying formats. In order to enable exchange and integration of spatial information, it was necessary to develop components based on proprietary technologies like ESRI Flex API. After understanding the limitations that a central engine of closed source code could bring to the main object of study, that is, the development of an architecture for the exchange of geographic information, we came out with the idea of building a set of software that would circumvent such difficulties. The second study was conducted focusing on the preparation of a free framework for development of GIS in an environment of Rich Internet Application (RIA) and Web 2.0 concepts. The purpose here was to enable indexing and visualization of data from different types of media (photos, videos, documents) that were adherent not only to the standards of the Open Geospatial Consortium (OGC), but also to other data formats. The latter study also sought to reduce the complexity and costs of implementation of such projects and to facilitate customization by end users. This set of developed softwares and its architecture was named XGIS Flex Framework.
199

A virtualização da música na cultura DJ : indissociabilidades entre autores e ouvintes

Pedrosa, Ramiro Galas 02 December 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Artes, Departamento de Música, Programa de Pós-Graduação em Música, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-05-05T12:57:38Z No. of bitstreams: 1 2013_LeticiaValenteRamos.pdf: 635260 bytes, checksum: 46b310287161be51216d066b5cb7ed9d (MD5) / Rejected by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br), reason: on 2014-05-05T14:04:47Z (GMT) / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-05-05T14:11:54Z No. of bitstreams: 1 2013_RamiroGalasPedrosa.pdf: 7413343 bytes, checksum: 73633f3b694d5bcea02ccd1f6e0a7c42 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-05-05T14:46:05Z (GMT) No. of bitstreams: 1 2013_RamiroGalasPedrosa.pdf: 7413343 bytes, checksum: 73633f3b694d5bcea02ccd1f6e0a7c42 (MD5) / Made available in DSpace on 2014-05-05T14:46:05Z (GMT). No. of bitstreams: 1 2013_RamiroGalasPedrosa.pdf: 7413343 bytes, checksum: 73633f3b694d5bcea02ccd1f6e0a7c42 (MD5) / Neste trabalho, investiga-se se o processo de virtualização (Levy, 1996) e a presença constante de inovações tecnológicas nos processos de produção, circulação e consumo da música na cultura DJ levaram à consolidação de um novo paradigma de autor e ouvinte nessa cultura. Por meio da revisão da literatura sobre o tema, da etnografia virtual (Hine, 2000) dos conteúdos gerados pelos 3 DJs interlocutores no ciberespaço e da entrevista semiestruturada com os DJs em seus estúdios caseiros (o local de criação musical), o trabalho observa as ferramentas de criação, os meios de circulação e o consumo da música no ciberespaço, assim delimitando os novos papéis atribuídos a quem produz e consome música nessa cultura musical. Os papéis de autor e ouvinte, consolidados na indústria musical ao longo do século XX, agora estão passando por um momento de transição marcado pela indissociabilidade e integração entre as atividades (outrora bem delimitadas e separadas) dessas duas entidades. Os meios de produção e a própria estrutura musical envolvem novas ferramentas de criação; a circulação é feita por meio da internet; e o consumo se apresenta como um pré-requisito para a criação musical. Os meios de criação na cultura DJ mudaram, mas a ideia de criar algo individual e “com uma cara mais própria” permanece entre os DJs interlocutores. _______________________________________________________________________________________ ABSTRACT / This work investigates whether the process of virtualization (Levy, 1996) and the constant presence of technological innovation processes in the production, circulation and consumption of music in DJ culture has led to the consolidation of a new paradigm for authors and listeners in this culture. Through the literature review on the subject, the virtual ethnography (Hine, 2000) of the content generated by tree Djs in cyberspace, and by conducting semi-structured interviews with DJs in their home studios (the place of musical creation), this work observes the creative tools, the means of circulation and consumption of music in cyberspace, thus seeking to define the new roles associated to those who produce and consume music within this musical context. The roles of author and listener, consolidated by the music industry throughout the twentieth century, are now undergoing a time of transition marked by the indissociability and integration of these entities' (previously well-defined and separated) activities. The means of production and the musical structure itself involve new authoring tools; circulation is done through the internet, and consumption is presented as a prerequisite for musical creation. The means of creation in DJ culture have changed, but the idea of creating something individual and “with a unique characteristic” remains among DJ interlocutors.
200

Brain-machine interface using nonlinear Kalman filters and channel selection / Interface cérebro-máquina usando filtros de Kalman e seleção de canais

DANTAS, Henrique Cunha 26 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2015-10-22T16:37:20Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Henrique_Dantas_2015.pdf: 1887462 bytes, checksum: 0e4a34db6ecb36db533670b19464128c (MD5) / Made available in DSpace on 2015-10-22T16:37:20Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Henrique_Dantas_2015.pdf: 1887462 bytes, checksum: 0e4a34db6ecb36db533670b19464128c (MD5) Previous issue date: 2015-06-26 / CAPES / This dissertation describes the use of Kalman Filter to decode neural signals, which were recorded using cortical surface potentials, acquired with dense grids of microelectrodes, for brain-computer interfaces (BCIs). This work represents a combination of electronic and biomedical engineering, machine learning and neural science. Kalman filters have been used to decode neural signals and estimate hand kinematics in many studies. However, most prior work assumes a linear system model, an assumption that is violated by neural systems. In this dissertation, I added nonlinearities to the decoding algorithm improving the accuracy of tracking hand movements using neural signal acquired via a 32-channel micro-electrocorticographic (µECoG) grid placed over the arm and hand representations in the motor cortex. Experimental comparisons indicate that a Kalman filter with a fifth order polynomial generative model with cross product relating the hand kinematics signals to the neural signals improved the mean-square tracking performance in the hand movements over a conventional Kalman filter employing a linear system model. While in other works the channel delays were estimated using algorithm based on hill climbing or assuming the uniformity of delay across all the channels. In this work, Particle Swarm of Optimization was applied to better estimate the delays. Also, I was also able to develop a generalized feature selection algorithm and apply to it, to select the most significant channels. As expected this caused a loss in accuracy, but the results of a 16 neural channels system were comparable with the full 32 channel system. This dissertation represents a comprehensive investigation of addition of non linearities, delay estimation and feature selection for Kalman Filter, when used as interface between man and machine. / Essa dissertação descreve o uso dos Filtros de Kalman para decodificar sinais neurais, que são gravados na superfície do córtex cerebral por uma malha densa de micro eletrodos, para interfaces cérebro computador. Esse trabalho representa a combinação entre os campos das engenharia eletrônica e biomédica, aprendizagem de máquina e neuro ciência. Filtros de Kalman tem sido usados para decodificar sinais neurais e estimar os estados cinemáticos da mão em diversos estudos. No entanto, na maioria dos trabalhos anteriores é assumido linearidade, tal premissa é quase certa de ser falsa em sistemas neurais. Nessa dissertação, foi adicionado não linearidades ao algoritmo de decodificação, que resultou em uma melhora na acurácia da predição dos movimentos da mão para sinais adquiridos por uma malha de 32 micro canais eletrocortigráfico (µECoG), colocados sobre as áreas que representam mão e braços no córtex motor. Comparações experimentais indicam que os Filtros de Kalman com quinta ordem polinomial no modelo generativo com o produto cruzado para relacionar o estado cinemático da mão com os sinais neurais melhoram o erro quadrático se comparado com os Filtros de Kalman tradicionais. Enquanto em outros trabalhos os retardos dos canais são estimados com algoritmos de subida de encosta ou assumindo uniformidade entre os atrasos. Nesse trabalho, foi usado otimização po exame (PSO) para estimar os melhores retardos para cada canal. Nesse trabalho, também foi desenvolvido uma generalização da informação mutua para selecionar os melhores canais. Como o esperado a redução para 16 canais neurais, levou a uma perda de desempenho, porém os resultados são comparáveis. Essa dissertação representa uma compreensiva investigação sobre a adição de não linearidades, estimação de atrasos e seleção de características para Filtros de Kalman, quando usados como interface entre homem e máquina.

Page generated in 0.0627 seconds