Spelling suggestions: "subject:"digitais"" "subject:"digitais2""
531 |
Exploração de ambientes em jogos eletrônicos / Exploration of environments in video gamesIvan Mussa Tavares Gomes 27 February 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esta pesquisa parte da observação de uma prática ocorrida em jogos eletrônicos, identificada como exploração de ambientes. Seu objeto são as ações, processos e os contextos que abrigam esta prática posta em movimento pelos jogadores, em associação com os demais agentes que fazem o jogo funcionar. Objetiva-se uma conceituação do comportamento exploratório nos videogames, bem como dos ambientes nos quais ele se concretiza, e do qual é inseparável. Para tanto, fez-se uma divisão em três partes, a procura de redefinir esta prática a partir de perspectivas teóricas distintas. A primeira se refere às particularidades da exploração em ambientes digitais. Demonstra-se como o jogo representa as habilidades que compõem este processo (movimento, navegação, reconhecimento e manipulação), e quais as propriedades comunicativas da exploração no videogame. A segunda expande a mesma reflexão à uma esfera lúdica, em busca da relação entre ludicidade e exploração nos jogos de mundo aberto, além das suas propriedades formais e ficcionais. A última liga a exploração a um processo criativo de invenção e experimentação com as possibilidades do jogo / This research is based on the observation of a practice that occurs in video games, identified as exploration of environments. The object consists in the actions, processes and contexts that serve as stages for this practice that is played by the gamers, in an ensemble formed with the other agents that make the game work. The objective is to conceptualize the exploratory behavior in video games, along with the environments in which it materializes itself from which its inseparable. To that end, a division in three parts aims to redefine this practice with distinct theoretical perspectives. The first one refers to the particularities of exploration in digital environments. We demonstrate how the game represents the abilities that integrate this process (locomotion, navigation, recognition, manipulation), and what are the communicative properties of exploring the game. The second one expands this same reflection to a ludic sense, in pursuit of the relation between game and exploration in open world games, besides its formal and fictional properties. The last one links exploration to a process of invention and experimentation with the possibilities of the game
|
532 |
Verificação oportunista de assinaturas digitais para programas e bibliotecas em sistemas operacionais paginadosDestefani, Guilherme Herrmann 10 2010 (has links)
Este trabalho apresenta a combinação de uma série de mecanismos de segurança baseados
em criptografia com conceitos de sistemas operacionais. Esta combinação cria uma
arquitetura inovadora,que aproveita características do funcionamento do sistema operacional
para protegê-lo de vulnerabilidades relacionadas com a adulteração de programas
e bibliotecas.
Esta arquitetura consiste em um mecanismo de geração de assinaturas digitais integradas
a programas e bibliotecas, para garantir a autenticidade e a integridade dos mesmos
e de cada parte do sistema operacional em execução. O sistema funciona de forma transparente
para programadores, e possibilita que o software com assinaturas digitais seja
compatível com sistemas que não tenham suporte a verificação de assinatura, simplificando
o processo de distribuição.
A verificação de assinaturas é integrada com o mecanismo de paginação do microprocessador,
de forma a efetuar uma verificação sob demanda somente da parte dos programas
e bibliotecas que é efetivamente utilizada. Esta integração diminui o impacto sobre
o desempenho e proporciona transparência para os usuários finais e administradores de
sistemas.
A validação do modelo proposto foi realizada como uma extensão à interface binária
de aplicação Unix ELF, implementada na plataforma GNU/Linux. O impacto da assinatura
digital para desenvolvedores e distribuidores de sistemas operacionais sob a ótica de
complexidade de uso, efeitos do sistema para usuários finais e a sobrecarga no desempenho
do sistema foram verificados. / This work discusses a series of security mechanisms based in cryptography, combining
them with concepts of operating systems, in order to create an innovative architecture
that uses some functionalities characteristics of operating system to protect it against
vulnerabilities related with the adulteration of computer programs and libraries.
This architecture consists in a mechanism for generation of digital signatures integrated
into the computer programs and libraries, in order to guarantee the software and operating
system authenticity and integrity while in execution by the target machine. The system is
transparent to programmers, and it is also possible that software with digital signatures
can be executed on systems without support to verification of signature, what simplifies
the software distribution process.
The verification of signatures is integrated with the paging mechanism of the microprocessor,
making on-demand verification only in the part of the programs and libraries that
is going to be effectively used, diminishing the impact on the performance and providing
transparency for final users and system administrators.
The validation of the model was carried through as an extension to the application
binary interface Unix ELF, implemented in the GNU/Linux platform. The impact of the
digital signature for developers and distributors of operating systems under the point of
view of complexity, effect for final users and overload in performance of the system was
verified.
xix
|
533 |
Instrumento de aquisição e processamento de imagens de olhosFigueira, Márcio Vieira January 2007 (has links)
Made available in DSpace on 2013-08-07T18:53:24Z (GMT). No. of bitstreams: 1
000396763-Texto+Parcial-0.pdf: 1226415 bytes, checksum: 34691e947acca10ed3602253a14e3f69 (MD5)
Previous issue date: 2007 / This work describes the development of an innovative device designed to support the medical diagnosis and to study human balance disorders, which are responsible for manifestations like dizziness, loss of balance and nausea. Several techniques used for balance evaluation are subjective, invasive or inaccurate. The technique proposed by this research is non-invasive and objective, since it is based on digital image processing. The vestibular apparatus, located in the inner ear, is responsible for the maintenance of the human balance. Selective head movements are induced on the patient to stimulate each one of the semicircular canals that are part of the vestibular apparatus. The stimulation of the canals cause the generation of the vestibulo-ocular reflex, which produces compensatory eye movements proportional to the head movements. Images of the eyes are captured by cameras attached to an equipment, which blocks the vision and illuminates the eyes with infrared light. A personal computer digitalizes the images with a framegrabber. The digitalized eye images are processed by an algorithm developed to calculate the center of the pupil on each frame. A developed program displays on screen the result of the eye movement quantification in two graphs - one for vertical movement and the other for horizontal movement. The data displayed in the graphs can be exported to a file for posterior visualization. The correct interpretation of the graphs carried out by the specialist facilitate the diagnosis process of several vestibular and neuronal hypofunctions. In order to validate the algorithm that calculates the center of the pupil, a library was developed to generate synthetic images of the eye. This library was used to generate several synthecized images of the eye in movement in different real situations observed during this work. These images were processed by the algorithm to determine the error between the synthecized center and the calculated center. / Este trabalho descreve o desenvolvimento de um instrumento inovador para apoio ao diagnóstico medico e às pesquisas relativas às doenças que afetam o equilíbrio humano. Estas doenças são responsáveis por manifestações como tonturas, perda de equilíbrio, náuseas e enjôos. Diversas técnicas utilizadas para avaliar as funções do equilíbrio são subjetivas, invasivas ou imprecisas. A técnica proposta por este trabalho baseia-se em processamento digital de imagens dos olhos, possibilitando a confecção de um instrumento objetivo, preciso e não invasivo. O sistema vestibular humano, localizado na orelha interna, é fundamental para a manutenção do equilíbrio. Movimentos seletivos de cabeça são usados para estimular cada um dos canais semi-circulares, que compõem o sistema vestibular. Através do reflexo vestíbulo-motor, são produzidos movimentos de olhos que correspondem compensatoriamente aos estímulos dos canais semi-circulares. Imagens dos olhos são capturadas por câmeras fixas a um equipamento, que isola os olhos da luz externa e os ilumina com luz infravermelha. Um computador pessoal digitaliza as imagens com auxílio de uma placa de captura. As imagens capturadas são processadas por um algoritmo desenvolvido onde, em cada quadro, o centro da pupila é calculado. Um programa desenvolvido apresenta o resultado da quantificação do movimento dos olhos na tela em dois gráficos - um para o movimento vertical e outro para o movimento horizontal. Os dados apresentados no gráfico podem ser exportados para um arquivo para visualização posterior. A correta interpretação dos gráficos pelo médico especialista facilita o diagnóstico de hipofunções do sistema vestibular e sistema nervoso .Com o objetivo de se validar o algoritmo que calcula o centro da pupila, foi construída uma biblioteca geradora de imagens sintéticas de olho. Diversas imagens sintéticas foram geradas, que simularam diferentes situações, baseadas em situações reais observadas durante o trabalho. Estas imagens foram processadas e em cada uma avaliou-se o erro do algoritmo ao determinar o centro da pupila.
|
534 |
Desconvolução autodidata concorrente para beamformers não supervisionados em antenas controladas por reatânciaOrtolan, Leonardo January 2007 (has links)
Made available in DSpace on 2013-08-07T18:52:57Z (GMT). No. of bitstreams: 1
000392290-Texto+Completo-0.pdf: 2449610 bytes, checksum: e98cfa50388a7a3f744c3841c0b5837e (MD5)
Previous issue date: 2007 / The electronically steerable parasitic array radiator (ESPAR) is a smart antenna suited for low-cost user terminal applications. Beamforming is achieved by adaptively adjusting the load reactances at parasitic elements surrounding the active central element. The main goal is to establish nulls in the interfering directions of the array radiation pattern. This work presents two new blind beamformers for use with reactance domain controlled arrays, such as ESPAR antennas. The new beamformers are based on the concurrent operation of two stochastic gradient algorithms, one which minimizes a cost function that measures the received signal energy dispersion and other which minimizes the Euclidean distance between the received digital modulation symbols and the ones in the reference constellation. The first algorithm applies the principle of operation of the Concurrent Self-learning Deconvolution Process (CSDP) to the Maximum Moment Criterion (MMC) algorithm. The second algorithm uses the original architecture of the CSDP, which relies upon the Constant Modulus Algorithm (CMA). These two approaches not only evaluate the energy of the received signal, but also the signal phase, needing no transmission of any training sequence. The results show that these two concurrent approaches result not only in a smaller mean square error (MSE) in relation to the reference constellation of the digital modulation but also result in a better signal to interference ratio. / A ESPAR (Electronically Steerable Parasitic Array Radiator) é uma antena adaptativa, utilizada para recepção de sinais digitais. Esta antena, diferentemente das demais antenas inteligentes, necessita de apenas um downconverter no elemento central ativo. Todos os outros elementos da antena são parasitas e modelam o diagrama de irradiação através do ajuste independente de reatâncias controláveis. Estas reatâncias são ajustadas por meio de um algoritmo adaptativo. O objetivo deste algoritmo é buscar um conjunto de valores para as reatâncias, tal que o diagrama de irradiação seja modelado de modo a anular sinais interferentes. Neste trabalho são propostos dois novos algoritmos baseados no Gradiente Estocástico, para controle de antenas controladas por reatâncias, tal como a ESPAR. O primeiro algoritmo aplica o princípio de operação do Processo de Desconvolução Autodidata Concorrente (PDAC) ao algoritmo Maximum Moment Criterion (MMC). Já o segundo algoritmo utiliza a arquitetura original do PDAC. Esses processos avaliam não apenas a energia do sinal recebido (amplitude), mas também a fase do sinal, sem necessidade de transmissão de qualquer seqüência de treino. Os resultados obtidos demonstram que os algoritmos que utilizam a arquitetura concorrente não só resultam em um menor erro médio quadrático em relação à constelação de referência da modulação digital, como também resultam em uma melhor relação sinal-interferência.
|
535 |
Visualização e processamento digital de imagens médicasZaffari, Carlos Alberto January 2006 (has links)
Made available in DSpace on 2013-08-07T18:53:42Z (GMT). No. of bitstreams: 1
000383457-Texto+Completo-0.pdf: 3932744 bytes, checksum: 8275a09ab056c4ef4e381537415b569a (MD5)
Previous issue date: 2006 / This text describes the theory, the project and results obtained by the Visualizador e Processador de Imagens Médicas (VPIM - in English: Visualization and Processing of the Medical Image). The mathematical base, the algorithms, the software and hardware environments, and the internal software architecture with the main objects of the VPIM are the main topics covered. Particularities of the software implementation and the means to extent the current set of features (through plug-ins) are also discussed. The results are shown mainly through images as a mean to ease its understanding. Among the main features implemented there are: image rotation, mirroring, the compliment of an image, convolution filters in space-domain (moving average lowpass, median filter, and Sobel), frequency filters (Butterworth filters), the generation of a power-specter representation of an image, total and partial grayscale remapping of an image, the association of pseudo-colors to the scales of gray in an image, image combination techniques, global threshold system, measuring tools for images, histogram, profile lines, and movie-alike image presentation using DICOM Series and Studies in order to sequence images. / Esta dissertação descreve a teoria envolvida, o projeto e os resultados obtidos com o Visualizador e Processador de Imagens Médicas (VPIM), que é voltado para a área médica e científica. Nela são cobertos o embasamento matemático, os algoritmos usados na construção das ferramentas, o ambiente usado para a implementação, a arquitetura empregada e a descrição dos principais objetos utilizados pelo VPIM. São discutidas, também, as particularidades encontradas durante a fase de implementação do projeto e o processo usado para futuras expansões (plug-in). Os resultados obtidos são apresentados mediante de uso de imagens visando um fácil entendimento dos mesmos. Entre as funções implementadas podemos ressaltar: a rotação de imagens, o espelhamento de imagens, a negação de uma imagem, os filtros de convolução no espaço (filtro da média móvel, filtro da mediana, filtro de Sobel), os filtros em freqüência (filtros de Butterworth), a obtenção do espectro de potência da imagem, o remapeamento global ou parcial de uma imagem, a aplicação de pseudo-cor, as técnicas de combinação, o threshold global, as técnicas de medidas feitas sobre a imagem, as estatísticas obtidas, o histograma, as linhas de perfil, o uso de séries e estudos para apresentação de imagens e a apresentação como filme das imagens de uma série.
|
536 |
Instrumento portátil para aquisição, digitalização e processamento de imagens a ser aplicado na avaliação do sistema de equilíbrio humanoPrestes, Lucas Plautz January 2013 (has links)
Made available in DSpace on 2013-08-07T18:53:41Z (GMT). No. of bitstreams: 1
000447552-Texto+Completo-0.pdf: 4224320 bytes, checksum: 456d05e40b6e8b81bfbe9822a9d4d73d (MD5)
Previous issue date: 2013 / This thesis describes a new human balance analysis instrument for studies on the physiology of the vestibular system, support for diagnostics, patient evolution in treatment and in the adaptation process of physiotherapy and vestibular disorders. Various techniques used to evaluate balance are subjective, imprecise and invasive. In the present work, a device has been developed to objectively measure human balance in a non-invasive manner with adequate precision. The objectives of this thesis were: (1) to improve image processing techniques, (2) to reduce equipment production costs, (3) to facilitate portability, (4) to develop a robust, scalable and easily maintained software architecture. The vestibular system is located in the inner ear, and it is responsible for maintaining balance. The vestibular system is composed mainly of a network of tubes called semicircular canals, which are stimulated by selective head movements. Through vestibular-motor reflexes, eye movements are induced which correspond to head movement. The images of the eye movements are acquired by video cameras, under infrared illumination. The cameras are mounted to glasses isolated from external light developed for the purposes of this research. The camera images are digitalized by an external capture card and processed in real time by an algorithm developed to, frame by frame, locate the center of the pupil. The location of the center of the pupil in response to the vestibulo-ocular stimulus is plotted into a graph, to then be interpreted by a medical specialist. The tests carried out prove the efficiency and robustness of the algorithm in calculating the center of the pupil with a broad range of variations. The tests include a number of variations of the pupil and elliptical eye distortions with additional reflections occasioned by sources of illumination. All tests had a negligible error, thus proving their efficiency and meeting their objective. / Este trabalho descreve um novo instrumento de análise do equilíbrio humano para o estudo da fisiologia do sistema vestibular, apoio ao diagnóstico, evolução do paciente no processo adaptativo de fisioterapia e transtornos do sistema vestibular. Várias técnicas utilizadas para avaliar o equilíbrio são subjetivas, imprecisas e invasivas. Neste trabalho foi desenvolvido um equipamento para medir objetivamente o equilíbrio humano de modo não invasivo e com precisão adequada. As metas deste trabalho foram: (1) Aperfeiçoar as técnicas de processamento de imagens, (2) Reduzir os custos de produção do equipamento, (3) Facilitar sua mobilidade, (4) Desenvolver uma arquitetura de software robusta, escalável e de fácil manutenção. O sistema vestibular localiza-se no ouvido interno, sendo responsável pela manutenção do equilíbrio. O sistema vestibular é principalmente composto por uma rede de tubos chamados canais semicirculares, os quais são estimulados por movimentos seletivos da cabeça. Através do reflexo vestíbulo-motor, são induzidos movimentos oculares correspondentes ao movimento de cabeça realizado. As imagens dos movimentos oculares foram adquiridas por câmeras de vídeo, sob iluminação infravermelha. As câmeras foram adaptadas em um óculos com isolamento de luz externa desenvolvido para propiciar este trabalho. As imagens das câmeras são digitalizadas por uma placa de captura externa e processadas em tempo real por um algoritmo desenvolvido para, quadro a quadro, localizar o centro da pupila. A localização do centro da pupila em resposta ao estímulo vestíbuloocular é representada graficamente, para interpretação pelo médico especialista. Os testes realizados comprovam a eficiência e robustez do algoritmo no cálculo de centro de pupila nas suas mais diversas variações. Os testes abrangem as mais diversas variações da pupila e distorções elípticas oculares com o adicional de reflexos ocasionados por fontes de iluminação. Todos os testes obtiveram erro, desprezível, comprovando assim sua eficiência e cumprindo o seu objetivo.
|
537 |
Analyzing the Impact of Radiation-induced Failures in All Programmable System-on-Chip Devices / Avaliação do impacto de falhas induzidas pela radiação em dispositivos sistemas-em-chip totalmente programáveisTambara, Lucas Antunes January 2017 (has links)
O recente avanço da indústria de semicondutores tem possibilitado a integração de componentes complexos e arquiteturas de sistemas dentro de um único chip de silício. Atualmente, FPGAs do estado da arte incluem, não apenas a matriz de lógica programável, mas também outros blocos de hardware, como processadores de propósito geral, blocos de processamento dedicado, interfaces para vários periféricos, estruturas de barramento internas ao chip, e blocos analógicos. Estes novos dispositivos são comumente chamados de Sistemasem-Chip Totalmente Programáveis (APSoCs). Uma das maiores preocupações acerca dos efeitos da radiação em APSoCs é o fato de que erros induzidos pela radiação podem ter diferente probabilidade e criticalidade em seus blocos de hardware heterogêneos, em ambos os níveis de dispositivo e projeto. Por esta razão, este trabalho realiza uma investigação profunda acerca dos efeitos da radiação em APSoCs e da correlação entre a sensibilidade de recursos de hardware e software na performance geral do sistema. Diversos experimentos estáticos e dinâmicos inéditos foram realizados nos blocos de hardware de um APSoC a fim de melhor entender as relações entre confiabilidade e performance de cada parte separadamente. Os resultados mostram que há um comprometimento a ser analisado entre o desempenho e a área de choque de um projeto durante o desenvolvimento de um sistema em um APSoC. Desse modo, é fundamental levar em consideração cada opção de projeto disponível e todos os parâmetros do sistema envolvidos, como o tempo de execução e a carga de trabalho, e não apenas a sua seção de choque. Exemplificativamente, os resultados mostram que é possível aumentar o desempenho de um sistema em até 5.000 vezes com um pequeno aumento na sua seção de choque de até 8 vezes, aumentando assim a confiabilidade operacional do sistema. Este trabalho também propõe um fluxo de análise de confiabilidade baseado em injeções de falhas para estimar a tendência de confiabilidade de projetos somente de hardware, de software, ou de hardware e software. O fluxo objetiva acelerar a procura pelo esquema de projeto com a melhor relação entre performance e confiabilidade dentre as opções possíveis. A metodologia leva em consideração quatro grupos de parâmetros, os quais são: recursos e performance; erros e bits críticos; medidas de radiação, tais como seções de choque estáticas e dinâmicas; e, carga de trabalho média entre falhas. Os resultados obtidos mostram que o fluxo proposto é um método apropriado para estimar tendências de confiabilidade de projeto de sistemas em APSoCs antes de experimentos com radiação. / The recent advance of the semiconductor industry has allowed the integration of complex components and systems’ architectures into a single silicon die. Nowadays, state-ofthe-art FPGAs include not only the programmable logic fabric but also hard-core parts, such as hard-core general-purpose processors, dedicated processing blocks, interfaces to various peripherals, on-chip bus structures, and analog blocks. These new devices are commonly called of All Programmable System-on-Chip (APSoC) devices. One of the major concerns about radiation effects on APSoCs is that radiation-induced errors may have different probability and criticality in their heterogeneous hardware parts at both device and design levels. For this reason, this work performs a deep investigation about the radiation effects on APSoCs and the correlation between hardware and software resources sensitivity in the overall system performance. Several static and dynamic experiments were performed on different hardware parts of an APSoC to better understand the trade-offs between reliability and performance of each part separately. Results show that there is a trade-off between design cross section and performance to be analyzed when developing a system on an APSoC. Therefore, today it is mandatory to take into account each design option available and all the parameters of the system involved, such as the execution time and the workload of the system, and not only its cross section. As an example, results show that it is possible to increase the performance of a system up to 5,000 times by changing its architecture with a small impact in cross section (increase up to 8 times), significantly increasing the operational reliability of the system. This work also proposes a reliability analysis flow based on fault injection for estimating the reliability trend of hardware-only designs, software-only designs, and hardware and software co-designs. It aims to accelerate the search for the design scheme with the best trade-off between performance and reliability among the possible ones. The methodology takes into account four groups of parameters, which are the following: area resources and performance; the number of output errors and critical bits; radiation measurements, such as static and dynamic cross sections; and, Mean Workload Between Failures. The obtained results show that the proposed flow is a suitable method for estimating the reliability trend of system designs on APSoCs before radiation experiments.
|
538 |
Radiation robustness of XOR and majority voter circuits at finFET technology under variabilityAguiar, Ygor Quadros de January 2017 (has links)
Os avanços na microeletrônica contribuíram para a redução de tamanho do nó tecnológico, diminuindo a tensão de limiar e aumentando a freqüência de operação dos sistemas. Embora tenha resultado em ganhos positivos relacionados ao desempenho e ao consumo de energia dos circuitos VLSI, a miniaturização também tem um impacto negativo em termos de confiabilidade dos projetos. À medida que a tecnologia diminui, os circuitos estão se tornando mais suscetíveis a inúmeros efeitos devido à redução da robustez ao ruído externo, bem como ao aumento do grau de incerteza relacionado às muitas fontes de variabilidade. As técnicas de tolerancia a falhas geralmente são usadas para melhorar a robustez das aplicações de segurança crítica. No entanto, as implicações da redução da tecnologia interferem na eficácia de tais abordagem em fornecer a cobertura de falhas desejada. Por esse motivo, este trabalho avaliou a robustez aos efeitos de radiação de diferentes circuitos projetados na tecnologia FinFET sob efeitos de variabilidade. Para determinar as melhores opções de projeto para implementar técnicas de tolerancia a falhas, como os esquemas de Redundância de módulo triplo (TMR) e/ou duplicação com comparação (DWC), o conjunto de circuitos analisados é composto por dez diferentes topologias de porta lógica OR-exclusivo (XOR) e dois circuitos votadores maioritários (MJV). Para investigar o efeito da configuração do gate dos dispositivos FinFET, os circuitos XOR são analisados usando a configuração de double-gate (DG FinFET) e tri-gate (TG FinFET). A variabilidade ambiental, como variabilidade de temperatura e tensão, são avaliadas no conjunto de circuitos analisados. Além disso, o efeito da variabilidade de processo Work-Function Fluctuation (WFF) também é avaliado. A fim de fornecer um estudo mais preciso, o projeto do leiaute dos circuitos MJV usando 7nm FinFET PDK é avaliado pela ferramenta preditiva MUSCA SEP3 para estimar o Soft-Error Rate (SER) dos circuitos considerando as características do leiaute e as camadas de Back-End-Of-Line (BEOL) e Front-End-Of-Line (FEOL) de um nó tecnológico avançado. / Advances in microelectronics have contributed to the size reduction of the technological node, lowering the threshold voltage and increasing the operating frequency of the systems. Although it has positive outcomes related to the performance and power consumption of VLSI circuits, it does also have a strong negative impact in terms of the reliability of designs. As technology scales down, the circuits are becoming more susceptible to numerous effects due to the reduction of robustness to external noise as well as the increase of uncertainty degree related to the many sources of variability. Faulttolerant techniques are usually used to improve the robustness of safety critical applications. However, the implications of the scaling of technology have interfered against the effectiveness of fault-tolerant approaches to provide the fault coverage. For this reason, this work has evaluated the radiation robustness of different circuits designed in FinFET technology under variability effects. In order to determine the best design options to implement fault-tolerant techniques such as the Triple-Module Redundancy (TMR) and/or Duplication with Comparison (DWC) schemes, the set of analyzed circuits is composed of ten different exclusive-OR (XOR) logic gate topologies and two majority voter (MJV) circuits. To investigate the effect of gate configuration of FinFET devices, the XOR circuits is analyzed using double-gate configuration (DG FinFET) and tri-gate configuration (TG FinFET). Environmental Variability such as Temperature and Voltage Variability are evaluated in the set of analyzed circuits. Additionally, the process-related variability effect Work-Function Fluctuation (WFF) is also evaluated. In order to provide a more precise study, the layout design of the MJV circuits using a 7nm FinFET PDK is evaluated by the predictive MUSCA SEP3 tool to estimate the Soft-Error Rate (SER) of the circuits considering the layout contrainsts and Back-End-Of-Line (BEOL) and Front-End-Of-Line (FEOL) layers of an advanced technology node.
|
539 |
Eu não posso ser dois : uma perspectiva sobre o conceito de gameplay a partir de experimentos com o jogo Brothers : a tale of two sonsCruz, Mariana Amaro January 2016 (has links)
Esta pesquisa concentra-se, fundamentalmente, no conceito de gameplay, tendo como objetivo principal compreender como as materialidades próprias da situação de jogo, as mecânicas e dinâmicas de jogo influenciam e caracterizam o gameplay a partir de experiências com o jogo digital Brothers – A Tale of Two Sons (Starbreeze Studios, 2013). O referencial teórico é divido em quatro partes: na primeira se faz um breve histórico sobre os Game Studies; na segunda é feita uma articulação entre os conceitos de jogar e jogabilidade em busca da compreensão das confluências destes no gameplay; na terceira são apresentados os principais conceitos e perspectivas sobre gameplay, assim como uma reflexão sobre as relações corporais e espaciais, as regras, o sentimento de prazer e a narrativa na mediação entre interfaces; e na quarta são tratadas questões entre as associações entre humano e máquina, assim como mecânica e dinâmica de controle nos jogos digitais. Na investigação empírica optou-se por adotar um procedimento metodológico divido em quatro etapas: a pré-análise, utilizando técnicas de observação participante, autorrelato, registro em caderno de campo e pesquisa documental a fim de experimentar Brothers; a captura de dados, na qual quatro voluntários jogaram as três fases iniciais do game – sob o registro de câmeras e observação da pesquisadora – e participaram de uma entrevista qualitativa semiestruturada sobre a atividade; a análise dos materiais coletados e, enfim, a construção de conclusões a partir dos resultados obtidos. Em termos gerais, concluiu-se que seria possível definir gameplay como uma mediação que engloba a interseção entre jogabilidade (máquina) e jogar (humano), de corpos e espaços percebida física e visualmente como um acontecimento pelo jogador que, através das possibilidades agenciadas pelas interfaces gráficas e de controle, age sobre este sistema sob a tutela das regras. / This research focuses on the gameplay’s concept with the main objective to understand how the materiality of game situation, and game’s mechanics and dynamics, influence and characterize the gameplay from experiences with the digital game Brothers - A Tale of Two Sons (Starbreeze Studios, 2013). The theoretical framework is split into four parts: the first is a brief history of the Game Studies; the second does a link between the concepts of play and playability in pursuit of understanding of these confluences in the gameplay; The third presents key concepts and perspectives on gameplay, as well as a reflection about the body and spatial relationships, the rules, the feeling of pleasure and the narrative mediate between interfaces; and the fourth handles questions between the associations on human and machine, as well as mechanical and dynamic control in the digital games In the empirical research it was decided to adopt a methodological procedure divided into four steps: the pre-analysis, using participant observation techniques, self-report, logs onto field notes and documentary research in order to try Brothers; the data capture, in which four volunteers played the game’s the three initial phases – under camera’s register and researcher’s observation – and participated in a qualitative semi-structured interview about the activity; the analysis of the collected material, and finally the elaboration of conclusions from analysis results. Broadly, it was concluded that is possible to define gameplay as a mediation, that wraps the intersection of playability (machine) and play (human), of bodies and spaces perceived physical and visually as a happening by the player that, through the possibilities agencied by graphical and control interfaces, acts on this system under the rules tutelage.
|
540 |
O uso do esboço no design de jogos digitaisKlein, Gerson January 2014 (has links)
Esta pesquisa tem como objetivo, estabelecer um conjunto de diretrizes que facilitem a geração e a exploração de ideias, e a partir do conceito de esboço, traçar relações com o brinquedo, inserindo-as nas etapas de concepção do Design de Jogos. Para a elaboração dessas orientações, foram abordados cinco tópicos: o processo de desenvolvimento de jogos, a experiência do usuário nos jogos digitais, o processo criativo nos jogos, a resolução de problemas no Design, o brinquedo como atividade exploratória e precursora de jogos, bem como os tipos e formas encontrados nas atividades lúdicas. A pesquisa, então, relaciona as propriedades dos esboços e as propriedades dos brinquedos, para então estabelecer diretrizes para as fases conceituais do Design de Jogos bem como descreve uma série de orientações de projeto de jogos, baseadas nessas diretrizes. O relatório apresenta a aplicação das orientações na conceitualização de um jogo digital. O trabalho foi executado a partir de uma pesquisa bibliográfica, utilizando-se de documentação indireta, através de fontes secundárias e a aplicação das diretrizes desenvolvidas, na elaboração do conceito de um jogo. E como resultado dessa pesquisa, verificou-se que é possível agregar atividades geradoras de alternativas nas etapas preliminares do processo de desenvolvimento de jogos. / This research aims to establish a set of guidelines that facilitate the generation and exploration of ideas, and from the concept of the activity of sketch, establish parallels with the play, inserting them in the Design stages of game development. To elaborate the guidelines, were addressed five topics: the process of game development, user experience in digital games, the creative process in games, solving Design problems, the toy as exploratory activity and precursor to games as well as the types and forms found in recreational activities. The study then lists the properties of the sketches and the properties of the toys, and then show methodological guidelines for the conceptual stages of Game Design and describes a series of procedures for game Design, based on the guidelines. The report then presents the application of the guidelines in the conceptualization of a digital game. The methodology used in this study was the literature search, using indirect documentation, through secondary sources and application of guidelines developed in the elaboration of the concept of a game. And as a result of this research, it was found that it is possible to add alternative generating activities in the preliminary stages of the game development process.
|
Page generated in 0.0659 seconds