• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 512
  • 44
  • 18
  • 5
  • 2
  • 1
  • Tagged with
  • 587
  • 346
  • 174
  • 79
  • 77
  • 70
  • 53
  • 52
  • 48
  • 46
  • 45
  • 44
  • 39
  • 37
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Programación de alto desempeño del filtro C-MACE en una unidad de procesamiento gráfico

Baeza Martínez, Daniel Oscar January 2013 (has links)
Ingeniero Civil Electricista / En el presente trabajo de memoria se realiza una implementación del filtro CMACE (Correntropy- Minimum Average Correlation Energy) en una Unidad de Procesamiento Gráfico o GPU (Graphics Pro- cessor Unit), con el objetivo de reducir los costos computacionales asociados con la ejecución de este filtro. Los grandes tiempos de espera que tiene el filtro CMACE en su implementación en serie hace que esta herramienta sea poco práctica en la gran mayoría de los problemas de clasificación y reconocimiento de imágenes. La reducción de los costos computacionales mediante la implementación en GPU del fil- tro CMACE pretende hacer de este filtro una herramienta mucho más útil en problemas de ingeniería orientados al procesamiento de imágenes. La supercomputación mediante GPU está haciendo posible usar herramientas computacionalmente costosas en tiempos mucho más reducidos sin sacrificar las cualidades de los algoritmos. La implementación se realiza en una tarjeta Nvidia Tesla C2050, utilizando el lenguajes de progra- mación C y la extensión CUDA hecha por Nvidia para la programación de GPU. La implementación final del filtro es híbrida, en donde se mezclan implementaciones en GPU y CPU para aprovechar las características de cada uno de estos dispositivos en distintos tipos de procesamiento de datos. Además de la implementación, de realizan comparaciones de desempeño frente a las implementaciones tradicionales en CPU y pruebas de validación para ver el poder de clasificación que tiene el filtro CMACE. Además se realizan pruebas con preprocesamiento de las imágenes mediante una reducción dimensional.,con el fin de reducir la carga de los procesos que tienen los dispositivos. Los resultados obtenidos en la implementación del filtro CMACE en GPU muestran que esta imple- mentación es 16 veces más rápida que la implementación tradicional en CPU . En conclusión, la GPU da una solución a los tiempos de espera que se tienen en el uso del filtro CMACE, haciendo de este filtro una herramienta mucho más útil y práctica.
42

Dimensões regionais da mortalidade infantil no Brasil / Regional dimensions of infant mortality in Brazil

Barufi, Ana Maria Bonomi 12 February 2010 (has links)
O desenvolvimento pode ser estudado sob diversas perspectivas. Dentre estas, destaca-se a de Amartya Sen, na qual o objetivo maior de uma política de desenvolvimento é o de expandir a liberdade de escolha dos indivíduos. Partindo da ideia de ampliação das capabilities, define-se uma das dimensões consideradas como essenciais, a saúde, mais especificamente a mortalidade infantil, como objeto de estudo. Um dos papéis do Estado deve ser o de garantir a provisão de serviços de saúde para todos os indivíduos, já que ela pode ser classificada como um bem meritório. Em busca dos determinantes do padrão regional recente da mortalidade infantil no Brasil, utiliza-se o modelo de determinantes proximais proposto por Mosley e Chen (1984), no qual os fatores socioeconômicos influenciam indiretamente o resultado observado da variável de interesse. No Brasil, houve uma redução expressiva dos níveis de mortalidade infantil nas últimas décadas, mas ainda assim persiste uma intensa desigualdade regional. Com o objetivo de comparar os resultados alcançados localmente no país, é necessário incluir a dimensão espacial em um modelo econométrico para que os problemas decorrentes da dependência espacial possam ser evitados. Após utilizar o filtro espacial para tanto, estimando cross-sections para 1980, 1991 e 2000, o trabalho conclui que a infraestrutura de saúde, enquanto medida pelo número de leitos e de estabelecimentos perdeu importância na explicação do padrão da mortalidade infantil ao longo do tempo. Em contrapartida, as variáveis socioeconômicas tornaram-se mais relevantes e significativas. A implicação mais direta disso é que futuras políticas devem buscar melhorar o acesso das famílias aos serviços públicos de saneamento, reduzir a pobreza e a desigualdade e aumentar o nível educacional da população. Ou seja, o estímulo à prevenção familiar contra problemas que possam ocasionar a morte prematura torna-se cada vez mais essencial. / Development can be understood from many perspectives. Among those, the one proposed by Amartya Sen states that a development policy should aim at expanding the freedom of individuals, and this goal can be achieved by the expansion of capabilities. With this conceptual framework in mind, health, more specifically infant mortality, is chosen as a measure of development and as the object of study. The Government should guarantee the provision of health services, as they consist in meritory goods. Mosley and Chen (1984) propose a theoretical framework to study infant mortality based on the proximal determinants, in which the socioeconomic factors affect the result observed indirectly. In Brazil there has been a substantial reduction of the average levels of infant mortality rates in the last decades. However, there is still a significant regional inequality. Econometric models for 1980, 1991 and 2000 are estimated including a spatial filter in order to account for the spatial dependency observed in the data. The study concludes that health infrastructure lost its explanative power for the differences in infant mortality rate among the localities. On the other hand, socioeconomic variables have become more relevant and significant. It means that future public policies must try to improve the access of the families to public facilities, reduce poverty and inequality and improve educational levels. Therefore, the family-based prevention against health problems should be stimulated, helping to avoid premature death
43

Desenvolvimento de testes rápidos imunocromatográficos para detecção de cinomose canina / Development of Rapid Tests For Immunochromatographic Detection Canine Distemper

Postigo, Julia Pereira 24 March 2017 (has links)
A cinomose canina, causada pelo vírus Canine Distemper (CDV), é uma doença de grande importância não só no Brasil como no mundo. Isto se deve principalmente à sua vasta ocorrência, facilitada pelo tipo de transmissão que pode ser por contato com secreções respiratórias, oculares, por fezes e urina. Detectar rapidamente o vírus em animais contaminados é de extrema importância para que o controle aconteça de forma rápida e adequada, evitando o agravamento da doença, a disseminação e o aumento da mortalidade. O presente trabalho teve por objetivo desenvolver uma plataforma diagnóstica imunocromatográfica que possibilite a detecção rápida de biomoléculas relacionadas com esta doença. Os testes imunocromatográficos são por natureza plataformas de baixo custo e que fornecem resultados rápidos sem a necessidade de equipamentos para a interpretação. Essas plataformas são compostas por regiões diferentes de papéis ou membranas, constituídos de fibra de vidro (sample pad e conjugate pad), material celulósico (sample pad e absorbent pad) e nitrocelulose (região de detecção). Nesse trabalho, com o intuído de diminuir ainda mais o custo da plataforma, foi avaliada a possibilidade de substituição das diferentes regiões somente pelo do papel de filtro Whatman nº 1. Para isso, foi necessário a otimização de diversos reagentes e tratamentos que fossem capazes de modificar a estrutura do papel, deixando-o mais reativo frente às proteínas imobilizadas na região de detecção, como o periodato de sódio, divinilsulfona e tampão carbonato; e menos reativos, quando utilizado em outras regiões. Antes de iniciar os ensaios com o papel, os anticorpos foram avaliados por immunoblotting para verificar o funcionamento dos mesmos, em relação à sensibilidade e especificidade. Após a avaliação, os anticorpos foram imobilizados com sucesso no papel de filtro através do uso de tampão carbonado como reagente sensibilizador da celulose, levando à construção das regiões teste e controle. No conjugate pad o tratamento mais eficiente foi com a utilização de 5% de sacarose, 1% de BSA e 0,5% de Tween-20 em PBS, que garantiu a liberação satisfatória dos conjugados para a região de detecção. / Canine distemper, caused by the Canine Distemper virus (CDV), is a disease of great importance not only in Brazil, but also in the world. This is due mainly to its vast occurrence, facilitated by the transmission pathways, which may occur through contact with respiratory and/or ocular secretions, feces and urine. Rapid detection of the virus in contaminated animals is extremely important so that control takes place quickly and properly, avoiding disease worsening, its dissemination and mortality increase. The present work aimed in developing an immunochromatographic diagnostic platform that allows rapid detection of biomolecules related to this disease. Immunochromatographic tests are naturally low-cost platforms that provide fast results without need for equipment for interpretation. These platforms are composed by different regions of paper or glass fiber membranes (sample pad and conjugate pad), cellulosic material (sample pad and absorbent pad), and nitrocellulose (detection region). In this work, with the intention of further platform\'s cost reduction, the possibility of replacing the different regions was evaluated by using only the Whatman nº 1 filter paper. For this, it was necessary to optimize several reagents and treatments that were capable of modifying the paper structure, making it more reactive to the proteins immobilized in the detection region, such as sodium periodate, divinylsulfone, and carbonate buffer; and less reactive paper when used in other regions. Before initiating the paper assays, the antibodies were evaluated by immunoblotting for verifying their function, regarding sensitivity and specificity. With the results obtained within this test, new strategies had and have been drawn and will be followed in future experiments. After the evaluation, the antibodies were successfully immobilized on the filter paper with the use of carbonate buffer as the cellulose sensitizer reagent, leading to the construction of the test and control regions. In the conjugate pad the most efficient treatment was the use of 5% sucrose, 1% BSA and 0.5% Tween-20 in PBS, which ensured the satisfactory release of the conjugates to the detection region.
44

Estudo do eletrocardiograma sob uma abordagem matemática. / Electrocardiogram evaluation under a mathematical approach.

Melco, Tito Coutinho 10 November 2006 (has links)
O eletrocardiograma transMITe informações com relação à passagem do pulso elétrico pelo coração e, conseqüentemente, do funcionamento deste. Desde o início da sua utilização, possibilitada pelo trabalho de Willem Einthoven criando a primeira máquina capaz de medir o pulso elétrico de forma não invasiva e com sensibilidade forte o bastante para ser capaz de produzir um gráfico proveitoso, o eletrocardiograma é muito utilizado para avaliação clínica de pacientes. Entretanto a evolução das máquinas que o descrevem não foi muito além do que o elaborado por Einthoven no início do século 20. As máquinas capazes de captar o eletrocardiograma se tornaram menores (até portáteis para algumas aplicações), gráficos passaram a ser disponibilizados em telas de vídeo (ao invés das fitas de papel) e, como maior evolução, as máquinas que observam o eletrocardiograma passaram a conseguir captar a ocorrência de um ciclo cardíaco com alta confiabilidade e, atualmente, passaram a medir também o parâmetro ST com precisão deliMITada (necessitando ajuda do operador para ajuste em alguns casos). É baseado nestes fatos que esta dissertação procura estudar algoritmos matemáticos, de forma mais focada nos modelos do impulso elétrico durante os ciclos cardíacos, e avaliar suas capacidades de interpretar parâmetros do ciclo de ECG de forma precisa e rápida para que o médico tenha prontamente os dados necessários para realizar a avaliação clínica do paciente. Em primeira análise foram estudados os algoritmos para detecção do pulso de eletrocardiograma (detecção da onda R), em seguida feito o janelamento da curva de ECG a fim de separar os ciclos cardíacos. A partir deste ponto foram analisados os modelos matemáticos gerados por equações polinomiais, Transformada de Fourier e Transformada wavelet. E, com o intuito de filtrar ruídos e gerar derivações não medidas, foi implementado um filtro de kalman em um modelo vetorial do eletrocardiograma. Para avaliar os resultados obtidos foram utilizados requisitos de desempenho declarados pelo FDA norte americano e pela norma européia IEC60601-2-51. Essas análises foram feitas através da utilização dos algoritmos gerados nas curvas provindas do banco de dados do PhisioNet. O método polinomial não foi considerado interessante na medida em que não possibilita gerar uma equação para um ciclo cardíaco, mas sim várias equações (uma para cada ponto do ciclo). Os demais métodos apresentaram melhor eficiência na medida em que foram capazes de gerar parâmetros com significado físico e possibilitando melhor caracterização de pontos importantes da curva do eletrocardiograma. / The electrocardiogram gives information related to the passage of an electric pulse through the heart and, therefore, to his state function. Since the beginning of electrocardiogram utilization, thanks to the work of Willem Einthoven building the first machine capable of measuring the electric pulse non-invasively and with sensitivity enough to be able to provide a profitable graph, it is widely used for clinical evaluation of patients. However the evolution of the machines that describes the electrocardiogram hadn´t much more advances since the elaborated by Einthoven in the beginning of the 20th century. They become smaller (even portable for some applications), the graphs are now displayed in video screens (instead of the paper strip) and, taking place as the biggest evolutions, machines that observes the electrocardiogram became able to recognize a cardiac cycle with high reliability and, more recently, became able to measure the ST parameter with liMITed precision (it needs the help of the operator to set specific measuring points in some cases). It is based in these facts that this dissertation looks for analyzing mathematic algorithms, more specifically the mathematic models of the electric impulse during the cardiac cycles, and evaluate their capacities to expound ECG parameters in a fast and reliable way in order to the physician receive promptly the data needed for his clinical evaluation of the patient. For the first step were analyzed some algorithms for electrocardiogram pulse detection (detection of R wave), in the following step were done the windowing of the ECG wave in order to separate the cardiac cycles. In this step were analyzed the mathematic models generated by polynomial equations, Fourier Transform and Wavelet Transform. And, in order to filter noises and generate leads not measure, it was implemented a kalman´s filter at a vector model. To evaluate the obtained results were used the requirements of performance given by north-american FDA and by the European rule IEC60601-2-51. These evaluations were done by executing the generated algorithms in the waves supplied by the databank PhisioNet. The polynomial method weren´t considered interesting because it weren´t able to generate an equation for the cardiac cycle, but many equations (one for each point of the cycle). The other methods showed a better efficiency since they were capable of generate parameters with physical meaning and being able to do a better characterization of the important points of the electrocardiogram wave.
45

Análise residual do sinal de voz / not available

Montagnoli, Arlindo Neto 06 May 1998 (has links)
Este trabalho consiste no desenvolvimento de instrumentação destinada à pré-diagnósticos de disfunções na laringe, bem como no fornecimento de auxílio no acompanhamento dos tratamentos das patologias ou uma avaliação pós-operatória e ainda pode facilitar a tarefa de triagem de pacientes com problemas na laringe em hospitais. O programa desenvolvido consiste em um método não invasivo para pré-diagnósticos da laringe. Através da análise do resíduo do sinal de voz obtém-se seis parâmetros que permitem indicar os casos de patologias. Os sinais de vozes foram adquiridos diretamente com um microfone ligado a uma placa de aquisição no Departamento de Otorrinolaringologia da Faculdade de Medicina de Ribeirão Preto, USP. Este sistema oferece procedimentos clínicos mais confortáveis e permite um rápido diagnóstico sem restrições a qualquer paciente. / This work describes the development of a device destined for pre-diagnoses of larynx dysfunctions, as well as, to supply aid in the accompaniment of the treatments of the pathologies or a postoperative evaluation and it can still facilitate the task of the patients\' screen with problems in the larynx in hospitals. A software package has been developed in order to set a non-invasive method for pre-diagnosis of the larynx. Through the residue voice signal analysis, six parameters are extracted from the signal in order to assess the pathological cases. The voice signal was acquired directly from a microphone and an acquisition board at the Department of Otorrinolaringology of the Faculty of Medicine of Ribeirão Preto, USP. That system makes the clinical procedures more confortable and allows for a faster diagnosis with no restriction to any patient.
46

Análise de filtros com elementos ressonantes para sistemas de comunicações ópticas usando WDM / not available

Ferreira, João Marcelo Dias 19 December 2002 (has links)
O oferecimento de serviços faixa larga pelo setor de telecomunicações tem exigido das redes de transporte novos esquemas que permitam a transmissão de sinais em taxas cada vez mais elevadas. A fibra e os amplificadores ópticos viabilizaram boa parte deste objetivo, associados ao esquema de multiplexação por divisão em comprimento de onda (WDM). Embora a limitação da taxa de cada sinal tributário possa ficar por conta da comutação eletrônica, a taxa do sinal agregado fica limitada pelo número de comprimentos de onda que se pode alocar na fibra. Quanto mais canais, tanto mais críticas devem ser as exigências de desempenho dos dispositivos que os separam. Neste contexto, os dispositivos que realizam as tarefas de separação de canais desempenham um importante papel nos sistemas ópticos WDM. Neste trabalho, os filtros ópticos com elementos ressonantes são analisados e projetados a fim de verificar seus potenciais para utilização em esquemas add-drop. São investigadas as configurações de filtros ópticos que utilizam anéis como elementos ressonantes. Estes anéis são inseridos entre dois guias ópticos, formando um dispositivo de quatro portas. O sinal correspondente ao comprimento de onda de ressonância é extraído em uma das portas. São apresentados os principais esquemas para filtros ressonantes divulgados na literatura, nos quais a disposição do elemento ressonante determina as características de resposta do filtro. Como resultado da simulação numérica destas estruturas, são apresentadas diversas curvas de resposta em frequência, que possibilitam analisar o comportamento e o desempenho das configurações. Nestas simulações são verificadas as principais figuras de mérito envolvidas, tais como finesse, faixa de espectro livre e razão de extinção. Estes resultados são comparados com os resultados existentes na literatura para garantir a validade da análise desenvolvida nesta pesquisa. / The demand for wideband telecommunication services has required higher transmission rates from transport networks. Optical fiber and amplifiers have accomplished part of this objective, in association with the wavelength division multiplexing (WDM) scheme. Although the transmission rate of each tributary sign is restricted by electronic commutation, the aggregated sign is limited by the number of wavelengths that can be allocated in the optical fiber. The more the number of channels, the more severe the performance requirements of the devices that separate them should be. In this context, the optical devices that separate these channels play an important role in WDM systems. In this work the optical filters with resonant elements are analyzed and designed in order to verify their potentials to be utilized in add-drop schemes. Configurations of optical filters that use rings as resonant elements are investigated. These rings are placed between two optical waveguides, forming a device with four ports, in which the resonant element arrangement determines the filter response characteristics. The resonant wavelength is extracted from one of the ports. The main schemes for resonant filters reported in the literature are analyzed. As a result of the numerical simulation of these structures, several curves of frequency response are presented, that make it possible to analyse their behavior and performance. In the simulations, the following figures of merit are verified: finesse, free spectral range and extinction ratio. The results are compared with the ones reported in the literature to confirm the validity of the analysis developed in this research.
47

Filtering and adaptive control for balancing a nanosatellite testbed

Silva, Rodrigo Cardoso da 31 July 2018 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2018. / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e Fundação de Apoio à Pesquisa do Distrito Federal (FAPDF). / O Laboratório de Aplicação e Inovação em Ciências Aeroespaciais (LAICA) da Universidade de Brasília (UnB) está desenvolvendo uma plataforma de testes de nanossatélites capaz de simular condições ambientais vistas no espaço, especialmente no que diz respeito ao campo magnético da Terra em órbitas, o movimento rotational livre de atrito e o torque gravitacional baixo. Essa plataforma compreende vários subsistemas, tais como uma mesa com rolamento a ar, na qual nanossatélites são montados para teste de seus subsistemas; uma gaiola de Helmholtz, responsável por simular o campo magnético da Terra presente em vários tipos de órbita, especialmente órbitas de baixa altitude (LOE), que são as mais comuns para nanossatélites; sistemas de atuação, tais como rodas de reação e atuadores magnéticos, usados para estudar estratégias de controle de atitude, e sistemas de determinação de atitude, tais como aqueles baseados em telemetria embarcada ou visão computacional. A mesa com rolamento a ar é a parte responsável por fornecer o movimento livre de atrito com três graus de liberdade rotacionais. Ademais, para fornecer o requisito de torque gravitacional baixo, um método deve ser desenvolvido para balancear a mesa com rolamento a ar. Neste trabalho, foco é dado para a solução desse problema. Vários métodos para balanceamento da plataforma de testes do LAICA são apresentados, especialmente quanto às soluções de filtragem, como aquelas que utilizam o filtro de Kalman e suas variações, e esquemas de controle adaptativo, auxiliados pela teoria de Lyapunov. A performance dos métodos de balanceamento propostos é avaliada por meio de simulações e experimentos. / The Laboratory of Application and Innovation in Aerospace Science (LAICA) of the University of Brasília (UnB) is developing a nanosatellite testbed capable of simulating the environment conditions seen in space, specially regarding the Earth magnetic field in orbits, the frictionless rotational movement and the low gravitational torque. This testbed comprises various subsystems, such as an air bearing table, on which nanosatellites are mounted for testing its subsystems; a Helmholtz cage, responsible for simulating the Earth magnetic field present in various kinds of orbit, specially Low Earth Orbits, which is the most common for nanosatellites; actuation systems, such as reaction wheels and magnetorquers, used to study attitude control strategies, and attitude determination systems, such as those based on embedded telemetry or computer vision. The air bearing table is the part responsible for providing the frictionless movement with three rotational degrees of freedom. Also, for providing the low gravitational torque requisite, a method must be developed for balancing the air bearing table. In this work, focus is given for solving this problem. Various methods for balancing the LAICA testbed are presented, specially regarding filtering solutions, such as those using the Kalman Filter and its variations, and adaptive control schemes, aided by the Lyapunov theory. The performance of the proposed balancing methods is evaluated through simulations and experiments.
48

Moduladores de intensidade e filtros optoeletrônicos seletivos em comprimento de onda e sintonizáveis / not available

Calligaris Junior, Alberto Otávio 29 November 1996 (has links)
A principal meta desta pesquisa é a proposição de novos moduladores e filtros optoeletrônicos seletivos em comprimento de onda e sintonizáveis, os quais terão grande impacto em sistemas ópticos de comunicações multiplexados em comprimento de onda (WDM) de alta velocidade operando em 1,55 &#956m. Este trabalho introduz um novo conceito para a obtenção de moduladores de intensidade sintonizáveis e seletivos em comprimento de onda, livres de \"chirp\", com alta razão de extinção, 18,0 dB, baixa perda de inserção, 2,3 dB, ampla largura de banda elétrica, 86,7 GHz, pequeno comprimento, 388 &#956m, baixa tensão de operação, 1,6 V, e sintonia óptica de 5,9 A. A configuração integrada em cascata apresenta características similares com \"cross-talk\" de apenas 0,3 dB. O novo conceito é baseado em um ressonador óptico, consistindo em duas estruturas periódicas separadas por um número ímpar de quarto de onda (a região ativa), em uma configuração de guia de onda que possibilita a modulação de intensidade via efeito eletrorefrativo em poços quânticos múltiplos. Os filtros ópticos sintonizáveis são baseados em uma configuração de guias de onda acoplados. O acoplamento codirecional seletivo em comprimento de onda entre os guias de onda é obtido através de uma estrutura periódica. Para obtenção de ampla sintonia (330 A) em comprimento de onda e alta velocidade (1,0 GHz) foi utilizado o efeito de eletrorefração em poços quânticos múltiplos, a qual é também uma nova proposição. / The main goal of this work is the proposal, design, and performance analysis of novel optoelectronics modulators and filters exhibiting optical tunability and wavelength selectivity, which will enhance wavelength division multiplexed optical communication systems operating at 1.55 &#956m. This work introduces a new concept to obtain chirp-free tunable and wavelength selective intensity optical modulators presenting high extinction ratio (18.0 dB), small insertion loss (2.3 dB), wide electrical bandwidth (86.7 GHz), small size (388 &#956m), low driving voltage (1.6 V) and 5.9 A of optical tuning. The modulators integrated in tandem present similar features, with low cross-talk, typically 0.3 dB. The new concept is based on an optical resonator, comprising of two periodical structures separated by odd number of quarter-wave - the active region, embedded in a waveguide, allowing the intensity modulation via electrorefraction effect in multiple quantum wells. The tunable optical filters are based on a scheme of coupled waveguides. The wavelength selective codirectional coupling between the guides occurs via a periodic structure. In order to obtain wide wavelength tuning (330 A) at high speed (1.0 GHz), electrorefractive effects in multiple quantum wells were utilized, which is also a new concept.
49

Melhorando o desempenho de agentes BDI Jason através de filtros de percepção / Improving the performance of BDI Jason agents through perception filters

Stabile Junior, Márcio Fernando 27 November 2015 (has links)
Um dos problemas do paradigma BDI quando se integram agentes a ambientes virtuais ou simuladores é a ausência de controle sobre as suas percepções. Não havendo alguma forma de percepção direcionada ao objetivo, o agente pode ser inundado por informações irrelevantes causando um aumento injustificado do tempo de processamento. Com o objetivo de fornecer um maior controle sobre as percepções do agente e reduzir o seu tempo de resposta, este trabalho apresenta um mecanismo de filtragem das percepções para o interpretador Jason que visa eliminar aquelas percepções que podem ser ignoradas. Para tal, foram propostos e implementados alguns tipos de filtros pré-definidos, que foram aplicados a três cenários diferentes. Através de validações estatísticas apropriadas, mostrou-se que a aplicação de filtros de percepção pode reduzir em até 80% o tempo de processamento de um agente, sem afetar significativamente o seu desempenho medido em termos de sua função de utilidade. / When agents are supposed to be integrated to virtual environments virtual or simulators, one of the BDI paradigms major concerns is the lack of control over the agents perceptions. Without having any form of goal directed perceptions, the agent may be flooded by irrelevant information thus causing an unjustified increase in processing time. In order to provide greater control on the agents perceptions and to reduce its time response, this work presents a filtering perception mechanism for the Jason interpreter, aimed at eliminating those perceptions that can be ignored. To this end, some types of pre-defined filters have been proposed, implemented, and applied to three different scenarios. Through appropriate statistical validation methods, it was shown that applying perception filters can reduce up to 80 % of an agents processing time, without significantly affecting its performance measured in terms of its utility function.
50

Métodos de extração do vetor tensão de sequência positiva na freqüência fundamental

SOUZA, Helber Elias Paz de 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:37:42Z (GMT). No. of bitstreams: 2 arquivo5333_1.pdf: 5975151 bytes, checksum: a0dfbf361d19c89d9fdc6a78bddeeaec (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Controle orientado pela tensão é uma das técnicas mais usadas para operação e controle de qualquer equipamento conectado à rede elétrica através de um conversor eletrônico CC-CA, tais como, sistemas de geração de energia distribuída, sistemas de energia ininterrupta e filtros ativos. Por isso, a estimação rápida e precisa do ângulo de fase e por vezes da magnitude instantânea do vetor tensão de seqüência positiva na freqüência fundamental de uma rede elétrica é essencial para atingir bons desempenhos no controle daqueles sistemas. Então, o presente trabalho apresenta uma abordagem dos principais métodos de detecção existentes mostrando as virtudes e deficiências dos mesmos. Outrossim, um novo método é concebido nesta dissertação e comparado com os demais. A sua funcionalidade é corroborada por meio de simulações e experimentos. Salienta-se que o enfoque é dado às técnicas empregadas em sistemas elétricos trifásicos

Page generated in 0.0328 seconds