• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 453
  • 50
  • 47
  • 47
  • 47
  • 32
  • 15
  • 15
  • 14
  • 14
  • 8
  • 1
  • 1
  • Tagged with
  • 468
  • 468
  • 439
  • 332
  • 187
  • 156
  • 127
  • 108
  • 101
  • 91
  • 81
  • 78
  • 73
  • 73
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Uma contribuição para um sistema computacional de leitura automática de valores em cédulas monetárias

Paula, Camilo de Lelis Tosta 11 April 2013 (has links)
Image Digital Processing techniques, standards recognizing, and neural artificial nets are not often used in the technology market, because they are hard to work with and expensive for who uses them. When we make research on technology tools we find them fragmented as they solve few problems and come in software with no license for copywriting. Thus, we propose a Computer System for Automatic Reading of Money Banknotes, who will join programming techniques widespread in academia to develop free software that can be used both in the market and for studies in academia, a software with applications on image capture, digital image processing, pattern recognition that uses artificial neural network techniques, coupled to a voice synthesizer, which will assist people with visual needs and even people with difficulties in achieving the necessary focus such as supermarkets. The system can be adapted to any sales place, or even where people work counting high money values. It brings the reliability needed without errors that can cause losses to the company and people as well. / As técnicas de processamento digital de imagens, reconhecimento de padrões e redes neurais artificiais não são utilizadas frequentemente no mercado tecnológico, pois são trabalhosas e acabam se tornando caras para quem irá utilizar. Quando pesquisamos no mercado ferramentas tecnológicas utilizando estes recursos, encontramos de maneira fragmentada ou apenas para resolver um ou outro problema, encontramos também em softwares que são proprietários. Assim, propõe-se uma CONTRIBUIÇÃO A UM SISTEMA COMPUTACIONAL DE LEITURA AUTOMÁTICA DE VALORES EM CÉDULAS MONETÁRIAS, que irá juntar as técnicas de programação difundidas no meio acadêmico para desenvolver um software livre, disponível a ser utilizado no mercado e também para estudos acadêmicos. A finalidade é a construção de um software com aplicações em captura de imagens, processamento digital de imagens, e reconhecimento de padrões utilizando técnicas de RNA REDES NEURAIS ARTIFICIAIS, acoplado a um sintetizador de voz, que irá atender às pessoas com necessidades visuais e até mesmo pessoas com dificuldades em atingir o foco necessário em seus trabalhos. Assim, podendo ser executado em qualquer tipo de PDV (Ponto de venda), ou mesmo em locais onde se realiza a contagem de valores altos, trazendo a confiabilidade necessária para se fechar o dia trabalhado sem falhas que podem ocasionar perdas para a empresa e mesmo para clientes. / Mestre em Ciências
232

Equalização concorrente com alocação dinâmica e inicialização automática de coeficientes

Halmenschlager, Vitor January 2010 (has links)
Made available in DSpace on 2013-08-07T18:53:16Z (GMT). No. of bitstreams: 1 000423040-Texto+Completo-0.pdf: 1652672 bytes, checksum: a477d140ef1ec85d7299895406d2b3a4 (MD5) Previous issue date: 2010 / This thesis proposes a new adaptive concurrent equalizer with dynamic coefficient allocation as a low complexity solution for blind channel deconvolution. It is well known that the number of coefficients has a major impact on the hardware complexity of adaptive equalizers. However, as the multipath echoes increase throughout the scenario of operation it is necessary to use an equalizer with a larger number of coefficients. In order to be able to cope with multipath in different scenarios, while maintaining the hardware complexity as low as possible, it is proposed to actively control the coefficient allocation of such equalizer, thus deactivating whichever coefficients that do not have an impact on the channel deconvolution procedure. A new heuristic for an efficient initialization of the coefficient vector is also proposed. This heuristic uses the mean absolute output error of the equalizer for proper operation, aiming to automate the equalizer initialization, as well as reduce the convergence time. / Este trabalho propõe um novo equalizador adaptativo em arquitetura concorrente com alocação dinâmica de coeficientes como uma solução de baixa complexidade para o problema de desconvolução autodidata de canais de comunicação. É sabido que o número de coeficientes é um fator crucial na complexidade computacional de equalizadores adaptativos. Sabe-se também que um equalizador necessita de um maior número de coeficientes à medida que a duração dos ecos originados por multipercurso aumenta no cenário operacional. Para atender este compromisso entre complexidade e robustez ao multipercurso, este trabalho propõe controlar o número de coeficientes ativos desse equalizador, desativando os coeficientes que não contribuem para o processo de desconvolução do canal. Este trabalho também propõe uma nova heurística para inicialização do vetor de coeficientes ou taps do filtro a qual utiliza como critério o erro absoluto médio de saída do equalizador. Esta heurística visa automatizar a inicialização do equalizador e reduzir o tempo de convergência.
233

Análise qualitativa/quantitativa de algoritmos para a compressão de voz aplicados a redes de pacotes

Becker, Ricardo January 2009 (has links)
Made available in DSpace on 2013-08-07T18:53:17Z (GMT). No. of bitstreams: 1 000414179-Texto+Completo-0.pdf: 2446042 bytes, checksum: f224eb8f5b4a233f7ee4f71ce3cea540 (MD5) Previous issue date: 2009 / This work aims at the study, implementation and evaluation of techniques for voice compression, based on detection of periods of silence, applied to packet networks. For that, were studied the fundamental concepts of digital signal processing, including applications and mathematical models. After that, were studied the transmission systems of voice signals by packet networks, in essence, Voice over IP (VoIP) systems. In this context, this work proposed the implementation of six techniques for compression of voice based on the combination of different algorithms using the detection of periods of silence in speech. Among the algorithms used, were done analysis of voice signal in time and frequency domain considering the analysis of energy content on voice signal, and also, the analysis of fricative sounds in speech, and the application of techniques for coating and for compensation by comfort noise. To implement the techniques, it was developed computational tools for testing, those were also used for evaluation and to compare the results using P. 800 (MOS) and P. 862 (PESQ) recommendations of ITU-T. Both, MOS and PESQ are accepted as techniques for assessing the quality of the voice signal perceived in telecommunications systems. Finally, the results and conclusions, as we can see results of bandwidth economy provided to networks, and the level of degradation of voice signal provided by the application of techniques, at the same time without compromising the system with high computational demands. We verify that in terms of bandwidth economy and quality of the audio provided by LSED, SFD and CVAD techniques, all of them, implemented in frequency domain with satisfactory results, as well as LED and ALED techniques, implemented in time domain, which also were not far behind in terms of overall results. Finally, it is suggested a number of possibilities for continuing the work and also improvements to applications in different subjects. / Este trabalho tem por objetivo o estudo, implementação e avaliação de técnicas de compressão de voz, baseadas na detecção de períodos de silêncio, aplicadas a redes de pacotes. Para tanto, foram estudados os conceitos fundamentais de processamento digital de sinais, incluindo aplicações e modelos matemáticos. Posteriormente, estudou-se a estrutura dos sistemas de transmissão de sinais de voz via redes de pacotes, em essência, sistemas de Voz sobre IP (VoIP). Nestes sistemas, foram vistas a aplicabilidade e princípios de funcionamento dos componentes de DSP, desde a própria compressão da voz, baseada nos períodos de silêncio, bem como padrões de codificação, cancelamento de eco, controle automático de ganho e geração de ruído de conforto. Posteriormente é proposta então a implementação de seis técnicas de compressão de voz baseadas na combinação de diferentes algoritmos aplicados na detecção de períodos de silêncio ou não da fala. Dentre os algoritmos aplicados, está a análise no tempo e em frequência do conteúdo de energia do sinal de voz, a análise do sinal na busca dos sons fricativos da fala, e ainda aplicação de recobrimento e compensação por ruído de conforto. Para a implementação das técnicas foram desenvolvidas ferramentas computacionais de testes, e para fins de validação e comparação dos resultados foram utilizadas, com as devidas adaptações, e descritas no trabalho, as recomendações P. 800 (MOS) e P. 862 (PESQ) do ITU-T, sendo estas entre as mais reconhecidas em termos de avaliação da qualidade do sinal de áudio percebido em sistemas de telecomunicações. Por fim, são apresentados os resultados e as conclusões, onde nos mesmos buscava-se um compromisso das implementações entre percentual estimado de economia de banda proporcionada a redes de pacotes, e nível de degradação do sinal de voz proporcionado pela aplicação da compressão, ao mesmo tempo em que sem comprometimento com alta demanda computacional do sistema. Neste sentido, se verificou que em termos de economia de banda proporcionada e qualidade do áudio, as técnicas LSED, SFD e CVAD, todas implementadas no domínio frequência, apresentaram resultados bastante satisfatórios, assim como a LED e ALED, implementadas no domínio do tempo, que também não ficaram muito atrás em termos de resultados gerais. Também ficou claro o efeito da aplicação do recobrimento e da compensação por ruído de conforto amostrado do próprio microfone do locutor. Por fim, sugere-se um número de possibilidades para a continuidade do trabalho, bem como evolução dos mesmos, tanto em termos de melhorias quanto na diversificação das aplicações dos resultados.
234

Modelo integrado de computação pervasiva para ambiente médico hospitalar de tratamento intensivo

Leão, Leandro Oliveira January 2007 (has links)
Made available in DSpace on 2013-08-07T18:53:23Z (GMT). No. of bitstreams: 1 000392632-Texto+Completo-0.pdf: 865638 bytes, checksum: 0065f3c9d4ee8fba8fb15e1038df97ff (MD5) Previous issue date: 2007 / The telemedicine has approached each time more the patient of its health care (clinical and assistencial body), having become possible consultations, examinations, evaluations, second opinion and as much other modalities when in the distance it is present and limiter factor in the performance in conventional way. However, in none ofthe cases, a guarantee of act ofreceiving ofthe packages ofdata is presented much less is managed the transmission of the involved signals. Normally the data communication structure is bequeathed of the institution ofhealth and the transmission ifit bases on the "better effort", without any priority. The lntegrated Model ofPervasive Computing for Hospital Medical Environrnent ofIntensíve Treatment intends to regularize or to reduce these deficíencíes and to improve a leveI of quality of thís type of attendance. For in such a way, the involved bíomedical signals, the acceptable times ofreply had been anaIyzed among others points. ln the end ofthe work, the summary ofthe premises generated from this research is presented as the necessary minimum requírements for the ímpIementatíon of the modeI in real envíronment. Moreover, the performance of a net implemented in hospital environment ís evaIuated, wíth íts delays and íts ímpacts in the transmission ofthe signal / A telemedicina tem aproximado cada vez mais o paciente de seus cuidadores (corpo clínico e assistencial), tornando possível consultas, exames, avaliações, segunda opinião e tantas outras modalidades quando a distância é fator presente e limitador na atuação de maneira convencional. No entando, em nenhum dos casos, é apresentada uma garantia de recebimento dos pacotes de dados e muito menos é gerenciada a transmissão dos sinais envolvidos. Normalmente a estrutura de comunicação de dados hospitalares é a legada da instituição de saúde e a transmissão se baseia no "melhor esforço", sem nenhuma prioridade. O Modelo Integrado de Computação Pervasiva para Ambiente Médico Hospitalar de Tratamento Intensivo pretende regularizar ou reduzir essas deficiências e melhorar o nível de qualidade deste atendimento. Para tanto, foram analisados os sinais biomédicos envolvidos, os tempos de resposta aceitáveis entre outros pontos. No final do trabalho, é apresentado o resumo das premissas geradas a partir dessa pesquisa como os requisitos mínimos necessários para a implementação do modelo em ambiente real. Além disso, é avaliado o desempenho de uma rede implementada em ambiente hospitalar, com os seus atrasos e os seus impactos na transmissão do sinal.
235

O uso da análise espacial no processo de integração terreno, condições meteorológicas e inimigo (PITCI) do exército brasileiro

Oliveira, Ivan Carlos Soares de 05 October 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Geociências, 2006. / Submitted by Érika Rayanne Carvalho (carvalho.erika@ymail.com) on 2009-11-29T01:06:58Z No. of bitstreams: 1 2006_Ivan Carlos Soares de Oliveira.pdf: 8752069 bytes, checksum: 562e5a5378043fc47869c860ed8edea0 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2009-12-03T00:09:36Z (GMT) No. of bitstreams: 1 2006_Ivan Carlos Soares de Oliveira.pdf: 8752069 bytes, checksum: 562e5a5378043fc47869c860ed8edea0 (MD5) / Made available in DSpace on 2009-12-03T00:09:36Z (GMT). No. of bitstreams: 1 2006_Ivan Carlos Soares de Oliveira.pdf: 8752069 bytes, checksum: 562e5a5378043fc47869c860ed8edea0 (MD5) Previous issue date: 2006-10-05 / A busca por informações, incluindo a espacial, é essencial para o planejamento e para a execução das operações militares. A amplitude da operação a ser executada baseia-se no conhecimento sobre as forças oponentes, ou beligerantes, sobre o terreno e sobre as condições meteorológicas. A execução da atividade de Inteligência nas operações militares visa à produção de conhecimentos essenciais à condução de missões operacionais. Em tempo de paz busca-se a formação de um considerável banco de dados para cada área de possível emprego da Força Terrestre (FT), conforme as hipóteses de conflito levantadas. A análise da área de operações é dividida em três fases distintas: o estudo das caracte- rísticas do terreno, do clima (meteorológicas) e do inimigo. Neste trabalho são abordadas a duas primeiras: terreno e clima, tendo como área de estudo o Campo de Instrução de Formosa (CIF) do Exército Brasileiro, situado no Estado de Goiás, a leste do Distrito Federal. Foi construído um Sistema de Informações Geográficas (SIG), com o objetivo de rea- lizar a modelagem espacial do ambiente onde uma tropa pode ser empregada, por meio de diversos dados geográficos e temáticos como dados de solo, cobertura vegetal e drenagem, dentre outros, com a finalidade de prover o necessário apoio à decisão, realizando o Processo de Integração Terreno, Condições Meteorológicas e Inimigo (PITCI), dentro de um Estudo de Situação hipotético. A metodologia adotada foi desenvolvida em três etapas fundamentais: estruturação da base geográfica de dados vetoriais, processamento digital de imagens de satélites de sensori- amento remoto e análise espacial. Como principais resultados obtidos têm-se a organização da base de dados existente da área de estudo e a confecção do mapa de Restrições ao Movimento. _______________________________________________________________________________ ABSTRACT / The search for information, including the spatial information, is essential for th planning and execution of the military operations. The extent of the military operation to b executed is supported by the knowledge about the opponent forces, about the terrain an about the meteorological conditions. The execution of the Intelligence activity in the military operations aims th production of essential knowledge to the conduction of operational missions. In a peace tim it is necessary to form an important data base for each possible use of the Army, according t the existing conflict hypothesis. The operation area analysis is divided into three distinct phases: the study of th characteristics of terrain, weather and enemy. This work covers the first two: terrain an weather, being the area of study the Instruction Field of Formosa (CIF), of the Brazilia Army, in the Goiás State, on the east of Distrito Federal. A Geographic Information System (GIS) was built with the objective of realizing th spatial modeling of the environment where a troop can be employed, through differe geographic and thematic data, like soil, vegetation and hydrographic data, among others, wit the objective of improving the necessary support for decision, following the Terrai Meteorological Conditions and Enemy Integration Process (PITCI), inside a hypothet Situation Study. The methodology used was developed in three fundamental phases: building th vector geographic data base, digital processing of remote sensing satellite images and spati analysis. The main results of this work are the organization of data base concerning the are of study and the drawing of the map of Restricted Areas for Troop Movement.
236

Rastreamento de indivíduos em sistema de monitoramento

Oliveira, Ivo Sócrates Moraes de 25 July 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Intituto de Ciências Exatas, Departamento de Ciência da Computação, 2013. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-10-22T15:20:13Z No. of bitstreams: 1 2013_IvoSocratesMoraesOliveira.pdf: 6931125 bytes, checksum: b450c9c7809a3a328b4c6d6fe6e13d6b (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-10-22T15:50:56Z (GMT) No. of bitstreams: 1 2013_IvoSocratesMoraesOliveira.pdf: 6931125 bytes, checksum: b450c9c7809a3a328b4c6d6fe6e13d6b (MD5) / Made available in DSpace on 2013-10-22T15:50:56Z (GMT). No. of bitstreams: 1 2013_IvoSocratesMoraesOliveira.pdf: 6931125 bytes, checksum: b450c9c7809a3a328b4c6d6fe6e13d6b (MD5) / A monitoração eletrônica baseada em vídeo digital tem se tornado chave para a eficácia de diversas atividades, pois permite a identificação eficiente de anomalias no local monitorado, a identificação de indivíduos suspeitos e o esclarecimento de fatos, entre outras atividades. Portanto, surge a necessidade de algoritmos de rastreamento visual de baixa complexidade, que visa oferecer a capacidade de identificação da trajetória de indivíduos em sistemas de monitoração eletrônica em ambientes restritos. Esses algoritmos podem permitir uma compactação diferenciada em uma região de interesse, permitindo melhor desempenho na maioria dos padrões de codificação de vídeo, como o High Efficiency Video Coding (HEVC). Este trabalho propõe um algoritmo de rastreamento que utiliza o método de Otimização por Enxame de Partículas (PSO - Particle Swarm Optimization) com uma função de custo calculada por uma Função Discriminante Linear (LDF - Linear Discriminant Function), que utiliza histograma RGB (Red, Green and Blue) dos blocos de cada partícula para caracterização do objeto alvo. De forma sucinta, o algoritmo desenvolvido realiza, após o segundo quadro capturado, a detecção do objeto alvo, através da estimação de movimento e obtenção do fluxo óptico. Este processo é realizado para o treinamento da função de custo do método de PSO. Como mencionado anteriormente, a função de custo foi desenvolvida utilizando Funções Discriminantes Lineares, que são treinadas com base em histogramas RGB de blocos sobre o quadro atual de cada partícula para a caracterização do objeto alvo. A partir das características são formadas duas classes a alvo e a não alvo. Logo em seguida, é chamado um novo quadro que terá o alvo rastreado através do método de PSO, que se baseia em três elementos essenciais, a inércia, melhor posição local e melhor posição global. Estes elementos são utilizados para atualizar o deslocamento do enxame e, consequentemente, acompanhar o alvo. As atualizações da melhor posição local e melhor posição global são definidas pela avaliação da proximidade obtida entre o valor atual e o centroide da classe alvo obtido durante o treinamento. Através dos testes do foram identificadas as seguintes características do algoritmo proposto: rápida convergência, pois foram obtidos bons resultados no algoritmo com poucas iterações no método de PSO; baixo custo computacional, se comparado com métodos determinísticos comuns, pois realiza uma quantidade menor de operações; capacidade de tratar oclusões que não superam um quarto (1/4) da resolução do vídeo e capacidade satisfatória de rastreamento de objeto com movimentos arbitrários e abruptos. ______________________________________________________________________________ ABSTRACT / Electronic monitoring-based on digital video has become a key element to the effectiveness of several activities, such as an efficient identification of anomalies in the monitored environment, the identification of suspects and clarification of facts, among others. Therefore, the need of visual tracking algorithms with low computational complexity that allow identification of the subjects' trajectory in electronic monitoring systems has increase. These algorithms can al-low differential coding in different image regions, allowing better performance in most video coding standard, as the High Efficiency Video Coding (HEVC). In this work it is propose an algorithm that uses Particle Swarm Optimization (PSO), as tracking method, along with a cost function calculated by a Linear Discriminant Functions (LDF) which utilizes RGB (Red, Green and Blue) histogram of image blocks for each particle to characterize the target object. Succinctly, the developed algorithmdetects the target object through motion estimation and obtains the optical flow after the second captured frame. This process is performed for training of the cost function for the PSO method. As mentioned before the cost function is implemented using Linear Discriminant Functions, which are train based on RGB histograms of blocks about the current frame of each particle to characterize of the target object. The characteristics are divided into two classes target and non-target. Then, for the new frame the object will be tracked by the PSO method, which is based on three key elements: inertia, local best position and global best position. These elements are used to update the displacement of the swarm and consequently track the target. Updates to the global best position and local best position are de ned through an evaluation of the proximity obtained between the current value and the centroid of a target class obtained during training. Through empirically test the following features of the proposed algorithm were identi ed: fast convergence, due to appropriate results obtained with few it-erations; low computational cost, when compared to common deterministic methods, because it signi cantly reduces the amount of operations; an ability to treat occlusions which do not exceed one-quarter (1/4) of the resolution of the video frame and satisfactory object tracking capability in objects with arbitrary and abrupt movements.
237

Rastreamento do foco do Aedes Aegypti utilizando processamento de imagens e sistema de informações geográficas no Distrito Federal

Silva, Marlete Maria da 26 July 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade Gama, Programa de Pós-Graduação em Engenharia Biomédica, 2013. / Submitted by Letícia Gomes T. da Silva (leticiasilva@bce.unb.br) on 2013-11-28T15:26:50Z No. of bitstreams: 1 2013_MarleteMariadaSilva.pdf: 3464450 bytes, checksum: 800ea256b47e41978e681011901d9516 (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2013-11-29T13:24:03Z (GMT) No. of bitstreams: 1 2013_MarleteMariadaSilva.pdf: 3464450 bytes, checksum: 800ea256b47e41978e681011901d9516 (MD5) / Made available in DSpace on 2013-11-29T13:24:03Z (GMT). No. of bitstreams: 1 2013_MarleteMariadaSilva.pdf: 3464450 bytes, checksum: 800ea256b47e41978e681011901d9516 (MD5) / A dengue é endêmica na Ásia, nas Américas, no oriente do Mediterrâneo e no Pacífico ocidental. É uma das enfermidades de maior impacto na saúde, afetando milhões de pessoas por ano no mundo, conforme a Organização Mundial de Saúde (OMS). Um dos métodos mais úteis para a detecção e vigilância do artrópode é a utilização de ovitrampas, que são armadilhas especiais para coleta de ovos da fêmea do mosquito. Esta contagem é geralmente realizada de forma manual. Tendo em vista, a morosidade em fornecer as informações coletadas das ovitrampas feitas manualmente através de um microscópio, este trabalho tem por objetivo desenvolver um algoritmo que faça a contagem total de ovos encontrados nas palhetas das ovitrampas utilizando de Processamento Digital de Imagens (PDI), bem como um Sistema de Contagem Semi-Automática (SCSA-WEB), georreferenciando esses dados coletados do total de ovos em um Sistema de Informação Geográfica (SIG) e disponibilizando-os em uma plataforma web. Esta proposta se enquadra no projeto Sistema de Informação Geográfica para Ovitrampas da Dengue (SIGO-DENGUE), desenvolvido na Universidade de Brasília (UnB), Faculdade Gama (FGA) e no Laboratório de Informática em Saúde (LIS). Os resultados obtidos foram satisfatórios comparados com a utilização do SCSA-WEB, onde foi realizada a contagem observada dos ovos das palhetas. Os valores totais obtidos com o SCSA-WEB foram considerados padrão ouro, por se tratar da contagem manual observada servindo como referência para comparação com a contagem automatizada. Através do algoritmo de PDI desenvolvido, foi possível ter o resultado do total de ovos em tempo hábil, reduzindo consideravelmente, o tempo gasto dos profissionais do laboratório para realizar a contagem. As amostras de imagens das palhetas para testes foram coletadas da cidade satélite do Gama. A quantidade de amostras foram de 50 imagens, conforme o Teorema do Limite Central utilizado em Estatística. A média para a contagem observada foi de 27,00. A contagem automatizada com os 3 parâmetros utilizados para calibração foi baseada com a área de abrangência onde encontram-se os ovos e a média de pixels por ovos. O 1º parâmetro foi de 400 versus 160 pixels, em que a média foi de 40,50; o do 2º parâmetro foi de 400 versus 250 pixels, em que a média foi de 30,00; e do 3º parâmetro foi de 550 versus 250 pixels, em que a média foi de 24,00. O 3º parâmetro aproxima-se mais da média da contagem observada. As percentagens calculadas do desvio nos parâmetros 1º, 2º e 3º foram de: 66,35%, 47,81% e 40,67%, respectivamente, sendo que o 1º parâmetro aproxima-se da contagem observada do desvio padrão. Os testes serviram para comprovar a eficiência do algoritmo para a contagem automática dos ovos do mosquito. E, finalmente, georreferenciar esses dados obtidos da contagem em um SIG para serem utilizados em consultas e construção de gráficos para o rastreamento da doença. ____________________________________________________________________________ ABSTRACT / Dengue fever is endemic in Asia, in the Americas, the Eastern Mediterranean and the Western Pacific. It is one of the most diseases with health impact affecting million of people worldwide each year, according to the World Health Organization (WHO). One of the greater and useful methods for detection, proliferation and surveillance of arthropods is the use of ovitraps, which are special traps constructed to collect eggs from female’s Aedes Aegypti. The eggs’ counting is usually performed in a manual way. Given the delays about providing information collected from the ovitraps, which is performed manually through a microscope, this paper aims to develop an algorithm whose is capable to count the amount of the eggs found in the reeds ovitraps, using Processing Digital Images (PDI) and also a Semi-Automatic Counting System (SCSA-WEB), georeferencing this collected data of all the eggs in a Geographic Information System (GIS) and providing them on a web platform. This proposal is based on the project called Geographic Information System for Dengue’s Ovitraps (SIGO-DENGUE), which were evolved at the University of Brasilia (UnB) College Gama (FGA), and in the Laboratory of Informatics in Health (LIS). The SCSA-WEB were used to perform the observed counting of the eggs, therefore the obtained results were satisfactory. The total amount of the eggs using SCSA- WEB was considered gold standard and it was used as reference to compare with the amount from the automatic counting. Through the developed PDI algorithm it was faster possible to obtain the results of eggs’s total, greatly reducing the time it takes the professionals laboratory to perform this counting. In accordance with statistical guidance 50 samples were collected from Gama city, and they were after used to perform the tests. The average for the observed count was 27.00. The automated counting, using three calibration’s parameter, were based on the coverage area where the eggs are located, and also the average of pixels per eggs. The 1st parameter was 400 versus 160 pixels, wherein the average were 40.50; the 2nd parameter was 400 versus 250 pixels, wherein the average were 30.00; and the 3rd parameter was 550 versus 250 pixels, wherein the average were 24.00. The 3rd parameter is closer to the observed count average. The percentages calculated from the deviation in the parameters 1, 2 and 3 were 66.35%, 47.81% and 40.67% respectively, and the 1st parameter approaches the standard deviation of the observed count. The tests are in favor to prove the algorithm’s efficiency for automatic counting of the mosquito egg’s. And finally, georeferencing these data, which it was obtained from counting in a GIS to be used in queries and build statistical graphs to track the disease.
238

Uma metodologia para modelagem e controle da largura do cordão de solda no processo GMAW / A methodology for modeling and control of weld bead width in the GMAW process

Moncayo Torres, Edna Margarita 18 October 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-01-22T11:15:52Z No. of bitstreams: 1 2013_EdnaMargaritaMoncayoTorres.pdf: 3829331 bytes, checksum: 4056e83b746ba1b735edb303c3b0f5de (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-02-05T13:39:58Z (GMT) No. of bitstreams: 1 2013_EdnaMargaritaMoncayoTorres.pdf: 3829331 bytes, checksum: 4056e83b746ba1b735edb303c3b0f5de (MD5) / Made available in DSpace on 2014-02-05T13:39:58Z (GMT). No. of bitstreams: 1 2013_EdnaMargaritaMoncayoTorres.pdf: 3829331 bytes, checksum: 4056e83b746ba1b735edb303c3b0f5de (MD5) / Conceitos aplicados ao controle da soldagem estão produzindo pesquisas direcionadas ao desenvolvimento do monitoramento direto ou indireto da geometria do cordão de solda. A utilização de certos tipos de sensores proporcionou o desenvolvimento de sistemas capazes de medir diretamente a geometria do cordão. No desenvolvimento das pesquisas relacionadas ao monitoramento e controle em tempo real da soldagem, observa-se a utilização de várias abordagens que podem ser agrupadas conforme o parâmetro de monitoramento escolhido. Ao longo dos anos, a demanda de sistemas para o monitoramento e o controle nos processos de soldagem tem crescido. A necessidade de melhorar a produtividade e qualidade levou ao desenvolvimento e aperfeiçoamento de técnicas e sistemas para monitoramento e controle dos processos de soldagem. Este trabalho apresenta uma metodologia para realizar a modelagem, otimização e controle da largura do cordão de solda, permitindo ajustar os parâmetros do processo em tempo real. Desenvolveu-se um sistema integrado de aquisição de imagens, modelagem e controle do processo de soldagem, permitindo uma resposta em tempo real, através de redes neurais artificiais, onde os parâmetros de velocidade de soldagem, velocidade de alimentação do arame e a tensão são preditos em função de uma largura desejada. Para realizar o controle em malha fechada do sistema desenhou-se um controlador “fuzzy” onde se toma como referência a diferença entre a largura que se pretende obter e a largura real do cordão de solda. Este cordão é medido através de um sistema de aquisição e processamento de imagens usando-se uma câmera web de baixo custo. A ação de controle é exercida preferencialmente na velocidade de soldagem, parâmetro que apresenta a maior influência na largura do cordão. Obteve-se cordões de solda com largura pré-definida, além de boa aparência e qualidade. _______________________________________________________________________________________ ABSTRACT / Welding Control concepts aim to developed researches to improve the monitoring and control of weld bead geometry. The use of certain types of sensors has allowed the development of systems that are able to directly measuring the weld bead geometry. Research developments reviews related to the real-time weld monitoring and control use several approaches that could be grouped according to what sort of parameter is selected for monitoring and over the recent years, the demand for more improved welding systems are growing up. The needs for improving productivity and quality have led to the development and improvement techniques and systems for monitoring and control of welding processes. This work presents a methodology to perform modelling, optimization and control of the weld bead width, enabling to adjust process parameters in real-time. It was developed an integrated system for image acquisition, modelling and control of the welding process allowing a real-time response, through artificial neural networks. Parameters as welding speed, wire feed velocity and voltage are predicted in function of a desired weld bead width. In order to get the closed-loop control system, it was designed a controller "fuzzy" in which is taken as reference the difference between the width to be achieved and the actual width of the bead. This weld bead is measured throughout an acquisition system and images processing using a low price webcam. The control action is carried out preferably in welding speed, a parameter that has the greatest influence on the weld bead width and it has not influence in the metal transfer behaviour. It was obtained weld beads with predefined width, good appearance and quality.
239

Do sensivel a significação : uma poetica da fotografia / From sensibility to signification: a poetic view of photography

Polignano, Sergio 16 February 2006 (has links)
Orientador: Ernesto Giovanni Boccara / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Artes / Made available in DSpace on 2018-08-07T06:14:51Z (GMT). No. of bitstreams: 1 Polignano_Sergio_M.pdf: 19138121 bytes, checksum: a2a1fa7467459819c2d2f07679e2acbd (MD5) Previous issue date: 2006 / Resumo: Este trabalho propõe uma abordagem conceitual, dos diversos conteúdos da imagem fotográfica, a sua leitura e decodificação, que vai da sensibilidade aos significados. Apresenta uma proposta de análise que busca justificar e demonstrar a condição da poética (Arte) da fotografia. Nesse sentido, mostra o que de incomum pode deter o olhar que eterniza e o olhar que ressuscita, dando um real valor às imagens fotográficas, sejam elas quais forem e mostrem o que de mais importante possam mostrar, mantendo as informações ao longo do tempo. Desse modo, busca contribuir para uma melhor compreensão da época em que as fotografias foram feitas, dos cenários que as mesmas registram, de seus contextos, assim como das implicações e relações que tenham com as formas de expressão diferenciadas, que chamamos: Arte / Abstract: This work proposes an conceptual approach to the various contents of photographic image, its interpretation, and decoding, which goes from sensibility to signification; it brings a proposal for an analysis that can effectively justify and demonstrate the condition of poetry (art) of photography, showing which of its uncommon aspects can capture the point of view that makes it eternal and the point of view that resuscitates it, bringing the real value to photographic images, being them whatever they are, showing whatever most important subject they can hold, maintaining their image content throughout time, and serving for a better understanding of the time in which photographs were taken, their scenarios, contexts, implications, and relationships that they have with the different forms of expression that we cal!: Art / Mestrado / Mestre em Artes
240

Sistema automatico de reconhecimento de impressões digitais [sic]

Breda, Gean Davis, 1968- 27 February 1996 (has links)
Orientador: Lee Luan Ling / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-21T07:10:20Z (GMT). No. of bitstreams: 1 Breda_GeanDavis_M.pdf: 12522100 bytes, checksum: 701d0c3722b880eb418ca3031c87dadb (MD5) Previous issue date: 1996 / Resumo: Neste trabalho desenvolvemos um sistema automático de reconhecimento de impressões digitais. Este sistema inclui aquisição da imagem, processamento, extração de características e classificação dos padrões. Na aquisição da imagem de impressão digital procuramos estudar os métodos que estão disponíveis e escolher o mais adequado ao nosso propósito. Introduzimos melhoras no método escolhido, o que levou a obtenção de bons resultados. A cadeia de processamento de imagem de impressões digitais é uma contribuição significativa deste trabalho, baseada em morfologia matemática, é desenvolvida especificamente com o objetivo de ser empregada na obtenção do esqueleto de uma imagem de impressão digital. Na extração de características selecionamos atributos para o sistema de classificação. Estes atributos são escolhidos de forma a serem os mais adequados para a tarefa de reconhecimento. Foram extraídos três tipos de características, denominadas: vetor histograma, vetor distância e quadrados concêntricos. Na classificação utilizamos dois tipos de classificadores: redes neurais Back-Propagation e um classificador por correlação. Os melhores resultados na classificação são obtidos utilizando-se o atributo, denominado vetor histograma, conjuntamente com uma rede neural Back-propagation / Abstract: In this work we develope an automatic system of fingerprint recognition. This system includes image acquisition, processing, extraction of features and pattern classification. In the image acquisition of fingerprint, we study the methods already available and choose the more adequate for our application. We improve the method chosen, that improvement leads to obtain good results. The image processing network, which is based on Mathematical Morphology, is a main contribution of this work. It is developed with the objective of obtaining the eskeleton of a fingerprint. In the feature extraction it is chosen the characteristics for the c1assification system. These characteristics are chosen to fit the task of recognition. The following three kinds of features are utilized: histogram vector, length vector and concentric squares. In the classification we utilize two kinds of classifiers:Back-Propagation neural network and correlation classifier.The best result in the classificationis obtained when we utilize the histogram vector with Back-Propagation neural network / Mestrado / Mestre em Engenharia Elétrica

Page generated in 0.0799 seconds