Spelling suggestions: "subject:"digitais"" "subject:"digitais2""
551 |
Avaliação da digitalização de tiras densitométricas analisadas por quatro programas de imagens quanto aos níveis de cinza / Evaluation of the digitization of densitometric strips analyzed by four image programs regarding to grey levelsOliveira, Milton José de January 2009 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Ciências da Saúde, 2009. / Submitted by Raquel Viana (tempestade_b@hotmail.com) on 2010-05-04T19:02:53Z
No. of bitstreams: 1
2009_MiltonJosedeOliveira.pdf: 3233524 bytes, checksum: c4ee30986010048ab266f023e2c94120 (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-05-19T05:37:19Z (GMT) No. of bitstreams: 1
2009_MiltonJosedeOliveira.pdf: 3233524 bytes, checksum: c4ee30986010048ab266f023e2c94120 (MD5) / Made available in DSpace on 2010-05-19T05:37:19Z (GMT). No. of bitstreams: 1
2009_MiltonJosedeOliveira.pdf: 3233524 bytes, checksum: c4ee30986010048ab266f023e2c94120 (MD5)
Previous issue date: 2009 / O objetivo desta pesquisa é de avaliar a possibilidade de usar a imagem digital como estimadora das condições de processamento radiográfico automático. Usando filmes radiográficos expostos em um sensitômetro e processados padronizadamente, em 4 temperaturas diferentes no início dos trabalhos semanais de uma Clínica de Radiologia Odontológica, as quais foram digitalizadas e observadas pelo software: Digora for Windows 1.5.1, Digora for Windows 2.5, Gimp 2.2 for Linux e Adobe Photoshop 7.0, quanto às densidades radiográficas, ou seja o nível de cinza, que representa o grau de escurecimento da imagem. As tabelas e gráficos apresentados mostram que existe uma variação do nível de cinza, seja do grau de processamento da imagem nas quatro áreas avaliadas de cada filme e nas quatro temperaturas estudadas que são estatisticamente significantes. Os traçados característicos também mostram estas diferenças e o grau de deterioração da qualidade da imagem pelo desgaste da solução de processamento. Nossos resultados indicam que a avaliação da imagem digital, pelos softwares estudados, são eficientes e permitem o controle de qualidade do processamento radiográfico de forma adequada, mostrando que a variação dos níveis de cinza indicam o desgaste da ação das soluções de processamento, em função do tempo de uso e do aumento do número de filmes processados na rotina da clínica. ________________________________________________________________________________________ ABSTRACT / The aim of this study is to evaluate the possibility of using the digital image as estimation of the conditions of automatic radiographic processing. Radiographic films exposed in a sensitometer and processed in a standardized way, at 4 different temperatures, at the beginning of the weekly services of a Dental Radiology Clinic were used. The films were digitized and observed by the software: Digora for Windows 1.5.1, Digora for Windows 2.5, Gimp for Linux 2.2, and Adobe Photoshop 7.0 regarding radiographic densities, that is, the degree of grey, which represents the level of image darkening. The tables and graphs presented show that there is a variation of the grey level, due to the degree of image processing at the four areas evaluated in each film and at the four temperatures studied that are statistically significant. The characteristic tracings also show these differences and the deterioration degree of the image quality due to the wear of the processing solution. Our results indicate that the evaluation of the digital image, by the studied software, is efficient and allow the quality control of the radiographic processing in an appropriate way, showing that the variations of grey level are markers of the wear of the processing solutions action, in function of both the time of use and the increase of the number of films processed in the clinic’s routine.
|
552 |
Classificação automática do acabamento de gordura em imagens digitais de carcaças bovinasBittencourt, Carmen Dalla Rosa January 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2009. / Submitted by Allan Wanick Motta (allan_wanick@hotmail.com) on 2010-06-08T19:58:48Z
No. of bitstreams: 1
Dissertacao_Carmen_Bittencourt.pdf: 982743 bytes, checksum: c1292a827e705b4cf35b8ecc19a2a817 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2010-06-09T19:51:24Z (GMT) No. of bitstreams: 1
Dissertacao_Carmen_Bittencourt.pdf: 982743 bytes, checksum: c1292a827e705b4cf35b8ecc19a2a817 (MD5) / Made available in DSpace on 2010-06-09T19:51:24Z (GMT). No. of bitstreams: 1
Dissertacao_Carmen_Bittencourt.pdf: 982743 bytes, checksum: c1292a827e705b4cf35b8ecc19a2a817 (MD5)
Previous issue date: 2009 / No Brasil, a classificação do acabamento de gordura em carcaças bovinas é realizada por meio de inspeção visual de regiões predefinidas da carcaça, feita por um profissional habilitado, seguindo os critérios estabelecidos na Portaria N.o 612/89 do Ministério da Agricultura, Pecuária e Abastecimento. O acabamento é classificado em cinco categorias, de 1 a 5. Esse método, por ser subjetivo, é mais propenso a ocorrência de erros de classificação. Essa pesquisa propõe uma metodologia para aquisição de imagens digitais de carcaças bovinas durante o abate e a classificação automática do acabamento de gordura das carcaças. A metodologia proposta é baseada no uso de redes neurais artificiais e compreende duas fases distintas. A primeira delas, consiste no uso de uma rede MLP com treinamento Levenberg - Marquardt para segmentação das regiões de gordura. A segunda consiste em usar uma rede MLP com treinamento de retropropagação do erro para classificar a carcaça em relação ao acabamento da gordura. Os resultados obtidos foram o desenvolvimento do protótipo de aquisição de imagens de carcaças bovinas, o uso de redes neurais para segmentar a gordura em imagens digitais das carcaças obtidas sem a utilização de artifícios de intervenção no processo de abate e a proposição de um classificador neural com acurácia de 86% na classificação do acabamento de gordura. Para a realização dessa pesquisa, até o momento foram coletadas 4.710 imagens de carcaças bovinas, utilizando o protótipo desenvolvido. _________________________________________________________________________________ ABSTRACT / In Brazil, the classification of fat layer of bovine carcasses has to follow the Regulation Act number 612/89 from the Ministry of Agriculture (MAPA). There are five class of fat layer, growing from 1 to 5. This process is performed by mean of visual and subjective observation of specific regions of the carcass, done by a technician during the bovine slaughter process inside the meat industries. The technician is certified by the MAPA. This paper proposes a methodology for automatic classification of the fat layer in bovine carcasses based on two steps. The first one uses an artificial neural network to segment the fat regions of digital image of bovine carcasses. This artificial neural network is a MLP training with the Levenberg - Marquardt algorithm. The imagens have been gathered with no intervention in the process of slaughter. The second step comprises the proposal of a classifier of the fat layers in bovine carcasses based on both a MLP backpropagation artificial neural network and the Regulation Act 612/89 of the Ministry of Agriculture. Until now, the results obtained were the proposal of a functional prototype for image acquisition of carcasses during the slaughter process and the performance level of 86% of accuracy in a experimental evaluation for the fat layers classifier based on artificial neural network. For the purposes of this research so far were collected 4,710 images of bovine carcasses, using the prototype developed.
|
553 |
Convergência e regulação setorial : análise dos modelos regulatórios dos EUA e do Reino UnidoMendonça, Bernardo Fernandes Corrêa 20 November 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Comunicação, 2009. / Submitted by samara castro (sammy_roberta7@hotmail.com) on 2011-03-30T16:45:32Z
No. of bitstreams: 1
2009_BernardoFernandesMendonca.pdf: 1394074 bytes, checksum: 90fe79b5828356171e97755b40b9eb2c (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2011-04-01T13:55:20Z (GMT) No. of bitstreams: 1
2009_BernardoFernandesMendonca.pdf: 1394074 bytes, checksum: 90fe79b5828356171e97755b40b9eb2c (MD5) / Made available in DSpace on 2011-04-01T13:55:20Z (GMT). No. of bitstreams: 1
2009_BernardoFernandesMendonca.pdf: 1394074 bytes, checksum: 90fe79b5828356171e97755b40b9eb2c (MD5) / Esta dissertação estuda essencialmente os modelos regulatórios para as comunicações eletrônicas dos EUA e do Reino Unido a partir de uma abordagem multidimensional do fenômeno da convergência. Em função das transformações setoriais inerentes a convergência, objetiva-se analisar as respostas em termos de políticas públicas para a regulação das comunicações. Esta pesquisa buscou compreender o que é um “modelo regulatório covergente” partindo de um estudo comparativo dos casos estadunidense e britânico. Para tanto, realizou-se um levantamento das principais regras setoriais e instituições reguladoras de cada um desses países a luz de pressupostos teóricos da regulação setorial. Após a identificação dessas regras foi desenhado um quadro analítico para modelos regulatórios, possibilitando assim, sua comparação diante de uma perspectiva focada no fenômeno da convergência. O objetivo foi discutir como o fenômeno da convergência está sendo tratado por esses modelos regulatórios, avaliando a configuração dessas regras chaves como, por exemplo, o sistema de licenciamento, de tratamento do espectro radioelétrico, de recursos escassos e outros. Descobriu-se com essa análise comparativa que o modelo britânico se apresenta como uma evolução do modelo estadunidense, podendo ser considerado um rompimento com o paradigma regulatório anterior. Além disso, foram identificadas algumas tendências regulatórias que podem vir a ser as bases de um modelo convergente para as comunicações eletrônicas. _______________________________________________________________________________ ABSTRACT / This dissertation studies essentially the regulatory framework for electronic communications in USA and United Kingdom through a multidimensional approach of the convergence phenomenon. Due to the sectorial transformations intrinsic to the convergence, it aims to analyze the answers adopted through public policy to regulate communications. This research sought to understand what is a “convergent regulatory framework” starting from a comparative study of the North American and British cases. Therefore, we carried out a survey of the main sectorial rules and regulatory institutions of both countries, considering the theoretical principles of sectorial regulation. After the identification of these rules, an analytic table for regulatory frameworks was prepared, thus enabling their comparison in front a perspective focused on the convergence phenomenon. The goal was to discuss how the convergence phenomenon is being approached by these regulatory models, therefore evaluating the configuration of these key rules such as the licensing system, the spectrum handling system and scarce resources system and others. It was discovered through this comparative analysis that the British model presents itself as an evolution of the North American‟s, and can be considered a rupture with the previous regulatory paradigm. Beyond that, it were identified some regulatory trends that might become the basis for a convergent model for electronic communications.
|
554 |
Detecção de adulterações espaciais e temporais em vídeos digitais utilizando o algoritmo de marca d’água por modulação do índice de quantizaçãoRigoni, Ronaldo 26 June 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas,
Departamento de Ciência da Computação, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-02-19T13:44:11Z
No. of bitstreams: 1
2013_RonaldoRigoni.pdf: 29314095 bytes, checksum: 6fa363124874c6673aaf642bd22e11c5 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-03-31T14:07:55Z (GMT) No. of bitstreams: 1
2013_RonaldoRigoni.pdf: 29314095 bytes, checksum: 6fa363124874c6673aaf642bd22e11c5 (MD5) / Made available in DSpace on 2014-03-31T14:07:55Z (GMT). No. of bitstreams: 1
2013_RonaldoRigoni.pdf: 29314095 bytes, checksum: 6fa363124874c6673aaf642bd22e11c5 (MD5) / A integridade e confiabilidade de conteúdos multimídia tornaram-se um desafio perante o fácil acesso às informações e à grande gama de softwares disponíveis para edição e editoração. A literatura classifica os métodos de adulterações de mídias digitais em duas classes: ativos e passivos. Os métodos passivos consistem na análise de catacterísticas típicas dos conteúdos adulterados, enquanto que os métodos ativos utilizam uma marca d’água ou uma assinatura digital para detecção de adulterações. Em particular, o uso de técnicas de marca d’água digital é uma das abordagems mais promissoras para detecção de adulterações em mídias digitais. Diversas técnicas de detecção de adulterações foram propostas na literatura. No entanto, todas as técnicas concentram-se na detecção de uma pequena gama de adulterações. O objetivo deste trabalho é o desenvolvimento de uma técnica de proteção contra adulterações em imagens e vídeos utilizando uma técnica de inserção de marca d’água digital com o algoritmo por modulação do índice de quantização (QIM). O sistema proposto é capaz de detectar adulterações locais, globais e temporais apresentando bom desempenho. _________________________________________________________________________________ ABSTRACT / The integrity of multimedia content, such as images, videos and audios, have become a challenge because of the easy access to information and the wide range of software available for edition. The literature classifies tampering of digital media methods in two types: active and passive. Passive methods analyse the intrinsic caracteristics of the media to detect tampered areas. The active methods use a watermarking algorithm or a digital signature for tampering detection. Using a watermarking algorithm is one of the most promising ways for the detection of tampering or any modification on the media. Several techniques are proposed in the literature for different types of digital tampering detection. However, most techniques concentrate on a small range of tampering detection. The goal of this work is to develop a technique for tampering protection in images and videos using a watermarking technique combined with a Quantization Index Modulation algorithm (QIM). The proposed system is capable of detecting local, global and temporal tampering and presents good performance.
|
555 |
Métricas de qualidade de imagens sem referência utilizando atenção visual / No-reference image quality metric based on visual attentionGarrido, Tainá Borges Andrade 01 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2014. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-04-15T13:13:40Z
No. of bitstreams: 1
2014_TainaBorgesAndradeGarrido.pdf: 5153253 bytes, checksum: 24bb24a97464b34e15acf8a3b9b6ab0d (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-07-22T13:38:06Z (GMT) No. of bitstreams: 1
2014_TainaBorgesAndradeGarrido.pdf: 5153253 bytes, checksum: 24bb24a97464b34e15acf8a3b9b6ab0d (MD5) / Made available in DSpace on 2014-07-22T13:38:06Z (GMT). No. of bitstreams: 1
2014_TainaBorgesAndradeGarrido.pdf: 5153253 bytes, checksum: 24bb24a97464b34e15acf8a3b9b6ab0d (MD5) / A qualidade da imagem está associada a capacidade do Sistema Visual Humano (SVH) perceber degradações. Muitas métricas de qualidade se utilizam da comparação com a imagem original para mensurar a qualidade da imagem degradada. Estas métricas são conhecidas como métricas com referência ou referenciadas. Infelizmente, em aplicações práticas nem sempre se dispõe da imagem de referência para a avaliação da qualidade. Dessa forma, muitas pesquisas têm sido desenvolvidas com a finalidade de criar e implementar métricas de avaliação objetivas sem-referência ou não referenciadas. Naturalmente, por não utilizar a referência (original) para estimar a qualidade, estas métricas são menos precisas que as métricas com referência. Neste contexto, o presente trabalho tem o objetivo de melhorar o desempenho de métricas de qualidade sem-referência disponíveis na literatura. Com este fim, apresentamos uma proposta de aperfeiçoamento destas métricas utilizando modelos computacionais de atenção visual. Com este objetivo, foram empregadas estratégias de combinação da imagem degradada com os respectivos mapas de saliência gerados pelos modelos de atenção visual. Os experimentos realizados através de simulações computacionais apontam que enfatizar as áreas mais relevantes (ou mais salientes) da imagem é uma estratégia eficaz para melhorar o desempenho de métricas existentes. _______________________________________________________________________________________ ABSTRACT / Image quality is frequently associated with the ability of the Human Visual System (HVS) to perceive degradations. In the last few years, several image quality metrics have been proposed that use the original image (or reference) to estimate image quality. These metrics are known as full-reference (FR) metrics. Unfortunately, the reference is not always available in practical application. The alternative consists of using no-reference (NR) image quality metrics that blindly estimate the quality of an image, without having access to the original image. These metrics, in general, have a lower performance when compared to FR image quality metrics. The goal of this work is to improve the performance of no-reference image quality metrics using visual attention computational models. With this goal, we present strategies that consist of combining the test image with saliency maps generated by visual attention models. Experimental results indicate that the proposed approach can be an effective strategy for improving the performance of existing objective metrics.
|
556 |
AnÃlise fatorial confirmatÃria do construto homo zappiensPablo Carvalho de Sousa Nascimento 19 December 2017 (has links)
à fato inegÃvel que se vive uma nova era com a introduÃÃo do computador no quotidiano das pessoas e das instituiÃÃes. Num primeiro momento, sua influÃncia se limitou a tarefas mais simples, como envio de mensagens. Pouco a pouco, à medida que novos programas foram surgindo, ampliou-se a presenÃa das tecnologias da informaÃÃo atà alcanÃar a escola. Inicialmente, sob a forma lÃdica que os jogos proporcionam, mas, ao longo do tempo, essa presenÃa ampliou-se. Os programas ficaram mais complexos e capazes de responder a demandas educacionais antes restritas à presenÃa de um professor. O volume de informaÃÃes produzido foi um desses fatores. A integraÃÃo das vÃrias formas de comunicaÃÃo foi outro componente importante. Novas habilidades surgiram nesseprocesso. Nesse passo, surgiu a metÃfora do Homo Zappiens, ou seja, um novo conceito nÃo testado empiricamente. Esta proposta de estudo tem como objetivo testar um novo conceitodenominado Homo Zappiens. Para tanto, serà utilizada a modelagem de equaÃÃes estruturais que à o procedimento aceito pela comunidade acadÃmica que trabalha com modelos quantitativos. As equaÃÃes foram obtidas a partir da anÃlise das respostas dadas ao instrumento. Sendo assim, num primeiro momento empregou-se a anÃlise fatorial exploratÃria (AFE) para identificar as variÃveis latentes que explicam a variÃvel sob estudo. No segundo momento, utilizou-se a anÃlise fatorial confirmatÃria (AFC) para confirmar os fatores detectados na anÃlise exploratÃria.ApÃs realizados todas os procedimentos e analisados os resultados aplicados ao modelo dos trÃs fatores os indicadores apontaram para a existÃncia do modelo hipotetizado.
Observou-se tambÃm, de acordo com a literatura consultada, a existÃncia de diferenÃas significativas na escala de avaliaÃÃo entre os sexos, masculino e feminino. / à fato inegÃvel que se vive uma nova era com a introduÃÃo do computador no quotidiano das pessoas e das instituiÃÃes. Num primeiro momento, sua influÃncia se limitou a tarefas mais simples, como envio de mensagens. Pouco a pouco, à medida que novos programas foram surgindo, ampliou-se a presenÃa das tecnologias da informaÃÃo atà alcanÃar a escola. Inicialmente, sob a forma lÃdica que os jogos proporcionam, mas, ao longo do tempo, essa presenÃa ampliou-se. Os programas ficaram mais complexos e capazes de responder a demandas educacionais antes restritas à presenÃa de um professor. O volume de informaÃÃes produzido foi um desses fatores. A integraÃÃo das vÃrias formas de comunicaÃÃo foi outro componente importante. Novas habilidades surgiram nesseprocesso. Nesse passo, surgiu a metÃfora do Homo Zappiens, ou seja, um novo conceito nÃo testado empiricamente. Esta proposta de estudo tem como objetivo testar um novo conceitodenominado Homo Zappiens. Para tanto, serà utilizada a modelagem de equaÃÃes estruturais que à o procedimento aceito pela comunidade acadÃmica que trabalha com modelos quantitativos. As equaÃÃes foram obtidas a partir da anÃlise das respostas dadas ao instrumento. Sendo assim, num primeiro momento empregou-se a anÃlise fatorial exploratÃria (AFE) para identificar as variÃveis latentes que explicam a variÃvel sob estudo. No segundo momento, utilizou-se a anÃlise fatorial confirmatÃria (AFC) para confirmar os fatores detectados na anÃlise exploratÃria.ApÃs realizados todas os procedimentos e analisados os resultados aplicados ao modelo dos trÃs fatores os indicadores apontaram para a existÃncia do modelo hipotetizado.
Observou-se tambÃm, de acordo com a literatura consultada, a existÃncia de diferenÃas significativas na escala de avaliaÃÃo entre os sexos, masculino e feminino. / It is an undeniable fact that we are experiencing a new era with theintroduction of the computer in the daily lives of people and institutions. At first, his influence was limited to simpler tasks such as sending messages. Little by little, as new programs emerged, the presence of information technology has expanded to reach school. Initially, in the ludic form that the games provide, but over time, this presence has increased. The programs became more complex and capable of responding to educational demands previously restricted to the presence of a teacher. The volume of information produced was one such factor. The integration of the various forms of communication was another important component. New skills emerged in this process. In this step, the Homo Zappiens metaphor emerged, that is, a new concept not tested empirically. This study proposal aims to test a new concept called Homo Zappiens. For that, the structural equations modelling will be used, which is the procedure accepted by the academic community that works with quantitative models. The analysis of the answers given to the instrumentproduced the equations. Therefore, the exploratory factorial analysis (AFE) performed first to identify the latent variables that explain the variable under study. In the second moment, was used the confirmatory factorial analysis (AFC) to confirm the factors detected in the exploratory analysis.
After all procedures applied,the results applied in the tree factor model the indicators show the existence of the hypothesis model suggested. Furthermore, it is possible observe that there are differences between the men and women concerning the use of the technologies. / It is an undeniable fact that we are experiencing a new era with theintroduction of the computer in the daily lives of people and institutions. At first, his influence was limited to simpler tasks such as sending messages. Little by little, as new programs emerged, the presence of information technology has expanded to reach school. Initially, in the ludic form that the games provide, but over time, this presence has increased. The programs became more complex and capable of responding to educational demands previously restricted to the presence of a teacher. The volume of information produced was one such factor. The integration of the various forms of communication was another important component. New skills emerged in this process. In this step, the Homo Zappiens metaphor emerged, that is, a new concept not tested empirically. This study proposal aims to test a new concept called Homo Zappiens. For that, the structural equations modelling will be used, which is the procedure accepted by the academic community that works with quantitative models. The analysis of the answers given to the instrumentproduced the equations. Therefore, the exploratory factorial analysis (AFE) performed first to identify the latent variables that explain the variable under study. In the second moment, was used the confirmatory factorial analysis (AFC) to confirm the factors detected in the exploratory analysis.
After all procedures applied,the results applied in the tree factor model the indicators show the existence of the hypothesis model suggested. Furthermore, it is possible observe that there are differences between the men and women concerning the use of the technologies.
|
557 |
Radiotelescópio de Itapetinga: modelagem e projeto de compensadores. / Radiotelescope of Itapetinga: modelling and control law design.Fabio de Oliveira Fialho 05 June 2003 (has links)
Este trabalho trata da modelagem e controle do radiotelescópio de Itapetinga (Atibaia, SP). Ele compreende não só síntese dos modelos e sintonia dos controladores, mas também identificação de sistemas, validação experimental de modelo e controle, reespecificação de componentes, sugestão de nova arquitetura de automação e controle e direcionamento do desenvolvimento que deve ser feito em futuros trabalhos. A parte inicial desta dissertação trata dos principais conceitos envolvidos e do levantamento de informações preliminares para a compreensão do sistema a ser modelado. A seguir é feita a modelagem matemática dos diversos componentes que formam os sistemas de posicionamento dos eixos de elevação e azimute. São então identificados experimentalmente os coeficientes matemáticos dos modelos e são feitas suas validações experimentais. Os controladores PID são sintonizados, baseados na simulação das malhas de controle através das ferramentas matemáticas MATLAB e Simulink. A validação experimental dos controladores é feita e comparada ao sistema de controle atual. São feitos os encaminhamentos das definições de novos motores e amplificadores e desenvolvida uma nova proposta de arquitetura para controle e supervisão do radiotelescópio, dando a ele funcionalidades muito além das que existem atualmente. Finalmente é dado o direcionamento dos próximos passos de desenvolvimento dos modelos, controladores e arquitetura de controle. Com este trabalho procura-se aumentar significativamente o entendimento do sistema de posicionamento do radiotelescópio, criando novos horizontes para o controle, operação, supervisão e manutenção do mesmo. / This work covers the modeling and control of the radio telescope of Itapetinga (Atibaia, SP). It tackles not only model synthesis and controllers tuning, but also system identification, experimental validation of model and control, re-specification of components, as well as a suggestion of a new automation and control architecture, and suggestions for future works. The initial part of this dissertation covers the main concepts and preliminary information for the understanding of the system to be modeled. Then a math model of the several components that form the pointing systems of the elevation and azimuth axis is done, followed by the experimental identification and validation of the math coefficients for the model. PID controllers are tuned based on the simulation of control loops using the math tools MATLAB and Simulink. Then the experimental validation of the controllers is done and compared to the current system control. Preliminary definitions of new motors and amplifiers are suggested, and a new proposal of architecture for radio telescope\'s control and supervision is developed, expanding its functionalities far beyond the ones available today. Finally, directions for the next steps to be taken in order to develop models, controllers and control architecture are given. This work aims to greatly increase the understanding of the radio telescope\'s pointing system, creating new horizons for its control, operation, supervision and maintenance.
|
558 |
PrincÃpio da casa dos pombos :uma abordagem diferenciada com objetos de aprendizagem / Principle of the house of pigeons: a differentiated approach to learning objectsThiago Pinheiro de Aguiar 03 August 2013 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Este estudo apresenta a utilizaÃÃo de Objetos de Aprendizagem (OA) para o ensino do PrincÃpio da Casa dos Pombos. Nosso objetivo à inferir se a utilizaÃÃo de Objetos de Aprendizagem facilita o processo de ensino-aprendizagem. O presente estudo foi realizado com uma turma de 2 sÃrie do ensino mÃdio da Escola Estadual de Ensino Fundamental e MÃdio Irapuan Cavalcante Pinheiro, situada em Fortaleza, CearÃ. Por se tratar de estudo experimental, utilizamos uma amostra composta por 20 alunos, os quais foram divididos em dois grupos, experimental e de controle. Tais grupos, com 10 alunos cada, foram separados de forma aleatÃria por sorteio. Foram utilizados, como instrumentos de coleta, um questionÃrio socioeconÃmico e um teste com questÃes sobre
o PrincÃpio da Casa dos Pombos. O programa Microsoft Office Excel nos permitiu organizar e analisar os dados coletados, e indicou um desempenho superior dos
participantes do grupo experimental, grupo este, que recebera uma aula diferenciada, com o uso de objetos de aprendizagem. / This study presents the use of learning objects (LO) to the teaching of the Principle of the House of Pigeons. Our goal is to infer that the use of learning objects facilitates the process of teaching and learning. This study was taken place in the Elementary and
High School called Irapuan Cavalcante Pinheiro with second-year students in Fortaleza, CearÃ. As this is an experimental study, it has been used a sample of 20 students, who were divided into two groups: experimental one and group of control. Such groups, with 10 students each, were separated randomly by raffle. It has been also used, as data collection, a socioeconomic questionnaire and a test with questions on the Principle of the House of Pigeons. Microsoft Office Excel made possible for us to organize and analyze the data collected, which indicated a superior performance of the experimental group which will receive a special class with the use of learning objects.
|
559 |
Influencia do tempo de espera, de exposição e condições de luz em imagens obtidas por placas de armazenamento de fosforo / Influence of the time and storage conditions on images acquired using phosphor storage platesMartins, Mauro Guilherme de Barros Quirino 12 February 2005 (has links)
Orientador: Francisco Haiter Neto / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Odontologia de Piracicaba / Made available in DSpace on 2018-08-10T08:35:13Z (GMT). No. of bitstreams: 1
Martins_MauroGuilhermedeBarrosQuirino_D.pdf: 459015 bytes, checksum: ab47f5efdd8be44f60da615d4f531069 (MD5)
Previous issue date: 2005 / Resumo: O objetivo deste estudo foi verificar a influência do tempo de espera, tempo de exposição e condição de luz na qualidade final de imagens obtidas por placas de fósforo dos sistemas digitais DenOptix®, Digora® e Vistascan®. As placas foram sensibilizadas com uma escala de densidade, com a finalidade de realizar as análises objetivas, com um ¿phantom¿, constituído a partir de uma mandíbula macerada, para análise subjetiva e com dentes pré-molares, para o diagnóstico de cáries. As análises objetivas foram realizadas pelo valor do pixel dos softwares correspondentes aos sistemas digitais e estes dados, analisados estatisticamente pelos testes de Tukey e Dunnet. A análise subjetiva foi realizada por 3 radiologistas e os dados submetidos ao teste de Mann Whitney. Para o diagnóstico de cáries, foram utilizados oito avaliadores e os dados submetidos aos testes de Wilcoxom e Friedman. Como conclusões: 1. As imagens obtidas pelo sistema Digora® sofreram perda de qualidade de imagem a partir de 4 horas, após a exposição aos raios X; 2. O sistema DenOptix® apresentou-se estável quando submetido a diferentes tempos de exposição adequados e tempos de espera; 3. A qualidade da imagem das placas de armazenamento de fósforo é afetada pela qualidade dos invólucros plásticos disponíveis em cada sistema. Os invólucros do sistema Vistascan® foram capazes de proteger entrada de luz nas condições utilizadas por este estudo / Abstract: The aim of this study was to verify the influence of the delay in scanning, exposure time and light condition in the final quality of images obtained using phosphor storage plates of DenOptix®, Digora® and Vistascan® digital systems. The plates were radiographed with an aluminium step wedge for the objective analysis, with a dry mandible for the subjective analysis and with premolars teeth for caries diagnosis. The objective analysis were carried through by the pixel value obtained from the corresponding softwares of each digital systems and these data analyzed statistically by Tukey and Dunnet tests. The subjective analysis were carried through by 3 radiologists and the data submitted to Mann Whitney U test. For caries diagnosis, eight observers were used and the data submitted to Wilcoxom and Friedman tests. As conclusions: 1. The images obtained using the Digora® system showed loss of quality of image at 4 hours after exposure; 2. The DenOptix® system presented a certain stability when subjected to different delays in scanning and exposure times; 3. The quality of the image of the phosphor storage plates is affected by the quality of the available plastic hygienic bags of each system. The bags of the Vistascan® system were able to protect under all the conditions used in this study / Doutorado / Radiologia Odontologica / Doutor em Radiologia Odontológica
|
560 |
Sensoriamento remoto aplicado na analise da cobertura vegetal das reservas de desenvolvimento sustentavel Amana e Mamiraua / Remote sensing applied in vegetation analysis of Amana and Mamiraua sustainable-use protected areasNunes, Gustavo Manzon 03 April 2008 (has links)
Orientadores: Carlos Roberto de Souza Filho, Laerte Guimarães Ferreira Junior / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Geociencias / Made available in DSpace on 2018-08-10T13:23:28Z (GMT). No. of bitstreams: 1
Nunes_GustavoManzon_D.pdf: 36857548 bytes, checksum: 70db72622f53387a3b3daa1b2a6ac19d (MD5)
Previous issue date: 2008 / Resumo: O conhecimento da biodiversidade amazônica, em especial o relacionado à sua cobertura vegetal, tem sido alvo de amplos estudos envolvendo a investigação de seus processos ecológicos-evolutivos e o seu funcionamento como um conjunto integrado e complexo de unidades biológicas. O desenvolvimento de tecnologias e metodologias no campo do Sensoriamento Remoto, cada vez mais vem se tornando essencial na análise, discriminação e monitoramento de vastas áreas dominadas pela Floresta Tropical. Esta tese buscou avaliar os aspectos relacionados à potencialidade das imagens dos sensores Moderate Resolution Imaging Spectroradiometer (MODIS)/Terra, Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER)/Terra e Synthetic Aperture Radar (SAR)/R99-B, para a discriminação de fitofisionomias existentes nas Reservas de Desenvolvimento Sustentável Amanã e Mamirauá (RDSA e RDSM). A partir de processamentos realizados com os dados do sensor MODIS, Produto MOD13 ¿ Índices de Vegetação EVI (Enhanced vegetation ÍNDEX) e NDVI (Normalized Difference Vegetation Index), foi avaliado o comportamento sazonal/temporal de quatro fitofisionomias existentes nas RDSA e RDSM, entre os anos de 2004 e 2005. Com este estudo, foi possível concluir que (i) os índices de vegetação foram sensíveis às características estruturais e fisionômicas do geossistema estudado; (ii) o EVI apresentou a melhor resposta para a discriminação de fitofisionomias, (iii) é possível discriminar ¿endmembers¿ temporais para as distintas classes florestais, os quais podem servir como importantes referências para trabalhos futuros envolvendo a dinâmica da paisagem. Às imagens do sensor ASTER, nos intervalos espectrais do visível (0.52-0.69 µm), infravermelho próximo (0.78-0.86 µm) e infravermelho de ondas curtas (1.60 a 2.43 µm), foram aplicadas técnicas de classificação espectral adaptadas para os dados deste sensor (Spectral Angle Mapper (SAM) e Mixture Tuned Matched Filtering (MTMF)), além do NDVI. Através da técnica SAM foi possível a discriminação de seis fitofisionomias predominantes na RDSA. Através da técnica MTMF, que envolve um algoritmo de classificação mais robusto, informações equivalentes foram obtidas. Foi possível ainda a associação e detecção dos padrões espectrais da cobertura vegetal, mostrando a estreita relação com o índice NDVI. Utilizando-se dados do sensor aerotransportado SAR R99-B, adquiridos na banda L (1,28 GHz), em amplitude e com quatro polarizações (HH, VV, HV e VH), avaliou-se a distinção de fitofisionomias de floresta de várzea existentes em ambientes da RDSA e RDSM, com a aplicação do algoritmo Iterated Conditional Modes (ICM), de classificação polarimétrica pontual/contextual. Os resultados mostraram que o uso das distribuições multivariadas em amplitude, conjuntamente com uma banda de textura, produziu classificações de qualidade superior àquelas obtidas com dados polarimétricos uni/bivariados. Essa abordagem permitiu a discriminação correta de três classes vegetacionais de interesse, comprovando o potencial dos dados do SAR-SIPAM e do algoritmo ICM no mapeamento da cobertura vegetal da Amazônia / Abstract: The knowledge of the Amazon biodiversity, especially that related to its vegetation cover, has been the subject of several studies involving the investigation of its ecological-evolutional processes and its dynamics as an integrated and complex set of biological units. The development of Remote Sensing technologies and methodologies is becoming increasingly essential in the analysis and monitoring of vast areas dominated by the Amazon rainforest. Thus, this study seeks to evaluate the capability of data generated by the Moderate Resolution Imaging Spectroradiometer (MODIS)/Terra, the Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER)/Terra and the Synthetic Aperture Radar (SAR)/R99-B sensors, in discriminating phytophysiognomies found in the Amanã and Mamirauá Sustainable Development Reserves (RDSA and RDSM). Product MOD13, derived from MODIS data processing, comprising the Vegetation Indices EVI (Enhanced vegetation Index) and NDVI (Normalized Difference Vegetation Index), was used to evaluate the seasonal/temporal behavior of four existing phytophysiognomies in RDSA and RDSM between 2004 and 2005. Results showed that (i) the vegetation indices were sensitive to the structural characteristics of the approached ecosystem and phytophysiognomies; (ii) the EVI index best discerned among the phytophysiognomies; (iii) temporal endmembers were distinguished for different classes of forests and may serve as important references for future work involving the dynamics of the landscape. ASTER data, including visible (0.52-0.69 µm), nearinfrared (0.78-0.86 µm) and shortwave infrared (1.60-2.43 µm) bands were processed through advanced spectral classification techniques, such as the Spectral Angle Mapper (SAM) e Mixture Tuned Matched Filtering (MTMF), besides NDVI. The SAM method allowed the recognition of six dominant
phytophysiognomies in the RDSA. The MTMF, which involves a more robust spectral unmixing method, provided equivalent results. Using ASTER data, it was also possible to demonstrate the close relation between the spectral patterns and the NDVI values for the vegetation cover. By means of L band (1.28 GHz), full polarimetric (HH, VV, VH, HV), SAR-amplitude data acquired with the SAR R99-B sensor, distinctions among flooded forest phytophysiognomies in the RDSA and RDSM was pursued. The Iterated Conditional Modes (ICM) algorithm was employed to perform the local/contextual polarimetric classification of the data. Results showed that the use of multivariate distributions in amplitude with a band of texture produced classifications of superior quality in relation to those obtained with the uni / bivariate polarimetric data. This approach allowed the correct discrimination of three vegetation classes of interest, proving the potential of the SAR data and the algorithm ICM in forest mapping in the Amazon / Doutorado / Análise Ambiental e Dinâmica Territorial / Doutor em Geografia
|
Page generated in 0.0574 seconds