Spelling suggestions: "subject:"processamento dde dados"" "subject:"processamento dee dados""
121 |
Avaliação de impacto do Programa Bolsa Família na inserção de jovens no mercado formal de trabalho por meio do método de Regressão com Descontinuidade (RDD)Dourado Neto, Aloísio 28 July 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Priscilla Sousa (priscillasousa@bce.unb.br) on 2017-10-10T13:36:38Z
No. of bitstreams: 1
2017_AloísioDouradoNeto.pdf: 5847718 bytes, checksum: 5a0555ccf21036c4989d4213d625426a (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-11-07T15:54:40Z (GMT) No. of bitstreams: 1
2017_AloísioDouradoNeto.pdf: 5847718 bytes, checksum: 5a0555ccf21036c4989d4213d625426a (MD5) / Made available in DSpace on 2017-11-07T15:54:40Z (GMT). No. of bitstreams: 1
2017_AloísioDouradoNeto.pdf: 5847718 bytes, checksum: 5a0555ccf21036c4989d4213d625426a (MD5)
Previous issue date: 2017-11-07 / Com a massificação do uso da tecnologia de informação e o recente aumento no compartilhamento de bases de dados entre as organizações, o TCU, órgão responsável pelo controle externo da União, passou a realizar auditorias com forte apoio de análises baseadas em dados. Entretanto, o volume de auditorias operacionais baseadas em dados governamentais para verificar a efetividade de políticas públicas ainda é baixo quando comparado às auditorias de conformidade de mesma natureza. Os principais dificultadores para a realização de análises de impacto a partir de bases governamentais são a complexidade inerente à manipulação de grandes bases de dados e a carência de softwares econométricos em código aberto capazes de realizar estimações com amostras da ordem de dezenas de milhões de observações. Visando contribuir para a mudança deste cenário, o presente trabalho disponibiliza um processo de integração de dados flexível e um software de estimação RDD capaz de realizar análises em bases de dados com dezenas de milhões de registros e alta variança, com boa performance, aproveitando os recursos de processamento paralelo dos computadores atuais. O presente trabalho demonstra que é possível avaliar a efetividade do Programa Bolsa Familia, uma importante política pública brasileira, utilizando bases de dados disponíveis no TCU, ao realizar uma análise do impacto do programa na inserção de jovens no mercado formal de trabalho, por meio da abordagem RDD, utilizando 13 milhões de registros extraídos de algumas dessas bases. Os resultados obtidos indicam que os jovens que permanecem no PBF por mais tempo apresentam menor nível de acesso ao mercado formal que aqueles que saem mais cedo do programa. Na avaliação realizada, foi obtida uma redução no tempo de processamento de 88% em relação ao software original. A abordagem de avaliação aqui apresentada não é restrita ao TCU e pode contribuir para a melhoria do processo de avaliação e fiscalização de programas sociais no Brasil se utilizada pelo órgão de controle interno da União ou pelos gestores da política pública. / The Big Data Era has brought a huge amount of data to The Brazilian Federal Court of Accounts (TCU), which has used this data with great success in a variety of compliance audits. In contrast, the number of operational audits conducted with this new paradigm is still small. The main obstacles to carrying out impact analyzes from government bases are the complexity inherent in the manipulation of large databases and the lack of open source econometric software capable of making estimates with samples with tens of millions of observations. In order to help change this scenario, the present work evaluates the effectiveness of the Bolsa Familia Program, the main conditional cash transfer program in Brazil, by performing an impact analysis of the program’s contribution to young Brazilian workers’ access to the formal labor market, using governamental databases available at the TCU, using 13 million records extracted from some of these databases. This work provides a data integration workflow for governamental databases and a RDD estimation tool, capable of dealing with datasets with ten million observations or more and high variance, which takes advantage of modern computers’ multi thread capabilities. The results indicate that young people who remain in the PBF for a longer time have a lower level of formal market access than those who leave the program earlier. The developed RDD tool presented a 88% better execution time than the original software. The expectation is that this work will contribute to the improvement of the process of evaluating and auditing social welfare programs in Brazil.
|
122 |
Metodologia para geração de mapas de danos de fachadas a partir de fotografias obtidas por veículo aéreo não tripulado e processamento digital de imagens / Methodology for generating of maps of damages in façades from photos obtained from unmanned aerial vehicle and digital image processingMelo Júnior, Carlos Mariano 25 August 2016 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-11-17T19:27:29Z
No. of bitstreams: 1
2016_CarlosMarianoMeloJúnior.pdf: 30363032 bytes, checksum: 9b25c1b0554006e95c507c6cd6cbe40b (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-01-31T20:42:15Z (GMT) No. of bitstreams: 1
2016_CarlosMarianoMeloJúnior.pdf: 30363032 bytes, checksum: 9b25c1b0554006e95c507c6cd6cbe40b (MD5) / Made available in DSpace on 2017-01-31T20:42:15Z (GMT). No. of bitstreams: 1
2016_CarlosMarianoMeloJúnior.pdf: 30363032 bytes, checksum: 9b25c1b0554006e95c507c6cd6cbe40b (MD5) / O estudo sistêmico das manifestações patológicas em fachadas baseado em mapas de danos e, consequentemente, na suposição das causas e compreensão dos mecanismos favorece a elaboração de instrumentos preditivos ou corretivos. As técnicas de inspeção em edificações podem se basear, prioritariamente, em métodos experimentais e empíricos. A inspeção visual é um método empírico e também o primeiro passo para a avaliação contínua, para que decisões sejam tomadas quanto à necessidade de procedimentos de intervenções em edificações na fase de uso. A visão estereoscópica é uma das técnicas que compõe a ciência do processamento digital de imagens (PDI) e seus princípios são utilizados na fotogrametria digital, em particular na obtenção de modelos de superfícies (produtos fotogramétricos) por nuvem de pontos ou DSM (Dense Stereo Matching). Em outro segmento do PDI encontra-se a obtenção automática de padrões, que se baseia em várias etapas, como a segmentação e classificação. Este trabalho visou o desenvolvimento de metodologia para a aplicação de técnicas e métodos baseados em PDI para geração de mapas de danos de fachadas de edifícios por imagens (fotografias) capturadas por VANTs. Algumas imagens foram usadas para a obtenção de modelos de superfícies e, posteriormente, de ortoimagens, ou seja, projeções ortográficas das fachadas. As edificações usadas nos experimentos foram escolhidas em função do valor histórico e da presença de manifestações patológicas, modeladas pela técnica de DSM a fim de avaliar os procedimentos, os programas e os resultados. Alguns programas de fotogrametria digital foram usados, dando destaque ao PhotoScan para a obtenção das ortoimagens e, a partir do planejamento e cálculos da sobreposição e do número de fotos, foram obtidos resultados satisfatórios. Com a finalidade de gerar automaticamente mapas de danos em, principalmente, ortoimagens, dois programas foram utilizados: Tyche (2015) e Detecta Fissura (2016). O Tyche (2015), baseado em análise estatística visando a segmentação, foi utilizado para gerar mapas de danos de manchas escuras, eflorescência, destacamento de revestimento cerâmico e alteração cromática. O Detecta Fissura (2016) baseou-se em dois operadores principais: Sobel e Canny, objetivando exclusivamente a detecção de fissuras. Além dos bons resultados, constatou-se que a interação de profissionais na geração dos mapas de danos por PDI ainda se faz importante para se chegar nos resultados esperados. Os métodos empregados demonstraram também potencialidades para o monitoramento da evolução de danos em fachadas. / The systemic study of damages in facades through maps of damage and, consequently, on the assumption of causes and understanding of the mechanisms contributes the development of predictive or corrective instruments. The inspection techniques on buildings can be based, priority, on experimental and empirical methods. Visual inspection is an empirical method and also the first step for continuous evaluation, for decisions are taken on the need for intervention procedures in buildings in the period of use. Stereoscopic vision is one of the techniques of digital image processing (DIP) and its principles are used for digital photogrammetry, in particular in obtaining surface models (photogrammetric products) by cloud points or DSM (Dense Stereo Matching). In another DIP segment, is the automatic patterns recognition, which is based on several stages, as the segmentation and classification. This work aimed at the development of methodology for the application of techniques and methods based on DIP to generate maps of damages of building façades from images (photographs) taken from UAVs. Some images were used to obtain surface models and, after, orthoimages or orthographic projections of façades. Some of the buildings used in the experiments were also chosen due to the historical value and the presence of pathological manifestations, modeled by DSM technique to assess the procedures, programs and results. Some digital photogrammetry programs were used, highlighting the PhotoScan to obtain the orthoimages and from planning and calculations of the overlap and the number of photos, satisfactory results were obtained. In order to automatically generate maps of damages on, mainly, orthoimages, two programs were used: Tyche (2015) and Detecta Fissura (2016). The Tyche (2015), based on statistical analysis aimed the segmentation, was used to generate maps of damages of staining, efflorescence, detachment of ceramic tiling and color change. The Detecta Fissura (2016) was based on two main operators: Sobel and Canny, aiming the detection of cracks. Beyond the good results, it was found that the interaction of professional in generating of maps of damages from DIP also becomes important to get the expected results. The methods also demonstrated potential for monitoring the evolution of damages in façades.
|
123 |
Ordenação por translocação de genomas sem sinal utilizando algoritmos genéticosSilveira, Lucas Ângelo da 29 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-04-20T13:39:42Z
No. of bitstreams: 1
2016_LucasAngeloSilveira.pdf: 3262689 bytes, checksum: 37ca4daf6eff5634ec889a6a015bbd81 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-05-30T17:25:56Z (GMT) No. of bitstreams: 1
2016_LucasAngeloSilveira.pdf: 3262689 bytes, checksum: 37ca4daf6eff5634ec889a6a015bbd81 (MD5) / Made available in DSpace on 2016-05-30T17:25:56Z (GMT). No. of bitstreams: 1
2016_LucasAngeloSilveira.pdf: 3262689 bytes, checksum: 37ca4daf6eff5634ec889a6a015bbd81 (MD5) / Translocações são usadas para mensurar a distância evolutiva entre espécies. Do ponto de vista biológico dois tipos de genomas tem recebido atenção: genomas com e sem sinal. Ao considerar genomas com sinal, computar a distância mínima de translocações é linear enquanto que o caso sem sinal é NP-difícil. Propõem-se algoritmos genéticos (AGs) para resolver o problema de distância de translocação entre genomas sem sinal. A abordagem, consiste em utilizar uma população composta por indivíduos representando genomas com sinal obtidos de um genoma sem sinal provido como entrada. A solução de cada indivíduo é também uma solução admissível para o genoma dado. A função de aptidão utilizada, que é a distância para genomas com sinal, é computada linearmente com um algoritmo proposto por Bergeron et al. O AG baseado nessa abordagem foi aprimorado com duas técnicas de otimização: memética e aprendizagem baseada em oposição. Além disso, foram propostas paralelizações do AG memético buscando diminuir o tempo de processamento assim como melhorar a precisão. A qualidade dos resultados foi validada utilizando uma implementação de um algoritmo de raio de aproximação 1.5+" recentemente proposto por Cui et al. Experimentos foram realizados tomando como entrada genomas sintéticos e gerados a partir de dados biológicos. Os AGs forneceram melhores resultados que o algoritmo de controle de qualidade. As paralelizações apresentaram melhoras tanto no tempo de execução quanto na precisão dos resultados. Utilizou-se o teste de hipóteses de Wilcoxon a fim de verificar a significância estatística das melhorias fornecidas pelos AGs aprimorados em relação àquelas fornecidas pelo AG básico. Desta análise foi possível identificar que o AG memético provê resultados diferentes (melhores) que o AG básico, e que este último e o AG com aprendizagem baseada em oposição não apresentam nenhuma diferença significativa. O teste foi também aplicado para comparar as soluções das paralelizações confirmando que existem aprimoramentos dos resultados comparados com o AG memético. _______________________________________________________________________________________________ ABSTRACT / Translocations are used to measure the evolutionary distance between species. From a biological point of view two types of genomes have received attention: signed and unsigned genomes. When considering signed genomes, the problem can be solved in linear time, while, in the case of unsigned genomes the problem was shown to be NP-hard. Genetic algorithms (GAs) are proposed to solve the translocation distance problem between unsigned genomes. The approach consists in using a population composed of individuals representing signed genomes obtained from a given unsigned genome provided as input. The solution of each individual is also an admissible solution to the given genome. The fitness function used, which is the distance for signed genome, is computed linearly with an algorithm proposed by Bergeron et al. The GA based on this approach has been enhanced with two optimization techniques: memetic and opposition based learning. Also, parallelizations of the GA embedded with memetic were proposed seeking to improve both running time as the accuracy of results. The quality of the results was verified using an implementation of a 1.5+"-approximation algorithm recently proposed by Cui et al. Experiments were performed taking as input synthetic genomes and genomes generated from biological data. The GAs provided better results than the quality control algorithm. The parallelizations showed improvements both regarding runtime as well as accuracy. A statistical analysis based on the Wilcoxon test was performed to check if the improvements in the solutions provided by enhanced GAs compared to those provided by the basic GA have some significance. This analysis can identify that the GA embedded with the technical memetic provides different (better) results than GA and that the results provided by the GA embedded with opposition based learning presents no significant difference. The test was also performed to compare the solutions of the parallelizations confirming that there are improvements of the results regarding the GA embedded memetic.
|
124 |
Scan for MARC : princípios sintáticos e semânticos de registros bibliográficos aplicados à conversão de dados analógicos para o formato MARC 21 bibliográfico /Zafalon, Zaira Regina. January 2012 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Banca: Dulce Maria Baptista / Banca: Edberto Ferneda / Banca: Elisa Campos Machado / Banca: Ricardo César Gonçalves Sant'Ana / Resumo:A pesquisa apresenta como tema nuclear o estudo do processo de conversão de registros bibliográficos. Delimita-se o objeto de estudo pelo entendimento da conversão de registros bibliográficos analógicos para o formato MARC21 Bibliográfico, a partir da análise sintática e semântica de registros descritos segundo padrões de estrutura de metadados descritivos e padrões de conteúdo. A tese nesta pesquisa é a de que os princípios sintáticos e semânticos de registros bibliográficos, definidos pelos esquemas de descrição e de visualização na catalogação, presentes nos padrões de estrutura de metadados descritivos e nos padrões de conteúdo, determinam o processo de conversão de registros bibliográficos para o Formato MARC21 Bibliográfico. Em vista desse panorama, a proposição desta pesquisa é desenvolver um estudo teórico sobre a sintaxe e a semântica de registros bibliográficos, pelo viés da Linguística, com Saussure e Hjelmslev, que subsidiem a conversão de registros bibliográficos analógicos para o Formato MARC21 Bibliográfico em um interpretador computacional. Com esta proposta, estabelece-se, como objetivo geral, desenvolver um modelo teórico-conceitual de sintaxe e semântica em registros bibliográficos, a partir de estudos lingüísticos saussureanos e hjelmslevianos das manifestações da linguagem humana, que seja aplicável a um interpretador computacional voltado à conversão de registros bibliográficos ao formato MARC21 Bibliográfico. Para o alcance de tal objetivo recorre-se aos seguintes objetivos específicos, reunidos em dois grupos e voltados, respectivamente ao modelo teórico-conceitual da estrutura sintática e semântica de registros bibliográficos, e ao processo de conversão de seus registros: explicitar a relação entre a sintaxe e a semântica... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The research presents as its central theme the study of the bibliographic record conversion process. The object of study is framed by an understanding of analogic bibliographic record conversion to the Bibliograhpic MARC21 format, based on a syntactic and semantic analysis of records described according to descriptive metadata structure standards and content standards. The thesis in this research is that the syntactic and semantic principles of bibliographic records, defined by description and visualization cataloguing schemes, present in the descriptive metadata structure standards and content standards, determine the bibliographic record conversion process to the MARC21 Bibliographic Format. In the light of this, the purpose of this research is to develop a theoretical study of the syntax and semantics of bibliographic records, grounded in Linguistic theories of Saussure and Hjelmslev, which can underlie analogic bibliographic record conversion to the MARC21 Bibliographic Format using a computational interpreter. To this end, the general aim was to develop a theoretical-conceptual model of the syntax and semantics of bibliographic records, based on saussurean and hjelmslevian linguistic studies of human language manifestations, which can be applicable to a computational interpreter designed for the conversion of bibliographic records to the MARC21 Bibliographic Format. To attain this goal, the following specific objectives were identified, in two groups and related to the theoretical-conceptual model of bibliographic record syntax and semantics and to the conversion process of the records, respectively: to make explicit the relationship between the syntax and semantics of bibliographic records... (Complete abstract click electronic access below) / Doutor
|
125 |
Arco consistência generalizada em codificações SAT relativasOliveira, Ricardo Tavares de January 2017 (has links)
Orientador : Prof. Dr. Fabiano Silva / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 21/02/2017 / Inclui referências : f. 67-71 / Área de concentração : Ciência da computação / Resumo: Várias codificações de problemas relevantes para SAT ou suas variações são conhecidas e estudadas pela comunidade. Uma possível maneira de mensurar a eficiência destas codificações consiste em avaliar a manutenção da Arco Consistência Generalizada (ACG) da fórmula resultante pelo resolvedor SAT. Ao melhor de nosso conhecimento, não há estudos sobre a manutenção de tal consistência para codificações relativas, que descrevem relações binárias sobre um dado conjunto de elementos do problema. Neste trabalho, é apresentado um estudo sobre a Arco Consistência Generalizada em codificações SAT relativas. É mostrado que, dependendo das propriedades da relação codificada, as fórmulas obtidas por estas codificações são mantidas ACG pelo procedimento da Propagação Unitária. Conjectura-se também que estas codificações não podem ser polinomialmente restritas para mantê-las ACG. Neste trabalho, é também apresentado um método para manter uma consistência parcial nas fórmulas obtidas pelas codificações relativas. O método é baseado na manutenção da árvore de dominantes do grafo induzido pela relação codificada, durante o processo de busca do resolvedor SAT. Resultados experimentais indicam que o método pode reduzir o número de decisões realizadas pelo resolvedor e, logo, o espaço de busca explorado. Outras contribuições deste trabalho incluem codificações relativas para conectividade em grafos e para o problema da Árvore de Steiner, um framework genérico para unificar as codificações relativas conhecidas, um algoritmo polinomial para SAT para fórmulas mantidas ACG, e a implementação de algoritmos que mantêm árvores de dominantes para grafos dinâmicos dentro do código-fonte de um resolvedor SAT no estado-da-arte. / Abstract: Many encodings from relevant problems to SAT or its variants are known and studied by the community. One possible way to measure the efficiency of these encodings consists on evaluating the maintenance of the Generalized Arc Consistency (GAC) of the resulting formula by the SAT solver. To the best of our knowledge, there is no study about such consistency for relative encodings, that describe binary relations over a given set of elements from the problem. In this work, it is presented a study about the Generalized Arc Consistency for relative SAT encodings. It is shown that, depending on the properties of the encoded relation, the formulae obtained by such encodings are maintened GAC by the Unit Propagation procedure. It is also conjectured that these encodings cannot be polynomially restricted in order to maintain them GAC. In this work, it is also presented a method to maintain a partial consistency on the formulae obtained by relative encoding. The method is based on the maintenance of the dominator tree of the underlying graph, during the search procedure of the SAT solver. Experimental evaluations indicate that the method may reduce the number of decisions made by the solver, and, thus, the search space it explores. Other contributions of this work include relative encodings for graph connectivity and for the Steiner Tree problem, a generic framework unifying known relative encodings, a polynomial-time algorithm for SAT for formulae maintened GAC, and the implementation of algorithms that maintain dominator trees for dynamic graphs inside the source code of a state-of-the-art SAT solver.
|
126 |
Integraçao de imagens de alta resoluçao, ikonos e fotografia aérea por meio da monorrestituiçao digital para a atualizaçao cartográfica de mapas municipais na escala 1:25 000Saraiva, Cláudia Constantina Saltarelli January 2003 (has links)
Orientadores: Edson Aparecido Mitishita e Jorge Silva Centeno / Tese (doutorado) - Universidade Federal do Paraná / Inclui bibliografia / Resumo: Desenvolveu-se nesta pesquisa uma metodologia para a atualização cartográfica de mapas municipais, construídos na forma digital, na escala de 1:25000, integrando imagens de satélite de alta resolução, fotografias aéreas na escala de 1:30000 e a técnica de monorrestituicao digital. Para sua realização foram utilizados como materiais: um microcomputador, um programa de CAD - Microstation - um gerenciador de imagem - Descartes - um programa de geração de DTM - Surfer - e um programa de retificação de informações vetoriais - Sistema de Monorrestituicao Digital, uma aerofoto na escala de 1:30000, uma imagem IKONOS e dois mapas digitais da área de estudo que serviram como fontes de dados planialtimetricos. A metodologia de atualização cartográfica foi dividida nas etapas de avaliação das fontes de informações cartográficas disponíveis, obtenção do apoio, detecção das feições cartográficas e restituição da aerofoto, detecção das feições cartográficas e restituição da imagem IKONOS, eliminação das feições de referencia, monorrestituição das feições cartográficas atualizadas (aerofoto e imagem), integração das novas feições ao mapa, reambulacao e edição final dos elementos. A avaliação revelou que, a parte planimetrica do mapa na escala de 1:25000, não possuía qualidade suficiente para servir fonte de informação de coordenadas planimetricas de pontos de apoio. No entanto, as informações altimetricas do mesmo, na escala de 1:25000, foram classificadas como padrão A e, portanto, serviram como fonte de dados altimetricos. As informações planimetricas do mapa 1:25000 foram utilizadas como referencia das feições cartográficas existentes na época (1977) e as coordenadas dos pontos de apoio foram adquiridas na carta na escala de 1:2000. Para o desenvolvimento desta metodologia foram empregados e testados vários modelos matemáticos (transformação projetiva, afim, afim paralela e linear direta) buscando corrigir as deformações geométricas da imagem de maneira a se obter uma atualização que mantivesse a qualidade do mapa original - Classe A. Analisou-se o comportamento dos resíduos nos pontos de apoio empregados no ajustamento por mínimos quadrados e método paramétrico com injunção de posição, com os modelos empregados. Analisou-se também, o comportamento das discrepâncias das feições cartográficas e dos pontos de verificação aleatórios retirados dos mapas de atualização retificados com os modelos de transformação afim paralela (APM) e transformação linear direta (DLT), ajustados por mínimos quadrados e método paramétrico com injunção de posição com 9 e 18 pontos de apoio, e fontes de informação altimetrica proveniente fontes já existentes mapa na escala 1:25000 - amostragem secundaria com curvas de nível de 10m e proveniente de restituição fotogramétrica na escala 1:2000 - amostragem primaria- com curvas de nível de lm. O modelo matemático que apresentou o melhor resultado foi o da transformação afim paralela e portanto foi o modelo empregado na metodologia de atualização. / Abstract: This research developed a methodology for the municipal maps updating, built in the digital form, in the scale of 1:25000, integrating high resolution satellite images, aerial photos in the scale of 1:30000 and the technique of digital monoplotting. It has been used for the accomplishment of this methodology: a microcomputer, a program of CAD - Microstation - an image manager - Descartes - a program of generation of DTM - Surfer - and a program of rectification of vectorial information - System of Digital Monorrestituicao, an airphoto in the scale of 1:30000, an image IKONOS and two digital maps of the study area that were the source to the planimetric and altimetric data. The methodology of map updating was divided in the stages of evaluation of the sources of available cartographic information, obtaining of the support, detection of the cartographic features and restitution of the airphotos, detection of the cartographic features and restitution of the image IKONOS, elimination of the reference features, monoplotting of the up-to-date cartographic features (aereal photos and image), integration of the new features to the map, surveys ground and the end edition of the elements. The evaluation revealed that, the planimetric information of the map in the scale of 1:25000, didn't have enough quality to serve as data source to the information of coordinates planimetric of ground controls points. However, die altimetric data, in the scale of 1:25000, was classified as pattern A and, therefore, they could be used as source to the altimetric data. The planimetric information of the 1:25000 map used the existent cartographic features (1977) and the coordinates of the support points were acquired from the map in the scale of 1:2000. For the development of this methodology several mathematical models were used and tested, trying to correct the geometric deformations of the image, in order to obtain a map updating that maintained the quality of the original map - Class A. The models in use analysed the behavior of the residual on the grounds control points employed on the least squares adjustment and parametric method with injunction of position. It was also analyzed, the behavior of the discrepancies of the cartographic features and of the removed controls points checks of the maps updating rectified with the mathematical models: models projection affine - APM - and Transformation Linear Direct DLT- least square adjustment and parametric method with position injunction, with 9 and 18 grounds controls points, and sources of information from altimetric sources that already existed on the scale 1:25000 - secondary sampling - with contour line of 10m and of the airphotogrammetric restitution on the scale of 1:2000 - primary sampling - with contour line of lm. The mathematical model that presented the best result was the models projection affine and consequently it was used in die map updating methodology.
|
127 |
Contribuições da informática para desenvolvimento da pesquisa em Educação : digitalização de acervos documentais /Maziero, Breno Vicente. January 2012 (has links)
Orientador: Cláudio B. Gomide de Souza / Banca: Ricardo Ribeiro / Banca: Sebastião de Souza Lemes / Banca: Domingos Alves / Banca: Cleiton de Oliveira / Resumo: Este trabalho, em abordagem interdisciplinar, procura discutir contribuições de diferentes áreas do conhecimento para o avanço da pesquisa em educação, principalmente no que se refere à fundamentação e ao desenvolvimento de aplicativos que permitam a digitalização de acervos documentais e o desenvolvimento de bases de dados que permitam a preservação, organização e disponibilização de informações confiáveis e relevantes como contribuição para o desenvolvimento de projetos de pesquisa e avaliação em política e gestão educacional. Inicialmente, é feita uma análise da legislação vigente e de principais referências para caracterização do sistema educacional de acordo com os novos paradigmas de gestão, com ênfase na gestão democrática. A seguir são consideradas as possibilidades oferecidas pela Informática para apoio à pesquisa. No estudo de campo é abordado o desenvolvimento da base dos atos editados pelo Conselho Estadual de Educação. Com utilização da base, como demonstração, é feita uma análise dos atos editados pelo Conselheiro José Mario Pires Azanha. Nas considerações finais é feita uma análise das possibilidades e das contribuições da Informática para a pesquisa em política e gestão educacional / Abstract: This work, using interdisciplinary approach, discusses the contributions of different areas of knowledge for the advancement of research in education, particularly with regard to the development of applications that allow scanning of document collections and the development of databases for preservation, organization and provision of reliable and relevant information as a contribution to the development of research and evaluation projects in education policy and management. Initially, an analysis is made of existing legislation and the main references for the characterization of the education system according to the new paradigms of management, with emphasis on democratic management. Following are considered the possibilities offered by IT for research support. The field study focuses the development of the base of the acts enacted by the State Board of Education. With use of the base, as a demonstration, an analysis is made of the acts edited by Councilor Jose Mario Pires Azanha. The final considerations presents analysis of the possibilities and contributions of IT to policy research and educational management / Doutor
|
128 |
Micromundo hipertextual & educação matemática /Silva, José Eduardo Ferreira da. January 2015 (has links)
Acompanha 1 CD-ROM com conteúdo: Micromundo hipertextual Números Primos e Livro de areia Sexto Ano do ensino fundamental / Orientador: Maria Lúcia Lorenzetti Wodewotzki / Banca: Abigail Fregni Lins / Banca: Henrique Lazari / Banca: Orlando de Andrade Figueiredo / Banca: Roberto Ribeiro Baldino / Resumo: Este trabalho, cujo foco de interesse está no domínio dos desafios suscitados pela inserção do computador no cotidiano da prática letiva de matemática tem por objetivo apresentar o processo de desenvolvimento e implementação de uma escritura eletrônica multirepresentacional denominada 'micromundo hipertextual' para, em seguida, descrever e analisar os dados recolhidos com a disponibilização desse recurso computacional na internet e, por fim, apresentar o projeto 'livro de areia' como uma proposta alternativa à cultura da sala de informática, ou seja, a tendência de acomodação dos computadores em um ambiente externo à sala de aula, geralmente deficiente quanto ao número de máquinas disponíveis que apenas reforça a perspectiva educativa que toma o computador como um fim em si mesmo e, por isso, faz do meio a sua mensagem. Em síntese, trata-se de uma pesquisa multidimensional pautada no pensamento de Álvaro Vieira Pinto (1909-1987), que procura enquadrar o fato, relativamente, novo do uso do computador no dia a dia da sala de aula de matemática na estrutura de um processo de pensamento e de atividade prática do trabalho, que supera seu conteúdo em cada fase do tempo, explica-o e procura extrair dele conclusões e projeções razoáveis / Abstract: This work, whose focus of interest is in the field of challenges posed by inserting the computer in the math teaching practice everyday, aims to present the development and implementation of a multirepresentacional electronic writing called 'micromundo hipertextual' to then, describe and analyze the data collected for the provision of this computational resource on the internet and, finally, present the project 'livro de areia' as an alternative proposal to the culture of the computer room, in other words, the trend to accommodate computers in an environment outside the classroom, usually deficient in the number of available machines that only reinforces the educational perspective that takes the computer as an end in itself and, therefore, makes the media its message. In short, it is a multidimensional research based on the thinking of Álvaro Vieira Pinto (1909-1987), which seeks to frame the relatively new fact of computer use during the daily math classroom in the structure of a process of thought and practical activity of work that exceeds its content at each stage of time, explains it and allows it to extract conclusions and reasonable projections / Doutor
|
129 |
Polyset : modelo linguístico-computacional para a estruturação de redes de polissemia de nominais /Alves, Isa Mara da Rosa. January 2009 (has links)
Resumo: Esta pesquisa visa a propor uma representação da polissemia de nominais compatível com sistemas computacionais; mais especificamente, o objetivo deste trabalho é incluir a especificação de relações de polissemia em bases wordnets, em especial, na WordNet.Br (DIAS-DA-SILVA, 1996, 1998, 2003). A metodologia do trabalho está baseada em Diasda- Silva (1996, 1998, 2003, 2006), abrangendo três domínios mutuamente complementares: o linguístico, o linguístico-computacional e o computacional. O domínio linguístico-computacional forneceu o tema para esta pesquisa e articulou a relação entre os domínios linguístico e computacional. Das investigações realizadas no cenário linguístico-computacional, destacamos a relevância da introdução de níveis distintos de generalidade entre os sentidos em uma base de dados de modo a otimizar o processamento lexical a ser realizada pelo sistema. Percebe-se que esse tipo de tarefa é ainda um desafio para as wordnets. Do cenário linguístico, destacamos que a Semântica Lexical Cognitiva foi considerada a teoria mais adequada aos propósitos desta tese. Olhar para o fenômeno do significado múltiplo sob o viés cognitivo possibilitou descrever os sentidos como uma entidade complexa, estruturada em termos de redes. As redes de polissemia sincrônicas, em sua configuração livre e multidimensional, conforme propõem Blank (2003) e Geeraerts (2006), demonstraram ser a estratégia descritiva mais adequada à representação da flexibilidade do sentido para os propósitos desta tese. Respondendo à fase aplicada dos domínios linguístico e linguísticocomputacional, propomos um modelo de representação denominado polyset. Os polysets são constructos estruturados em termos de redes de polissemia, de maneira que possibilitam representar diferentes níveis de generalidade entre os sentidos, diferentes graus de saliência e diferentes tipos... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This research aims at representing noun polysemy so that it can be useful to computational systems; more specifically, the subject of this work is the inclusion of specification of polysemy relations in wordnet bases, particularly in WordNet.Br (DIASDA- SILVA, 1996, 1998, 2003). The methodology has been based on Dias-da-Silva (1996, 1998, 2003, 2006), comprehending three mutually complementary domains: linguistic, computational-linguistic, and computational ones. The computational-linguistic domain has both provided the subject for this research and articulated the relationship between the linguistic domain and the computational domain. From the investigations carried out in the computational-linguistic scene, we have highlighted the relevance of the introduction of distinct levels of generality among meanings in a database, so as to reduce the amount of lexical processing to be carried out by the system. At the same time, that multiple representation provides the necessary information for a system that needs a higher degree of meaning detailing. This kind of task is still a challenge to wordnets. From the linguistic scene, we have highlighted that Cognitive Lexical Semantics has shown to be the most suitable theory for the purposes of this thesis. Regarding the phenomenon of the multiple meaning from the cognitive perspective has allowed for describing meanings as a complex entity, structured in terms of nets. The nets of synchronic polysemy, in their free, multidimensional configuration, as Blank (2003) and Geeraerts (2006) have proposed, have shown to be the most suitable descriptive strategy for the representation of the meaning flexibility for the purposes of this thesis. Answering to the applied phase of both the linguistic and computationallinguistic domains we have proposed a representation model called polyset. Polysets are constructs structured in terms of polysemy nets, allowing... (Complete abstract click electronic access below) / Orientador: Bento Carlos Dias da Silva / Coorientador: Rove Luiza de Oliveira Chishman / Banca: Beatriz Nunes de Oliveira Longo / Banca: Gladis Maria de Barcellos Almeida / Banca: Thiago A. S. Prado / Banca: Heronides M. M. Moura / Doutor
|
130 |
Viabilidade da implementação de computadores na primeira etapa da educação básica em uma rede pública municipal do interior de São Paulo /Sentanin, Elisângela Ferreira. January 2012 (has links)
Orientador: Cláudio Benedito Gomide de Souza / Banca: José Luis Bizelli / Banca: Márcia Regina Onofre / Resumo: O presente trabalho fundamenta-se na investigação de uma política educacional em uma rede municipal do interior de São Paulo, que busca implementar computadores na educação infantil. O uso do computador pode trazer muitos benefícios ao processo de ensino na busca da qualidade da aprendizagem, mas ao mesmo tempo é questionável a sua aplicação para crianças pequenas. Sendo assim, objetiva-se responder à seguinte questão: Qual a viabilidade dessa política de implementação para a educação infantil? Para o desenvolvimento do estudo utilizou-se uma abordagem metodológica baseada em uma pesquisa bibliográfica e na pesquisa qualitativa. Como parte da abordagem qualitativa optou-se pelo método do estudo de campo, que foi realizado em um dos centros municipais de educação infantil, com crianças matriculadas na fase 5 e 6. Para a coleta de dados foi utilizada a técnica de entrevista com grupos focais e as entrevistas abertas com os professores dessa unidade. Os resultados mostram que os benefícios são muitos desde que o uso do computador esteja vinculado a uma proposta pedagógica bem planejada. Esse processo envolve toda a gestão da escola que deve pensar o espaço físico, apoio técnico na área de informática, escolha adequada de softwares associada à proposta curricular da escola e formação continuada de professores nessa área / Abstract: This work is based on an investigation of educational policy in a municipal of São Paulo, which seeks to implement computers in early childhood education. Computer use can bring many benefits to teaching in the pursuit of quality of learning, but at the same time their application is questionable for small children. Therefore, the objective is to answer the following question: What is the feasibility of implementing such a policy for early childhood education. We used an approach based on a literature review and qualitative research. As part of a qualitative approach was chosen by the method of field study, which was held in a municipal center of early childhood education, with children 5 and 6 years. For data collection technique was used interviews with focus groups and interviews with teachers of this unit. The results show that the benefits are many since computer use is linked to a well-planned educational proposal. And this is a process that involves the whole school management should consider the physical space, technical support in information technology, appropriate choice of software associated with the school curriculum and continuing education of teachers in this area / Mestre
|
Page generated in 0.2361 seconds