• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12733
  • 124
  • 4
  • Tagged with
  • 12860
  • 12860
  • 12860
  • 8802
  • 3072
  • 2811
  • 2810
  • 2733
  • 1763
  • 1568
  • 1436
  • 1145
  • 1138
  • 1092
  • 822
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
821

Uma arquitetura para processamento de grande volumes de dados integrando sistemas de workflow científicos e o paradigma mapreduce

Zorrilla Coz, Rocío Milagros 13 September 2012 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-08-10T17:48:51Z No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-08-10T17:49:05Z (GMT) No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Made available in DSpace on 2017-08-10T17:49:17Z (GMT). No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) Previous issue date: 2012-09-13 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / With the exponential growth of computational power and generated data from scientific experiments and simulations, it is possible to find today simulations that generate terabytes of data and scientific experiments that gather petabytes of data. The type of processing required for this data is currently known as data-intensive computing. The MapReduce paradigm, which is included in the Hadoop framework, is an alternative parallelization technique for the execution of distributed applications that is being increasingly used. This framework is responsible for scheduling the execution of jobs in clusters, provides fault tolerance and manages all necessary communication between machines. For many types of complex applications, the Scientific Workflow Systems offer advanced functionalities that can be leveraged for the development, execution and evaluation of scientific experiments under different computational environments. In the Query Evaluation Framework (QEF), workflow activities are represented as algebrical operators, and specific application data types are encapsulated in a common tuple structure. QEF aims for the automatization of computational processes and data management, supporting scientists so that they can concentrate on the scientific problem. Nowadays, there are several Scientific Workflow Systems that provide components and task parallelization strategies on a distributed environment. However, scientific experiments tend to generate large sizes of information, which may limit the execution scalability in relation to data locality. For instance, there could be delays in data transfer for process execution or a fault at result consolidation. In this work, I present a proposal for the integration of QEF with Hadoop. The main objective is to manage the execution of a workflow with an orientation towards data locality. In this proposal, Hadoop is responsible for the scheduling of tasks in a distributed environment, while the workflow activities and data sources are managed by QEF. The proposed environment is evaluated using a scientific workflow from the astronomy field as a case study. Then, I describe in detail the deployment of the application in a virtualized environment. Finally, experiments that evaluate the impact of the proposed environment on the perceived performance of the application are presented, and future work discussed. / Com o crescimento exponencial do poder computacional e das fontes de geração de dados em experimentos e simulações científicas, é possível encontrar simulações que usualmente geram terabytes de dados e experimentos científicos que coletam petabytes de dados. O processamento requerido nesses casos é atualmente conhecido como computação de dados intensivos. Uma alternativa para a execução de aplicações distribuídas que atualmente é bastante usada é a técnica de paralelismo baseada no paradigma MapReduce, a qual é incluída no framework Hadoop. Esse framework se encarrega do escalonamento da execução em um conjunto de computadores (cluster), do tratamento de falhas, e do gerenciamento da comunicação necessária entre máquinas. Para diversos tipos de aplicações complexas, os Sistemas de Gerência de Workflows Científicos (SGWf) oferecem funcionalidades avançadas que auxiliam no desenvolvimento, execução e avaliação de experimentos científicos sobre diversos tipos de ambientes computacionais. No Query Evaluation Framework (QEF), as atividades de um workflow são representadas como operadores algébricos e os tipos de dados específicos da aplicação são encapsulados em uma tupla com estrutura comum. O QEF aponta para a automatização de processos computacionais e gerenciamento de dados, ajudando os cientistas a se concentrarem no problema científico. Atualmente, existem vários sistemas de gerência de workflows científicos que fornecem componentes e estratégias de paralelização de tarefas em um ambiente distribuído. No entanto, os experimentos científicos apresentam uma tendência a gerar quantidades de informação que podem representar uma limitação na escalabilidade de execução em relação à localidade dos dados. Por exemplo, é possível que exista um atraso na transferência de dados no processo de execução de determinada tarefa ou uma falha no momento de consolidar os resultados. Neste trabalho, é apresentada uma proposta de integração do QEF com o Hadoop. O objetivo dessa proposta é realizar a execução de um workflow científico orientada a localidade dos dados. Na proposta apresentada, o Hadoop é responsável pelo escalonamento de tarefas em um ambiente distribuído, enquanto que o gerenciamento das atividades e fontes de dados do workflow é realizada pelo QEF. O ambiente proposto é avaliado utilizando um workflow científico da astronomia como estudo de caso. Logo, a disponibilização da aplicação no ambiente virtualizado é descrita em detalhe. Por fim, são realizados experimentos para avaliar o impacto do ambiente proposto no desempenho percebido da aplicação, e discutidos trabalhos futuros.
822

Modelo de caminhadas quânticas escalonado

Fernandes, Tharso Dominisini 13 September 2017 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-12-12T11:56:42Z No. of bitstreams: 1 Tese_Tharso_lncc.pdf: 1174962 bytes, checksum: 554d28620541c6c6dce94f8b4acfdf3c (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-12-12T11:57:36Z (GMT) No. of bitstreams: 1 Tese_Tharso_lncc.pdf: 1174962 bytes, checksum: 554d28620541c6c6dce94f8b4acfdf3c (MD5) / Made available in DSpace on 2017-12-12T11:57:45Z (GMT). No. of bitstreams: 1 Tese_Tharso_lncc.pdf: 1174962 bytes, checksum: 554d28620541c6c6dce94f8b4acfdf3c (MD5) Previous issue date: 2017-09-13 / Quantum walks play an important role in the development of quantum algorithms, they can be used to solve efficiently problems such as: elements distinct, boolean formulas evaluation, matrix product verification and group commutativity, and especially, spatial search problems. Falk exemplified a quantum walk model for two-dimensional lattice, that does not require an additional space to the coin, and the evolution operator can be obtained via a tessellation process. However, it was not explicit the definition of the model for generic graphs and nor proven its efficiency. The idea presented by Falk inspired the creation of Staggered Quantum Walk model (SQW). Therefore, the goal of this work is: (1) define the stepped model for generic graphs, (2) demonstrate that an important quantum walk already known and explored in the literature, the Szegedy model, is a particular case of the SQW, (3) show the efficiency of SQW in the search problem in the two-dimensional lattice. / Os passeios quânticos desempenham um papel importante no desenvolvimento de novos algoritmos quânticos, e podem ser usados para resolver eficientemente problemas como: distinção de elementos, avaliação de fórmulas booleanas, verificação de produto de matrizes e comutatividade de grupos e, em especial, problemas de busca espacial em grafos. Falk exemplificou um modelo de passeios quânticos para malha bidimensional, que não necessita de um espaço adicional para representar a moeda, no qual o operador de evolução pode ser obtido via um processo de tesselação. Porém, não foi explicitada a definição do modelo para grafos genéricos e nem comprovada a sua eficiência. A ideia apresentada por Falk inspirou a criação do Passeio Quântico Escalonado (SQW). Sendo assim, as contribuições deste trabalho são (1) definir o modelo escalonado para grafos genéricos, (2) demonstrar que um importante passeio quântico já conhecido e explorado na literatura, o modelo de Szegedy, é um caso particular do modelo escalonado e (3) mostrar a eficiência do passeio quântico escalonado no problema de busca na malha bidimensional.
823

ESTUDO CONFORMACIONAL DE CLOROACETAMIDAS EMPREGANDO CÁLCULOS TEÓRICOS E AS ESPECTROSCOPIAS DE RESSONÂNCIA MAGNÉTICA NUCLEAR E INFRAVERMELHO

Santos, Marcela Fonseca 29 July 2014 (has links)
Made available in DSpace on 2017-07-20T12:40:22Z (GMT). No. of bitstreams: 1 MARCELA FONSECA SANTOS.pdf: 9541691 bytes, checksum: cda612cefc649c654daa2df68947cff4 (MD5) Previous issue date: 2014-07-29 / The study of chloroacetamides has gained economic and technological importance;several researchers have been seeking to improve agricultural practices with the use of herbicides. Thus, the inclusion of computational chemistry to the development of products for the agribusiness might promote great qualitative and quantitative advances in the scientific research. Therefore, interest was raised in studying the conformational analysis of certain chloroacetamides, both in isolated phase and in solution. The objective was to carry out conformational analysis of the chloroacetamides: allidochlor, dichlormid, CDEA, DCCMA, CDCA, pethoxamid, propachlor, acetochlor and dimethenamid, using theoretical calculations and the NMR and IR spectroscopy. The SEP3D theoretical calculations were developed using HF/6-311G. The most stable geometries were stabilized at the level of the theory B3LYP/cc-pVDZ with the program GAUSSIAN 03. PCM calculations were carried out to evaluate the most stable conformations on the polarity of the medium. NBO calculations provided information about the interactions. Infrared and coupled 13C Nuclear Magnetic Resonance spectra were obtained with different solvents. The results revealed agreement when compared to the structures obtained through the theoretical calculation, according to the PCM solvation model. The infrared spectra revealed that the econvoluted carbonyl band related to the conformer with the highest dipole moment value was better favored when the medium polarity increased. Through the 1JCH coupling constants obtained from the 13C coupled NMR spectra, changes occurred in the conformational populations according to the solvent variation. With the aid of MPEs, it was possible to demonstrate, in the more stable conformers, which regions presented higher and lower electronic density, possible action sites. / Estudos de cloroacetamidas vêm ganhando importância econômica e tecnológica, vários pesquisadores têm buscado aperfeiçoar os sistemas de cultivo com aplicação de herbicidas, deste modo, a inserção da química computacional no desenvolvimento tecnológico de produtos voltados ao agronegócio poderá proporcionar um grande avanço qualitativo e quantitativo na pesquisa científica, com isso, surgiu o interesse no estudo conformacional de algumas cloroacetamidas em fase isolada e em solução e também avaliar os fatores que possam estar envolvidos na maior estabilidade dos mesmos. O objetivo foi realizar a análise conformacional das cloroacetamidas alidocloro, diclormid, CDEA, DCCMA, CDCA, petoxamida, propacloro, acetocloro e dimetenamida, utilizando cálculos teóricos e as espectroscopias de RMN e IV. Os cálculos teóricos da SEP3D foram realizados utilizando HF/6-311G. As geometrias mais estáveis foram otimizadas em nível de teoria B3LYP/cc-pVDZ, com o programa GAUSSIAN 03. Foram realizados cálculos PCM para avaliar as conformações mais estáveis sobre a polaridade do meio. Foram realizados cálculos de NBO, que forneceram informações a respeito das interações. Os espectros no infravermelho e de ressonância magnética nuclear de 13C acoplado foram obtidos em diferentes solventes. Os resultados experimentais mostraram concordância quando comparados às estruturas obtidas por cálculos teóricos, segundo o modelo de solvatação PCM. Para os espectros no infravermelho foi possível verificar que a banda da carbonila deconvoluída referente ao confôrmero com maior valor de momento de dipolo apresentou maior favorecimento à medida que se elevava a polaridade do meio. Através das constantes de acoplamento 1JCH, obtidas dos espectros de RMN de 13C acoplado, ocorreram mudanças nas populações conformacionais com a variação do solvente. Com auxílio dos MPEs, foi possível demonstrar nos confôrmeros mais estáveis quais as regiões de maior e menor densidade eletrônica, possíveis sítios de ação.
824

DESENVOLVIMENTO DE UM BIORREATOR DE IMERSÃO TEMPORÁRIA COM SISTEMA DE SOFTWARE E HARDWARE PARA MANIPULAÇÃO E GERENCIAMENTO DOS DADOS

Zanlorensi Junior, Luiz Antonio 22 February 2016 (has links)
Made available in DSpace on 2017-07-21T14:19:27Z (GMT). No. of bitstreams: 1 Luiz Antonio Zanlorensi Junior.pdf: 2319566 bytes, checksum: 155395ad70f3e7f006f2804616464c42 (MD5) Previous issue date: 2016-02-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The culture of plant tissues is one of the most successful areas of biotechnology, having highlight in industrial and commercial plants for various applications, such as genetic improvement and also for plant physiology research and in vitro industrial production of secondary compounds. The micropropagation is a tissue culture technique, considered the greatest impact on agriculture due to the fact contribute to the development of healthy plants and higher quality. One of the main problems of conventional micropropagation process is spent on labor. One solution to this problem is the use of bioreactors for the production of plants in vitro, being the latest technology and the most promising alternative in this area. In this context, this study aimed to develop an integrated temporary immersion bioreactor system to a computer system. The system developed can be used for production in large scale and research. It was also shown part of a protocol, demonstrating that the amounts of culture medium between 175 ml and 180 have best results for the production of Blackberry Cv. Tupy in temporary immersion bioreactors systems. / A cultura de tecidos de plantas é uma das áreas de maior êxito da biotecnologia, possuindo destacada posição comercial e industrial de plantas em diversas aplicações, como melhoramento genético e também em pesquisas em fisiologia vegetal e produção industrial in vitro de compostos secundários. A micropropagação é uma técnica de cultura de tecido, considerada a de maior impacto na agricultura, devido ao fato de contribuir com o desenvolvimento de plantas sadias e com maior qualidade. Um dos principais problemas do processo convencional de micropropagação é o gasto com mão de obra. Uma solução para esse problema é o uso de biorreatores para a produção de plantas in vitro, sendo a tecnologia mais recente e a alternativa mais promissora nessa área. Nesse contexto, esse trabalho teve por objetivo desenvolver um sistema de biorreator de imersão temporária integrado a um sistema computacional. O sistema desenvolvido pode ser utilizado para produção em escala e para experimentos com fins de pesquisas. Também foi apresentado parte de um protocolo, demonstrando que as quantidades de meio de cultura entre 175 e 180 ml obtiveram melhores resultados para a produção de Amora Preta Cv. Tupy em sistemas de biorreatores de imersão temporária.
825

PREENCHIMENTO DE FALHAS DE SÉRIES DE DADOS CLIMÁTICOS UTILIZANDO REDES P2P

Schmitke, Luiz Rafael 30 June 2012 (has links)
Made available in DSpace on 2017-07-21T14:19:33Z (GMT). No. of bitstreams: 1 Luiz Rafael Schmitke.pdf: 1854453 bytes, checksum: c7e3cc9cb3865213cd2b9f59a4cf211c (MD5) Previous issue date: 2012-06-30 / Agriculture is an activity where the weather has more impact, influencing techniques and crops employed. Much of the agricultural productivity is affected by climatic conditions that are created by natural factors and are not likely to control. Although you can’t control the weather, we can predict it, or even simulate their conditions to try minimize its impact on agriculture. To be able to make these predictions and simulations are necessary data collected from weather stations that can be conventional or automatic and must be without gaps or abnormal data. Most of these errors are caused by signal interference, disconnection, oxidation of cables and spatio-temporal variation of climate which consequently end up generating those problems at the climates bases. Thus, this research work has as main objective to create a model capable of correcting gaps in climate databases, observing that not to correct abnormal observations or replace statistical methods for the same purpose. Therefore a model was created to correct the gaps in weather data between stations using the P2P architecture. With this model, an application was created to test its performance to correct the gaps. Also to perform the tests were used bases in the cities of Ponta Grossa, Fernandes Pinheiro and Telêmaco Borba provided by Instituto Tecnológico SIMEPAR, and bases of the cities of Castro, Carambeí, Pirai do Sul and Tibagi provided by Fundação ABC, which are collected daily on automatic stations. As a result it was observed that the performance of P2P correction model was satisfactory when compared to the simulator used in the tests, with lower results only in February, which corresponds to the period of summer, to the autumn, winter and spring the model P2P was better than simulated. Although it was found that the number of stations participating in the network at the time of correcting influences the results, and the higher it is, the better the results obtained with the correcting. / A agricultura é uma das atividades onde o clima tem mais impacto, influenciando as técnicas e os cultivos empregados. Grande parte da produtividade agrícola se deve as condições climáticas que são criadas por fatores naturais e não são passíveis de controle. Embora não seja possível controlar o clima, pode-se prevê-lo ou até simular suas condições para tentar minimizar seu impacto na agricultura. Para que seja possível realizar estas previsões e simulações são necessários dados coletados em estações climáticas que podem ser convencionais ou automáticas e que precisam estar sem dados anormais ou lacunas. Grande parte desses erros se deve a interferência no sinal, desconexão, oxidação de cabos e a variação espaço-temporal do clima que por consequência acabam gerando aqueles problemas nas bases climáticas. Desta forma, este trabalho de pesquisa tem como objetivo principal criar um modelo capaz de corrigir as lacunas existentes nas bases de dados climáticas, salientando-se que não visa à correção de observações anormais e nem a substituição dos métodos estatísticos para o mesmo fim. Para tanto foi criado um modelo de correção das lacunas em dados climáticos entre as estações utilizando a arquitetura P2P. Com este modelo, foi criada uma aplicação para testar seu desempenho em corrigir as lacunas encontradas. Também para a realização dos testes foram utilizadas bases das cidades de Ponta Grossa, Fernades Pinheiro e Telêmaco Borba, fornecidas pelo Instituto Tecnológico SIMEPAR, e bases das cidades de Castro, Carambeí, Tibagi e Pirai do Sul fornecidas pela Fundação ABC, sendo estes dados, diários e coletados em estações automáticas. Como resultados foi possível observar que o desempenho do modelo de correção P2P foi satisfatório quando comparado ao simulador utilizado nos testes, apresentando resultados inferiores somente no mês de fevereiro, que corresponde ao período de verão, para as estações de outono, inverno e primavera o modelo P2P foi melhor que o simulado. Ainda foi verificado que a quantidade de estações que participa da rede na hora da correção influencia os resultados, sendo que quanto maior ela for, melhores são os resultados obtidos com a correção. Palavras-chave: Redes P2P, Correção, Dados Climáticos.
826

PROGRAMAÇÃO GENÉTICA, REDES NEURAIS ARTIFICIAIS E TÉCNICAS DE BALANCEAMENTO NA MODELAGEM DE DADOS AGRÍCOLAS: ESTUDO DA DOENÇA MOFO BRANCO

Weber, Alison Roger Hajo 01 August 2012 (has links)
Made available in DSpace on 2017-07-21T14:19:33Z (GMT). No. of bitstreams: 1 AlisonWeber.pdf: 1901250 bytes, checksum: c554c4802feb0647c03048f60b92b2a9 (MD5) Previous issue date: 2012-08-01 / Data regression problems are common in the literature, therein it is desired to infer the relationship between the dependent (output) and independent variable (input) from a dataset. Infer the relationship between variables is not a simple task, many times there is a high non-linearity and noise in the data inside them. Two machine learning techniques that are able to work with this type of information are investigated, the Genetic Programming and Artificial Neural Networks. Still, in many cases the machine learning technique cannot find a satisfactory solution due to the unbalance of the database. Therefore, the aim of this study was to apply machine learning techniques in regression of unbalanced data, evaluating and comparing the results obtained with different approaches. The balancing method used is summarized in constructing weights to the data set, one for each sample, which represents the importance of example during the learning process model. This problem of unbalanced data modeling applies in a real agronomic data modeling, specifically in the study of white mold disease caused by the fungus Sclerotinia sclerotiorum (Lib.) de Bary. Due to the high destructive power of the disease to crops, knowledge of the presence of resistance structures called sclerotia in an area is of paramount importance so that appropriate actions are taken to treat the disease. In this case study, the task is to use learning techniques to build a predictive model of sclerotia from meteorological characteristics and location of the sample to the state of Paraná, using a set of unbalanced data. Different approaches to the techniques and the balancing method was employed for constructing the model. The Artificial Neural Networks with resilient propagation learning algorithm achieved better performance in creating the model for prediction of sclerotia able to predict the actual outcome with a correlation of 0.763 and a mean absolute error of 24.35. To identify if the employee balancing method improved the results we applied the Kruskal-Wallis test. The test showed that there is a statistically significant improvement between genetic programming with and without balancing technique. However the technique that showed the best results was the neural network with resilient propagation learning algorithm, the data set of white mold and in some cases experimental. / Problemas de regressão de dados são comuns na literatura, neles deseja-se inferir a relação entre variáveis dependentes (saída) e variáveis independentes (entrada) a partir de um conjunto de dados. Inferir esta relação entre as variáveis não é uma tarefa simples, por muitas vezes existirem uma alta não linearidade nos dados e pelo ruído existente neles. Duas técnicas de aprendizagem de máquina que são capazes de trabalhar com este tipo de informação são investigadas, a Programação Genética e as Redes Neurais Artificiais. Ainda assim, em muitos casos a técnica de aprendizado de máquina não consegue encontrar uma solução satisfatória, devido ao desbalanceamento da base de dados. Portanto, o objetivo deste trabalho foi aplicar técnicas de aprendizagem de máquina na regressão de dados desbalanceados, avaliando e comparando os resultados obtidos com diferentes abordagens. O método de balanceamento empregado resume-se em construir pesos para o conjunto de dados, um para cada exemplo, que representa a importância do exemplo durante o processo de aprendizagem do modelo. Este problema de modelagem em dados desbalanceados aplica-se em um caso real de modelagem de dados agronômicos, mais especificamente no estudo da doença mofo branco, causada pelo fungo Sclerotinia sclerotiorum (Lib.) de Bary. Devido ao alto poder destrutivo da doença para as culturas, o conhecimento da presença das estruturas de resistência chamadas de escleródios em uma área é de suma importância para que se tomem atitudes adequadas para o tratamento da doença. Neste estudo de caso, a tarefa é utilizar as técnicas de aprendizagem para a construção de um modelo de previsão de escleródios a partir de características meteorológicas e do local da amostra para o estado do Paraná, utilizando um conjunto de dados desbalanceados. Diferentes abordagens com as técnicas e com o método de balanceamento foram empregadas na construção do modelo. As Redes Neurais Artificiais com o algoritmo de aprendizagem resilient propagation obtiveram um melhor desempenho na criação do modelo para previsão de escleródios, conseguindo prever o resultado real com uma correlação de 0,763 e um erro médio absoluto de 24,35. Para identificar se o método de balanceamento empregado melhorou os resultados obtidos foi aplicado o teste de Kruskal-Wallis. O teste mostrou que existe uma melhora estatisticamente significativa entre a programação genética com e sem a técnica de balanceamento. Porem a técnica que apresentou melhores resultados foi a Rede Neural com o algoritmo de aprendizagem resilient propagation, no conjunto de dados do mofo branco e em alguns casos experimentais.
827

USO DO SENSOR KINECT PARA MEDIR A REGULARIDADE NA DISTRIBUIÇÃO DE FERTILIZANTES SÓLIDOS

Ramos, Marcos Roberto de 20 December 2012 (has links)
Made available in DSpace on 2017-07-21T14:19:36Z (GMT). No. of bitstreams: 1 Marcos Roberto de Ramos.pdf: 10923816 bytes, checksum: fdfd9343a26e9ecb7ad073a1004fb866 (MD5) Previous issue date: 2012-12-20 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / With the advent of computer vision, researchers have been investigating methods of capturing images of 3D objects and use this information in various fields such as medicine, architecture, education, among others. The launch of Xbox KinectTM sensor in November 2010 as an accessory to detect player movement, drew attention not only for its low cost, but also by providing information unencrypted, allowing their use for other tasks beyond videogames.This study explored the ability of the sensor to obtain distances of depth through its infrared camera and apply it to solving a problem in agronomy related to regularity in the distribution of fertilizers. It is known that irregularity in the distribution of fertilizers can cause serious problems to the crops such as excess or lack of nutrients, and lead to economic losses and environmental damage by the excess of nutrient applied. These problems are related to several factors, including the adjustments of distribution equipment or even the quality of fertilizers. To achieve the proposed goal, we developed a detailed study on the functioning of the sensor and test the accuracy of the calculations and measurements. Results showed 99.78% accuracy up to the detection area and volume occupied by the materials tested, with variations in tenths of a millimeter. A computer system was designed to obtain the fertilizer mass, calculating its volume using the sensor information knowing the density of each material. In validation experiments with fertilizers system reached up to 98.26% of accuracy with variations in tenths of grams of material estimated by the system and the actual mass measured by a precision balance. The system was tested on measurements of the mass of fertilizer on a belt in motion,simulating the application of a fertilizer rate. A hit above 98% from the estimated amount and the actual amount applied was obtained. The results suggest that it is feasible the use of KinectTM sensor for measuring the regularity in fertilizers distribution by using the methods and techniques experimented in this study. / Com o advento da visão computacional, pesquisadores vêm investigando métodos de captura de imagens 3D de objetos e a utilização destas informações em diversas áreas como medicina, arquitetura, educação, entre outras. O lançamento do sensor Kinect Xbox, em novembro de 2010, como um acessório para detectar o movimento do jogador, chamou a atenção não só pelo baixo custo, mas também por disponibilizar informações sem criptografia, permitindo seu uso para outras tarefas além dos videogames. Neste trabalho foi explorada a capacidade do sensor em obter distâncias de profundidade por meio da sua câmera de infravermelho, e aplicá-las no estudo de um problema na área agronômica relacionado com a regularidade na distribuição de fertilizantes minerais. Isso porque a irregularidade na distribuição dos fertilizantes pode causar danos importantes às culturas, tanto pelo excesso como pela falta de nutrientes, e levar a perdas econômicas e danos ambientais pelo excesso de nutrientes aplicados. Esses problemas estão relacionados a diversos fatores, entre eles as regulagens de equipamentos de distribuição ou mesmo a qualidade dos fertilizantes. Para alcançar o objetivo proposto, realizou-se um estudo minucioso sobre o funcionamento do sensor e testes da precisão dos cálculos e medidas. Os resultados revelaram acerto de até 99,78% na detecção da área e volume ocupado pelos materiais testados, com variações em décimos de milímetros. Um sistema computacional foi desenvolvido para obter a massa dos fertilizantes, calculando seu volume por meio das informações do sensor, conhecendo-se a densidade de cada material. Nos experimentos de validação com fertilizantes, o sistema alcançou acerto de até 98,26%, com variações em décimos de gramas entre o material estimado pelo sistema e a massa real medida por balança de precisão. O sistema foi testado em medições da massa de fertilizantes em uma esteira em movimento, simulando a aplicação de uma dosagem, obtendo acerto acima de 98% entre a quantidade estimada e a quantidade real aplicada. Concluiu-se que a utilização do sensor Kinect é viável para medir a regularidade na distribuição de fertilizantes minerais sólidos,aplicando as metodologias e técnicas experimentadas nesse estudo.
828

Dager: uma ferramenta computacional para agrupamentos em mineração de dados agrícolas georreferenciados / Dager: uma ferramenta computacional para agrupamentos em mineração de dados agrícolas georreferenciados

Silva, Ronan Assumpção 17 August 2012 (has links)
Made available in DSpace on 2017-07-21T14:19:38Z (GMT). No. of bitstreams: 1 Ronan Assumpcao.pdf: 1635695 bytes, checksum: 084afb104dd339cbac6751edc1408418 (MD5) Previous issue date: 2012-08-17 / Agriculture demands for various computing solutions, especially when refers to the Precision Agriculture (PA). Data Mining is one of the computing resources that can benefit the analysis of data from AP, which usually are georeferenced. However, there are limitations of algorithms and computational tools when it is need to group different characteristics also considering its geographical position. In this context, the aim of this work was to develop and implement algorithms that consider clustering and visualization of georeferenced attributes along with various attributes in the agricutural database. It was created a new computational tool for georeferenced agricultural data mining called Dager. The algorithms PAM, CLARA and CLARANS were implemented and, based on these two new algorithms, and GCLARA GCLARANS were developed and implemented in the tool. Besides the algorithms it was implemented a module for graphical visualization of clusters. For the experiments, a database obtained by Precision Farming and evaluation groups were employed statistical methods ANOVA and MANOVA. The result showed the mapping and visualization of regions within a field with similar characteristics, achieving the proposoal objectives. / A agricultura demanda de soluções computacionais diversas, especialmente quando refere-se ao segmento da Agricultura de Precisão (AP). A Mineração de Dados é um dos recursos computacionais que pode beneficiar a análise de dados de AP, os quais normalmente são georreferenciados. Porém, há limitação de algoritmos e ferramentas computacionais quando se tem necessidade de agrupar características diversas considerando também sua posição geográfica. Nesse contexto, o objetivo desta dissertação foi desenvolver e implementar algoritmos de agrupamentos e visualização que considerem atributos georreferenciados juntamente com atributos diversos em base de dados agrícolas. Para tanto, foi criada uma nova ferramenta computacional para mineração de dados agrícolas georreferenciados, denominada DAGER. Os algoritmos PAM, CLARA e CLARANS foram implementados e, com base nesses, dois novos algoritmos, GCLARA e GCLARANS foram desenvolvidos e implementados na ferramenta. Além dos algoritmos, foi implementado um módulo de visualização gráfica dos agrupamentos. Para a realização dos experimentos, foi utilizada uma base de dados agrícola obtida por processos de Agricultura de Precisão e para a avaliação dos grupos foram empregados os métodos estatísticos ANOVA e o MANOVA. O resultado apresenta o mapeamento e visualização de regiões dentro de uma lavoura com características semelhantes, atendendo aos objetivos propostos
829

Especificação de um framework para rastreabilidade da cadeia produtiva de grãos

Vaz, Monica Cristine Scherer 21 February 2014 (has links)
Made available in DSpace on 2017-07-21T14:19:40Z (GMT). No. of bitstreams: 1 MONICA CRISTINE SCHERER VAZ.pdf: 2687414 bytes, checksum: 22b96a7da0478a4e61874c0a445e1d24 (MD5) Previous issue date: 2014-02-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Traceability allows to identify the product’s origin and route, at any time of its production chain, main requirement in normalization processes, certifications and in quality management systems. About food products, where contamination acciddent’s impact involves health damage, traceability allows that the affected lots may be detected and quickly removed from the market with safety, minimizing losses. Besides legal requirements about traceability, the final consumer is looking for having access to informations about food which are being eaten, motivating tecnological solution’s development in this area. The goal of this dissertation is to present the specification of RastroGrão Framework, to traceability of productive grains process. This Framework is based in regulations and rules of quality applied to traceability and in systems of grains traceability, allowing records relative to production’s processes. These records can be changing according to the necessity of each participant agent of production chain. Data to be traced are recorded by the user, not being necessary system maintenance everytime it appears a new requirement to be traced. To the development of Framework was used Java Language to WEB Environment and PostgreSQL Database. The main contribution of this dissertation are related to the benefits offered by the Framework are: i) visibility of informations, which can be accessed through internet, by all the chain agents; ii) integration of all links of the productive chain; and iii) information’s availability to the final consumer through QR-Code, that can be accessed in the internet or printed on the packaging. / A rastreabilidade permite identificar a origem e o percurso de um produto, em qualquer momento de sua cadeia produtiva, requisito fundamental em processos de normalização, certificações e em sistemas de gestão da qualidade. Em se tratando de produtos alimentícios, onde o impacto de acidentes de contaminação envolve riscos a saúde, a rastreabilidade permite que os lotes afetados sejam detectados e retirados do mercado, com rapidez e segurança, minimizando prejuízos. Além das exigências legais em torno da rastreabilidade, o consumidor final está buscando ter acesso às informações sobre os alimentos que estão consumindo, motivando o desenvolvimento de soluções tecnológicas nesta área. O objetivo desta dissertação é apresentar a especificação do Framework RastroGrão, para rastreabilidade do processo produtivo de grãos. Esse Framework está baseado nos regulamentos e normas de qualidade aplicadas à rastreabilidade e em sistemas de rastreabilidade de grãos, permitindo os registros inerentes aos processos de produção. Esses registros podem ser alterados de acordo com a necessidade de cada agente participante da cadeia de produção. Os dados a serem rastreados são registrados pelo próprio usuário, não necessitando de manutenção de sistema cada vez que surge um novo requisito a ser rastreado. Para o desenvolvimento do Framework foi utilizada a Linguagem Java para Ambiente WEB e o Banco de Dados PostgreSQL. As principais contribuições desta dissertação estão relacionadas aos benefícios oferecidos pelo Framework são: i) visibilidade das informações, as quais podem ser acessadas pela internet, por todos os agentes da cadeia; ii) integração de todos os elos da cadeia produtiva, e iii) disponibilização das informações para o consumidor final através de QR-Code, que pode ser acessado na internet ou impresso nas embalagens
830

ONTOLOGIA PARA RASTREABILIDADE NA CADEIA PRODUTIVA DE SEMENTES

Debtil, Selma Josette Silveira 28 March 2014 (has links)
Made available in DSpace on 2017-07-21T14:19:41Z (GMT). No. of bitstreams: 1 Selma Josette Silveira Debtil.pdf: 3057620 bytes, checksum: 055f6dd0f0ea7471dde2b438c8f32659 (MD5) Previous issue date: 2014-03-28 / Ontologies represent the knowledge and are linked to technological developments. In agribusiness, the use of traceability increases the safety of their products and their quality. Quality assurance and process improvement is essential for seed producers. The rate of use of certified and inspected seed has grown and characterized by high competitiveness. This dissertation presents the development of ontology for quality assurance and process improvement through knowledge representation in seed production. The acquisition of knowledge was conducted by surveying Laws, regulations and standards pertaining to seed production. For the process of ontology development was used the tool Protégé, merging metodologies such as Enterprise, Methontology, On-to-Knowledge, Ontology's Development 101 Guide. As results, a system of knowledge representation and its vocabulary are presented, describing the ontology terms, classes, hierarchies, properties, restrictions and instances. One of the contributions of this research is the methodological route, enabling obtainment of main domain terms in the ontology and taxonomy generated. Traceability related to seed certification provides information that require effective control by seed companies. The creation of ontology reinforces the use of the definition of domain knowledge as information management tool, quality and transparency for entire production chain. / As ontologias representam o conhecimento e estão vinculadas à evolução tecnológica. No agronegócio, o uso da rastreabilidade aumenta a segurança de seus produtos e a sua qualidade. A garantia da qualidade e melhoria de processos é necessária para os produtores de sementes. A taxa de utilização de sementes certificadas e fiscalizadas vem crescendo e caracterizada pela alta competitividade. Esta dissertação apresenta o desenvolvimento de ontologia para a garantia da qualidade e a melhoria dos processos, através da representação do conhecimento na produção de sementes. A aquisição do conhecimento foi realizada através do levantamento de Leis, regulamentos e normativas inerentes a produção de sementes. Para o processo de desenvolvimento da ontologia foi utilizada a Ferramenta Protégé, combinando as metodologias Enteprise, Methontology, On-to-Knowledge e do guia Ontology Development 101. Como resultado é apresentado um sistema de representação de conhecimento e seu vocabulário, com a descrição da ontologia, termos, classes, hierarquias, propriedades, restrições e instâncias. Uma contribuição da pesquisa é o roteiro metodológico, possibilitando a obtenção dos principais termos do domínio e a taxionomia gerada na ontologia. A rastreabilidade associada à certificação de sementes gera informações que demandam de controle efetivo pelas empresas produtoras de sementes. A criação da ontologia reforça a utilização da definição do conhecimento do domínio como ferramenta de gestão de informações, qualidade e transparência em todas as etapas do processo produtivo.

Page generated in 0.0412 seconds