Spelling suggestions: "subject:"ciência dda computação."" "subject:"ciência daa computação.""
181 |
Algoritmo para identificação de características para amostragem estratificadaRatke, Cláudio January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-22T11:20:47Z (GMT). No. of bitstreams: 1
232779.pdf: 456462 bytes, checksum: fb2b05ec39562530ec43de8e3a4077d6 (MD5) / Este trabalho apresenta um algoritmo para identificar características que possam ser utilizadas num processo de amostragem estratificada. O algoritmo localiza as características e os seus respectivos valores que dividem o conjunto de dados em estratos, de tal forma que a variância do estimador, de uma média ou proporção, seja inferior à variância do estimador baseado em uma amostra aleatória simples. O algoritmo implementa o cálculo da variância do estimador baseado nos três métodos de alocação: uniforme, proporcional e alocação ótima de Neyman com custo fixo. Foi também implementado um novo método denominado GRD, baseado no princípio do ganho de informação, que exige menos recursos de processamento. O algoritmo foi aplicado em um conjunto de dados simulados para produzir estratos pré-definidos, e também, em um conjunto de dados real. Além disso, o algoritmo foi implementado parcialmente em um Gerenciador de Banco de Dados.
This work presents an algorithm developed to identify characteristics that can be used to define strata in a stratified sampling process. The algorithm finds the characteristics, and its respective values, that split the data set into strata, in such a way that the variance of the estimator, of the mean or proportion, is smaller than the variance of the estimator based on a simple random sampling process. The algorithm implements the calculation of the variance of the estimator based on the three methods of allocation:
uniform, proportional and Neyman optimum allocation with fixed cost. It has also implemented a new method called GRD, based on the principle of the information gain, that demands less am simulated data, built to produce well defined strata, and in a real data set. Moreover, the algorithm was partially implemented in a Data Base Management System (DBMS).
|
182 |
Limites inferiores para o problema de coloração de vértices via geração de cortes e colunas / Inferior limits for the problem of vertex coloring saw generation of cuts and columnsRodrigues, Carlos Diego January 2008 (has links)
RODRIGUES, Carlos Diego. Limites inferiores para o problema de coloração de vértices via geração de cortes e colunas. 2008. 79 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2005. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-08T19:45:39Z
No. of bitstreams: 1
2008_dis_cdrodrigues.pdf: 545679 bytes, checksum: 7cceeca6a76bce10cbde4bfb4ef0ee02 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-08T19:45:58Z (GMT) No. of bitstreams: 1
2008_dis_cdrodrigues.pdf: 545679 bytes, checksum: 7cceeca6a76bce10cbde4bfb4ef0ee02 (MD5) / Made available in DSpace on 2016-06-08T19:45:58Z (GMT). No. of bitstreams: 1
2008_dis_cdrodrigues.pdf: 545679 bytes, checksum: 7cceeca6a76bce10cbde4bfb4ef0ee02 (MD5)
Previous issue date: 2008 / In this work the vertex coloring problem is approached via integer programming. A tighter version of the independent set formulation is used, where the vertex-related constraints are substituted by subgraph-related constraints. Each constraint establishes a lower bound on the number of independent sets intersecting a subgraph H. It is shown a sufficient condition for this inequality to define a facet of the associated polytope. Basically, H is required to be color critical, not included in another color critical subgraph, and to have a connected complement. Also, the column generation algorithm proposed by Mehotra and Trick (INFORMS Journal in Computing, 1996) is adapted to allow the addition of cutting planes and to provide lower bounds along the process, which may abbreviate its end. Some computational experiments are reported. / Neste trabalho abordamos o problema de coloração de vértices via programação inteira. Uma versão expandida da formulação por conjuntos independentes é utilizada para abrigar outras sub-estruturas do grafos além dos vértices. Cada uma dessas sub-estruturas define uma restrição que determina quantos conjuntos independentes são necessarios para cobrir aquele subgrafo. Experimentos com um método de geração de cortes e colunas para o problema são feitos para determinar um limite inferior para um conjunto de instâncias classicas para esse problema a biblioteca DIMACS.
|
183 |
Atributos e métodos de qualidade para sistemas de informação geográfica voluntária / Attributes and quality methods for volunteered geographic information systemsCâmara, Jean Henrique de Sousa 27 October 2016 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-02-14T15:51:42Z
No. of bitstreams: 1
texto completo.pdf: 1977122 bytes, checksum: 1b039569d9f11c1c5df46b9fd48776f5 (MD5) / Made available in DSpace on 2017-02-14T15:51:42Z (GMT). No. of bitstreams: 1
texto completo.pdf: 1977122 bytes, checksum: 1b039569d9f11c1c5df46b9fd48776f5 (MD5)
Previous issue date: 2016-10-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A difusão de dispositivos equipados com GPS como smartphones e tablets e a facilidade em manipular mapas online estão simplificando a produção e disseminação de informações geográficas fornecidas de forma voluntária (VGI) por meio da Internet. Os sistemas VGI coletam e distribuem este tipo de informação e podem ser usados, por exemplo, em casos de desastres naturais, mapeamento, gestão municipal etc. Em alguns casos, os sistemas VGI precisam ser implementados em um curto espaço de tempo, como no atendimento a emergências em casos de desastres naturais. Algumas ferramentas, como as plataformas Ushahidi e ClickOnMap, foram projetadas para possibilitar o desenvolvimento rápido de sistemas VGI. A qualidade dos dados coletados por estes sistemas pode ser questionada, mas em algumas situações não existem dados oficiais ou eles estão desatualizados. Assim, é necessário que estas plataformas ofereçam métodos que possam auxiliar o usuário a produzir ou informar dados voluntariamente com qualidade. Este trabalho apresenta um estudo sobre os principais atributos de qualidade que podem ser aplicados no contexto de VGI. Além disto, identifica-se na literatura os principais métodos que contribuem com o aumento da qualidade VGI. Este estudo resultou em um conjunto de 19 atributos e 26 métodos de qualidade relacionados à VGI. O trabalho ainda propõe seis métodos que podem auxiliar na obtenção de dados com melhor qualidade. Dez métodos de qualidade VGI foram implementados na plataforma ClickOnMap dando origem à plataforma ClickOnMap 2.0. Foi desenvolvido um sistema VGI, denominado Gota D’ Água, com o auxílio da ClickOnMap 2.0. O objetivo deste sistema foi coletar e disponibilizar informações voluntárias relacionadas ao desperdício de água como vazamentos, uso indevido, desvios ilegais dentre outros. Por meio do Gota D’ Água, verificou-se que os métodos propostos neste trabalho realmente podem ser aplicados em sistemas VGI para melhorar o nível de qualidade destas informações. / The dissemination of GPS-equipped devices like smartphones and tablets and the facility for manipulating maps online are simplifying the production and spread of geographic information provided in a volunteered manner (VGI) on the internet. VGI systems collect and distribute this kind of information, and they can be used, for instance, in cases of natural disasters, mapping, city management etc. In some circumstances, VGI systems need to be implemented in a short time, such as when responding to emergencies in natural disaster occurrences. Some tools, like the platforms Ushahidi and ClickOnMap, were designed to enable the quick development of VGI systems. The quality of the data collected by these systems can be questionable; however, in some situations there are no official data or they are not up-to-date. Thus, it is necessary that these platforms present methods that assist the user in producing or informing data voluntarily and accurately. This work addresses the main attributes of quality that can be applied in the VGI context. Besides, it is possible to identify in the literature the methods that contribute to the improvement of VGI quality. This study resulted in a group of 19 attributes and 26 methods of quality related to VGI. It also proposes six methods that can assist in a better quality of data collection. Ten methods of VGI quality were implemented in the ClickOnMap platform, originating ClickOnMap 2.0. A VGI system, named Gota D’Água, was developed with the use of ClickOnMap 2.0. The goal of this system was to collect and make available voluntary information related to water waste, such as leaks, inappropriate use, illegal deviation, among others. Through Gota D’Água, it was verified that the methods proposed in this work can really be applied to VGI systems to improve the quality level of this information.
|
184 |
Gremlin : uma estratégia baseada em mineração de subgrafos para inferir padrões de interação na interface proteína-ligante / Gremlin : a subgraph mining strategy based to infer interaction patterns in protein-ligand interfaceSantana, Charles Abreu 03 March 2017 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2017-04-17T11:56:27Z
No. of bitstreams: 1
texto completo.pdf: 3558749 bytes, checksum: aa66edeb3d2987adf6a55e8769e7933f (MD5) / Made available in DSpace on 2017-04-17T11:56:27Z (GMT). No. of bitstreams: 1
texto completo.pdf: 3558749 bytes, checksum: aa66edeb3d2987adf6a55e8769e7933f (MD5)
Previous issue date: 2017-03-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Interações proteína-ligante, de alta relevância em vários processos biológicos, são responsáveis pelo reconhecimento molecular, influenciando diretamente em mudan- ças de conformação das estruturas e, consequentemente, mudanças em sua atividade funcional. Entender essas interações é um passo importante para a predição de li- gantes, identificação de alvos biológicos e projeto de fármacos. Esta dissertação propõe GReMLIN, uma estratégia baseada em mineração de subgrafos frequentes, para encontrar padrões em interações proteína-ligante. Aqui, investigamos se é pos- sível encontrar padrões que caracterizam interações em um conjunto específico de proteínas. Se tais padrões existem, acreditamos que eles podem representar um passo importante na predição de interações. As interfaces proteína-ligante foram modeladas como grafos bipartidos, em que os vértices são átomos da proteína ou do ligante e as arestas são interações entre os átomos. Os vértices e arestas foram rotulados com suas propriedades físico-químicas. Um algoritmo de agrupamento foi executado sobre os dados dos grafos a fim de caracterizá-los de acordo com suas similaridades e diferenças e, em sequência, foi utilizado um algoritmo de mineração de subgrafos para buscar padrões relevantes nas estruturas de cada grupo. Para validar esta estratégia e verificar sua aplicabilidade em cenário real, foram coletados dados estruturais de complexos de proteínas com ligantes no Protein Data Bank. Foram usadas duas bases de dados, Ricina e CDK2, ambas com relevância biológica. GReMLIN foi capaz de encontrar subestruturas frequentes nos dados de Ricina e CDK2, contendo resíduos importantes determinados experimentalmente. / Interaction between proteins and ligands are relevant in many biological process. Such interactions have gained more attention as the comprehension of protein-ligand molecular recognition is an important step to ligand prediction, target identification and drug design. This work proposes GreMLIN, a strategy to search patterns in protein-ligand interactions based on frequent subgraph mining. Here, we investiga- ted if it is possible to find patterns that characterize protein-ligand interactions in a set of selected proteins. Moreover, if such patterns exist, we believe that they can represent an important step in the prediction of protein-ligand interactions. Our strategy models protein-ligand interfaces as bipartite graphs where nodes represent protein or ligand atoms, and edges represent interactions among them. Nodes and edges are labeled with physicochemical properties of atoms and a distance criteria. A clustering analysis is performed on graphs to characterize them according their similarities and differences, and a subgraph mining algorithm is applied to search for relevant patterns in protein-ligand interfaces in each cluster. We collected struc- tural data of protein-ligand complexes in Protein Data Bank (PDB) to validate our strategy and show their applicability. Both datasets have biological relevance, but with different characteristics. Our strategy was able to find frequent substructures with considerable cardinality in the protein-ligand interfaces for the CDK and Ricin datasets.
|
185 |
Métodos eficientes para o problema de flow shop scheduling não permutacional com trabalhadores heterogêneos / Efficient methods for non-permutation flow shop scheduling problem with heterogeneous workersAraujo, Matheus de Freitas 07 March 2017 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-08-22T12:50:56Z
No. of bitstreams: 1
texto completo.pdf: 2002096 bytes, checksum: 846f5e7b160234fc5880c038b656d3f6 (MD5) / Made available in DSpace on 2017-08-22T12:50:56Z (GMT). No. of bitstreams: 1
texto completo.pdf: 2002096 bytes, checksum: 846f5e7b160234fc5880c038b656d3f6 (MD5)
Previous issue date: 2017-03-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho aborda o problema de flow shop scheduling não permutacional com trabalhadores heterogêneos (FSNPTH). Sendo este classificado como um problema multicomponente, uma vez que, combina dois problemas no qual o resultado de um afeta o outro. O FSNPTH é composto por dois problemas clássicos de otimização combinatória: alocação de trabalhadores em máquinas e o flow shop scheduling não permutacional (FSNP). O problema consiste em alocar trabalhadores hete- rogêneos em máquinas dispostas em série, na qual a heterogeneidade se dá pelo tempo gasto pelo trabalhador ao operar uma máquina. A alocação dos trabalha- dores definem os tempos de execução das tarefas do problema de FSNP. O objetivo do problema de FSNPTH é minimizar o tempo máximo de conclusão das tarefas, conhecido como makespan. Para resolve-lo, inicialmente é proposto a aplicação do método Proximity Search (PS) para tentar determinar soluções ótimas para o pro- blema utilizando o modelo de programação linear inteira mista 0-1 (PLIM). Esse método consiste em substituir a função objetivo por uma função de proximidade e adicionar uma restrição de corte no modelo. Iterativamente o novo modelo é resolvido e a restrição de corte é atualizada. Isso garante que PS limite o espaço de busca e identifique as soluções ótimas. Foram desenvolvidas três versões do PS denotadas por P S 1 , P S 2 e P S 2RIN S . Dado que o problema pertence à classe NP-Difícil e é considerado de difícil resolução de maneira exata, foram desenvolvi- dos dois algoritmos híbridos, VNS-IG e TS-IG, a fim de obter soluções de forma aproximada de alta qualidade em baixo tempo computacional. Esses algoritmos combinam as meta-heurísticas Variable Neighborhood Search (VNS) e Busca Tabu (TB, do inglês Tabu Search) com o Iterated Greedy (IG). Experimentos computa- cionais e análises estatísticas foram realizados a fim de comparar o desempenho das versões do PS e dos algoritmos propostos. De acordo com os experimentos computacionais, as versões do PS obtiveram melhorias na qualidade da solução obtida e redução no tempo computacional se comparado a resolução do modelo matemático pelo solver IBM ILOG CPLEX. Além disso os experimentos realiza- dos mostram que algoritmos propostos são significativamente superiores ao melhor algoritmo da literatura (Scatter Search) em relação a dois fatores: qualidade das soluções e tempo de execução. / The current work addresses the non-permutation flow shop scheduling problem with heterogeneous workers (Het-FSSP), which is defined as a multicomponent problem, since it combines two problems where the result of one affects the other. Het-FSSP consists of two classical combinatorial optimization problems: machine worker allocation and non-permutation flow shop scheduling (NPFSS). The pro- blem is to allocate heterogeneous workers in machines arranged in series, in which the heterogeneity is due to the time spent by the worker when operating a ma- chine. The allocation of workers defines the periods of execution of the jobs of the NPFSS problem. The goal of the Het-FSSP problem is to minimize the maximum job completion time, which is known as makespan. In order to solve this problem, it is initially proposed to apply the Proximity Search (PS) method to try to de- termine optimal solutions for the problem using mixed integer programing (MIP) model. This method consists of replacing the objective function with a proximity function and adding a cut-off constraint on the model. Then, by iteration, the new model is resolved and the cut restriction is updated. This ensures that PS limits the search space and identifies optimal solutions. Three PS versions denoted by P S 1 , P S 2 and P S 2RIN S have been developed. Since the problem belongs to the NP-Difficult class and is considered to be difficult to solve exactly, two hybrid algorithms, VNS-IG and TS-IG, were developed in order to obtain approximate solutions of high quality in low computational time. These algorithms combine the meta-heuristics Variable Neighborhood Search (VNS) and Tabu Search (TS) with Iterated Greedy (IG). Computational experiments and statistical analyzes were performed in order to compare the performance of PS versions and the proposed algorithms. The computational experiments results suggest that the PS versions acquired improvements in the quality of the solution obtained and also reduced computational time spent compared to the resolution of the mathematical model by the IBM ILOG CPLEX solver. In addition, the experiments performed have shown that the proposed algorithms are significantly superior to the best algorithm found in the literature (Scatter Search) in relation to two factors: solution quality and execution time.
|
186 |
Enriquecimento semântico de informação geográfica voluntária utilizando Linked Data e Tesauro / Semantic enrichment of voluntary geographic information using Linked Data and ThesaurusCosta, Liliane Soares da 07 February 2018 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-02-27T18:34:16Z
No. of bitstreams: 1
texto completo.pdf: 1431370 bytes, checksum: 8ee4cad73ff405e3b1e74a3e45e2b661 (MD5) / Made available in DSpace on 2018-02-27T18:34:16Z (GMT). No. of bitstreams: 1
texto completo.pdf: 1431370 bytes, checksum: 8ee4cad73ff405e3b1e74a3e45e2b661 (MD5)
Previous issue date: 2018-02-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Informação Geográfica Voluntária (VGI) refere-se a um tipo de informação com posicionamento geográfico e que é coletada e/ou compartilhada voluntariamente pelos usuários por meio da Internet. VGI representa uma mudança de paradigma na forma como a informação geográfica é produzida e compartilhada. Porém, ainda há diversas limitações para se utilizar essas informações, como questionamentos sobre a qualidade dos dados, dificuldade de utilização e recuperação, dentre outros. Uma alternativa para melhorar o uso dessas informações é fazer uso do enriquecimento semântico, que pode ser visto como o processo de atribuir maior significado aos dados através da aplicação de recursos auxiliares, com o objetivo de facilitar a compreensão, a integração e o processamento dos dados por pessoas e máquinas. O enriquecimento semântico é uma forma potencial para amenizar alguns problemas relacionados à VGI. Esta pesquisa propõe um método para enriquecimento semântico de VGI utilizando os conceitos de Linked Data e tesauro. O método é composto de duas etapas, uma automática e outra manual. A primeira etapa inclui um algoritmo para automatizar parte do processo, ligando as contribuições VGI à pontos de interesse (PoIs), ou seja, lugares descritos em bases de conhecimento que possam ser de interesse do usuário. Nesta etapa, diversas ferramentas e artefatos são utilizados, como acesso a uma base de Linked Data e um sistema de banco de dados espaciais PostgreSQL+PostGIS com informações sobre PoIs de uma cidade, obtidos diretamente do sistema OpenStreetMap. Além disso, foi utilizado o sistema de banco de dados Virtuoso para armazenar os arquivos RDF gerados pelo algoritmo apresentado. Para verificar a viabilidade do método proposto, foram utilizadas contribuições provenientes de um sistema VGI relacionado com o combate ao desperdício de água, chamado Gota D’Água. Desse modo, na etapa manual do enriquecimento semântico, foi construído um tesauro no domínio de recursos hídricos, com base nos termos encontrados nas contribuições voluntárias. Com base no tesauro, é proposto um processo que retorna contribuições VGI semanticamente semelhantes a partir de uma consulta formulada pelo usuário. Por fim, a viabilidade do método foi verificada por meio da realização de consultas SPARQL que demonstram análises que somente são possíveis após o processo de enriquecimento semântico. / Volunteer Geographic Information (VGI) refers to a type of information with geographic positioning that is collected and / or shared voluntarily by users via the Internet. VGI represents a paradigm shift in the way geographic information is produced and shared. However, there are still several limitations using this information, such as questions about data quality, difficulty of use and recovery, among others. An alternative to improving the use of this information is to make use of semantic enrichment, which can be seen as the process of assigning greater meaning to the data through the application of ancillary resources, in order to facilitate the understanding, integration and processing of the data by people and machines. Semantic enrichment is a potential way to alleviate some problems related to VGI. This research proposes a method for semantic enrichment of VGI using the concepts of Linked Data and Thesaurus. The method is composed of two steps, one automatic and one manual. The first step includes an algorithm to automate part of the process, linking the VGI contributions to points of interest (PoIs), that is, places described in knowledge bases that may be of interest to the user. In this step, various tools and artifacts are used, such as access to a Linked Data database and a PostgreSQL + PostGIS spatial database system with information about a city's PoI, obtained directly from the OpenStreetMap system. In addition, the Virtuoso database system was used to store the RDF files generated by the presented algorithm. In order to verify the feasibility of the proposed method, contributions were made from a VGI system related water waste prevention, called Gota D’Água. Thus, in the manual stage of semantic enrichment, a thesaurus was constructed in the domain of water resources, based on the terms found in the voluntary contributions. Based on the thesaurus, a process is proposed that returns semantically similar VGI contributions from a query formulated by the user. Finally, the feasibility of the method was verified through SPARQL queries that demonstrate analyzes that are only possible after the process of semantic enrichment.
|
187 |
A novel low- cost chlorophyll fluorescence Sensor for early detection of environmental pollution / Um sensor novo de baixo custo para fluorescência da clorofila para a detecção precoce de poluição ambientalGull, Christopher Johannes 03 July 2017 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-03-05T16:25:15Z
No. of bitstreams: 1
texto completo.pdf: 2167804 bytes, checksum: 99c7a466176efa00e621c1cfb6c02980 (MD5) / Made available in DSpace on 2018-03-05T16:25:15Z (GMT). No. of bitstreams: 1
texto completo.pdf: 2167804 bytes, checksum: 99c7a466176efa00e621c1cfb6c02980 (MD5)
Previous issue date: 2017-07-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A poluição afeta seriamente todos os organismos vivos, assim como economias que dependem, diretamente ou indiretamente, de recursos naturais. O monitoramento ambiental de estresses das plantas, causadas pelos poluentes, é necessário para antecipar e evitar os efeitos negativos antes que se manifestem como danos visíveis. A ausência de monitoramento constante das plantas resulta em diminuição do crescimento das culturas, danos aos ecossistemas, problemas de saúde, e, no fim das contas, perdas econômicas. Especialmente ao redor das áreas afetadas, como, por exemplo, depósitos de resíduos, mineradoras e indústrias, mas também dentro e ao redor das áreas urbanas, é importante reconhecer os problemas potenciais do meio ambiente que possam surgir por causa das atividades humanas. Entre as consequências estão chuva ácida, contaminação de metais pesados, ozônio superficial, modificações de temperatura, e seca, causando alterações na fisiologia vegetal, especificamente na eficiência fotossintética e conteúdo de clorofila. A medição da eficiência fotossintética das plantas, i.e. vitalidade, usando fluorômetros comerciais tais como aparelhos PAM (modulação de amplitude de pulso), torna-se um desafio, uma vez que custo, complexidade e os métodos de medição tornam difíceis o monitoramento em tempo real. Apesar dos aparelhos possuírem alta precisão, podem meramente fornecer uma medição “instantânea” de áreas pequenas. Assim, torna-se difícil o entendimento da vitalidade e eficiência das plantas em grandes áreas e períodos longos, resultando, muitas vezes, que ações sejam tomadas apenas após mudanças significativas nas plantas e na produtividade. Uma solução para o produtor em áreas impactadas por poluentes poderia ser a obtenção de vários desses aparelhos e empregar trabalhadores dedicados exclusivamente para o monitoramento de saúde das plantas, mas isto é caro e ineficiente. Outra solução seria simplificar os equipamentos de medição, e usar vários deles. De fato, neste trabalho nós nos concentramos na resolução deste problema, reduzindo o custo e a complexidade, e eliminando a necessidade de intervenção humana no processo de medição. Propõe-se um sistema de sensores de fluorescência de clorofila de baixo custo que pode monitorar, simultaneamente e sem fios, várias plantas individuais. Estes sensores foram desenvolvidos, prototipados e construídos do zero para dar precisão razoável, com a capacidade de diferenciar entre plantas submetidas à estresse e sem estresse. Nos casos em que o sistema, o Sensor CFY (rendimento fluorescência da clorofila), não possua alta precisão, o sistema compensa em várias medições simultâneas de uma rede de sensores. Isto é, o protótipo do sensor é, inerentemente, desenvolvido para ser usado em redes sem fio (WSN). Usando duas espécies de plantas, Clusia hilariana e Paspalum densum, foi construído, testado e verificado as nossas metodologias e o nosso protótipo através de uma série de experimentos. Baseado nisso, foram observado resultados significativos quando utilizamos o sensor em uma rede de sensores emulado, usando um sensor único em várias plantas durante um longo período de tempo. Foi possível a discriminação entre plantas nos grupos de estresse e as do controle, assim como a descoberta rápida bem antes de danos se manifestarem nas folhas. Concluímos que é, de fato, possível a detecção da estresse nas plantas utilizando métodos de baixo custo, assim como fazê-lo automaticamente e em tempo real, permitindo a detecção precoce de poluição e fornecendo, por exemplo, tempo suficiente para um produtor resolver os problemas antes de eles se tornarem irreversíveis e dispendiosos. / Pollution seriously affects all living organisms as well as economies directly or indirectly relying on natural growth resources. Monitoring the environment for stresses in plants, caused by pollutants, is necessary in order to anticipate and counteract the adverse effects before they manifest as visible damage. Failure to constantly monitor plants results in decreased crop growth, damage to ecosystems, health-related issues, and, ultimately, economic losses. Especially around affected areas, such as waste deposits, mining activities and factories, but also in and around urban areas, it is important to acknowledge the potential environmental issues that may arise from human activities. Among the consequences we find acid rain, heavy metal contamination, surface ozone, changes in temperature, and drought, contributing to alterations in plant physiology, specifically chlorophyll content and photosynthetic efficiency. Measuring plant efficiency, thus health, using commercial fluorometers, such as PAM (pulse-amplitude modulation) devices, presents a challenge, since cost, complexity and the measurement methods make real-time monitoring a difficult proposition. Although such devices are high-precision instruments, they are merely able to provide ‘snapshots’ of small areas. This makes it difficult to understand the health of plants over large areas and over extended periods of time, frequently resulting in actions taken only after significant changes to plants and productivity. One solution would be for a farmer in an area impacted by pollution to acquire multiple of these devices and to employ a workforce dedicated solely to monitoring plant health, but this is costly and inefficient. Another solution would be to simplify the devices with which to measure, and use a multitude of these. Indeed, in this work, we focus on solving this problem, by reducing costs and complexity, and eliminating the need for human input in the measurement process. We propose a system of low-cost chlorophyll fluorescence sensors able to monitor a large number of individual plants at the same time and wirelessly. These sensors have been designed, prototyped and built from the ground up to provide reasonable accuracy, and capacity for discriminating between plants subjected to stress from non-stressed plants. Where our sensor system, the CFY (chlorophyll fluorescence yield) Sensor, lacks in accuracy, it compensates with a multitude of potential simultaneous measurements from an array of sensors within a network. For this reason, the sensor prototype is inherently designed for wireless sensor networks (WSN). Using two species of plants, Clusia hilariana and Paspalum densum, we have built, tested and verified our methodologies and prototype sensors through a series of experiments. Through these, we observed significant results when employed in an emulated sensor network using one sensor on a large number of plants over extended periods of time. Differentiating the stressed group from the control group was possible, in addition to rapid and well before any visible damage had manifested on leaves. We conclude that it is indeed possible to not only detect plant stress using low-cost methods, but also to do so automatically and in real-time, allowing for early-detection of pollution and providing e.g. a farmer enough time to resolve problems before they become irreversible and costly.
|
188 |
Fusion: abstrações linguísticas sobre Java para programação paralela heterogênea sobre GPGPUs / Fusion: linguistic abstractions on Java for parallel programming on heterogeneous GPGPUsPinheiro, Anderson Boettge January 2013 (has links)
PINHEIRO, Anderson Boettge. Fusion: abstrações linguísticas sobre Java para programação paralela heterogênea sobre GPGPUs. 2013. 149 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-08T18:17:57Z
No. of bitstreams: 1
2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-13T12:36:32Z (GMT) No. of bitstreams: 1
2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5) / Made available in DSpace on 2016-07-13T12:36:32Z (GMT). No. of bitstreams: 1
2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5)
Previous issue date: 2013 / Acceleration units free, or GPU (Graphical Processing Units), have been consolidated in recent years for general purpose computing for accelerating critical sections of programs that exhibit high standards of performance and the execution time. GPUs are one of several types of general-purpose computational accelerators that have been built on various platforms for high performance computing, especially also for the MIC (Many Integrated Cores) and FPGA (Field Programmable Gateway Arrays). Despite the emphasis on the research of new parallel algorithms capable of exploiting the massive parallelism offered by GPGPU devices are still incipient initiatives on new programming abstractions that make the simplest description of these algorithms on GPGPUs, without detriment to the effciency. It is still necessary that the programmer has specific knowledge of the peculiarities of the architecture of these devices, as well as programming techniques that are not domain even experienced parallel programmers today. In recent years, NVIDIA, an industry that has dominated the evolution of architectural GPGPU devices, launched the Kepler architecture, including extensions to support Hyper-Q and Dynamic Parallelism (DP), which offer new opportunities for expression patterns of parallel programming on such devices. This paper aims at proposing new programming abstractions over a parallel object-oriented language based on Java, am expressing parallel computations heterogeneous type multicore / manycore, where the GPU device is shared by a set of parallel threads running in host processor, on a higher level of abstraction compared to existing alternatives, but still offering the programmer full control over the use of device capabilities. The design of this proposed language abstractions, hereinafter called Fusion, part of the expressiveness offered by Kepler architecture. / Unidades de aceleração gráca, ou GPU (Graphical Processing Units ), tem se consolidado nos últimos anos para computação de propósito geral, para aceleração de trechos críticos de programas que apresentam requisitos severos de desempenho quanto ao tempo de execução. GPUs constituem um dentre vários tipos de aceleradores computacionais de propósito geral que tem sido incorporados em várias plataformas de computação de alto desempenho, com destaque também para as MIC (Many Integrated Cores ) e FPGA (Field Programmable Gateway Arrays ). A despeito da ênfase nas pesquisas de novos algoritmos paralelos capazes de explorar o paralelismo massivo oferecido por dispositivos GPGPU, ainda são incipientes as iniciativas sobre novas abstrações de programação que tornem mais simples a descrição desses algoritmos sobre GPGPUs, sem detrimento à efciência. Ainda é necessário que o programador possua conhecimento específico sobre as peculiaridades da arquitetura desses dispositivos, assim como técnicas de programação que não são do domínio mesmo de programadores paralelos experientes na atualidade. Nos últimos anos, a NVIDIA, indústria que tem dominado a evolução arquitetural dos dispositivos GPGPU, lançou a arquitetura Kepler, incluindo o suporte às extensões Hyper-Q e Dynamic Parallelism (DP), as quais oferecem novas oportunidades de expressão de padrões de programação paralela sobre esses dispositivos. Esta dissertação tem por objetivo a proposta de novas abstrações de programação paralela sobre uma linguagem orientada a objetos baseada em Java, a m de expressar computações paralelas heterogêneas do tipo multicore/manycore, onde o dispositivo GPU é compartilhado por um conjunto de threads paralelas que executam no processador hospedeiro, em um nível de abstração mais elevado comparado às alternativas existentes, porém ainda oferecendo ao programador total controle sobre o uso dos recursos do dispositivo. O projeto das abstrações dessa linguagem proposta, doravante chamada Fusion, parte da expressividade oferecida pela arquitetura Kepler.
|
189 |
OntologyManagementTool - uma ferramenta para gerenciamento de ontologias como teorias lógicas / OntologyManagementTool - a tool for managing ontologies as logical theoriesPinheiro, Ângela Maria Alves January 2013 (has links)
PINHEIRO, Ângela Maria Alves. OntologyManagementTool - uma ferramenta para gerenciamento de ontologias como teorias lógicas. 2013. 76 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-08T18:39:27Z
No. of bitstreams: 1
2013_dis_amapinheiro.pdf: 2709642 bytes, checksum: f720a93925601ca802e5474df0a4501c (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-13T13:27:36Z (GMT) No. of bitstreams: 1
2013_dis_amapinheiro.pdf: 2709642 bytes, checksum: f720a93925601ca802e5474df0a4501c (MD5) / Made available in DSpace on 2016-07-13T13:27:36Z (GMT). No. of bitstreams: 1
2013_dis_amapinheiro.pdf: 2709642 bytes, checksum: f720a93925601ca802e5474df0a4501c (MD5)
Previous issue date: 2013 / Diversos projetos nacionais e internacionais, como o dados.gov.br e o Linking Open Data, foram desenvolvidos com a finalidade de fomentar a criação da Web de dados, que surge como uma nova abordagem para efetivamente publicar, recuperar e descrever dados distribuídos na Web. Diante desse cenário, tais projetos enfrentam o desafio de criar e manter os dados estruturados que seguem os princípios do Linked Data, descritos no modelo de dados RDF e representados por ontologias. Esse desafio envolve outras tarefas complexas, tais como: reusar o vocabulário das ontologias largamente utilizadas na elaboração de novas ontologias (com a finalidade de promover a interoperabilidade e a integração entre as aplicações) e permitir a detecção de inconsistências entre os termos de uma determinada ontologia. Com o objetivo de propor uma solução para esse desafio, o problema de gerenciamento de ontologias foi abordado nesta dissertação. Na literatura, existe uma grande variedade de trabalhos disponíveis com diferentes enfoques e processos que propõem o gerenciamento de ontologias. Entretanto, poucos trabalhos preocupam-se em auxiliar o especialista do domínio na elaboração de uma ontologia que representa um entendimento correto sobre a semântica das ontologias envolvidas, visto que, para isso faz-se necessário considerar as restrições lógicas das ontologias originais e propagá-las para as novas ontologias. Além disso, foi percebido que, nos trabalhos anteriores, existe a necessidade de utilizar várias ferramentas durante o processo de gerenciamento de ontologias, o que aumenta o esforço manual a ser despendido pelo especialista do domínio na elaboração de novas ontologias. Sendo assim, a fim de oferecer algumas funcionalidades diferenciadas e de modo integrado ao gerenciamento de ontologias, foi desenvolvido um protótipo, denominado OntologyManagementTool. O protótipo desenvolvido considera as ontologias não apenas como vocabulário, mas como teorias lógicas, isto é, leva em conta também o seu conjunto de restrições. Cada ontologia manipulada é primeiramente normalizada para atender ao formalismo da Lógica Descritiva, com um número específico de restrições. Posteriormente, essa ontologia é transformada em um grafo de restrições, e assim, é possível gerenciá-la a partir de um conjunto de operações algébricas sobre o grafo. Destacam-se as seguintes operações: união, interseção, diferença eprojeção. Após a execução de cada uma dessas operações, é possível obter uma nova ontologia, bem como, o mapeamento entre as ontologias envolvidas. O trabalho proposto teve a sua aplicabilidade comprovada a partir de experimentos executados em ontologias descrevendo fontes de dados reais. Os resultados obtidos mostraram que a complexidade para gerar o grafo de restrições é linear em relação ao número de restrições das ontologias; já a complexidade do processamento das operações algébricas (interseção, diferença e projeção) é quadrática em relação ao número de vértices do grafo de restrições, sendo importante evidenciar que o fator determinante para obtenção dessa complexidade é o procedimento escolhido para lidar com as restrições de inclusão, denominado fecho transitivo.
|
190 |
Sequências convergentes de estruturas discretas e testabilidade / Convergent sequences of discrete structures and testabilityBastos, Antonio Josefran de Oliveira January 2012 (has links)
BASTOS, Antonio Josefran de Oliveira. Sequências convergentes de estruturas discretas e testabilidade. 2012. 62 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2012. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-08T18:57:48Z
No. of bitstreams: 1
2007_dis_adbnogueira.pdf: 13756193 bytes, checksum: bb4a338bd2622ad6f90479ce37824ccd (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-13T13:31:42Z (GMT) No. of bitstreams: 1
2007_dis_adbnogueira.pdf: 13756193 bytes, checksum: bb4a338bd2622ad6f90479ce37824ccd (MD5) / Made available in DSpace on 2016-07-13T13:31:42Z (GMT). No. of bitstreams: 1
2007_dis_adbnogueira.pdf: 13756193 bytes, checksum: bb4a338bd2622ad6f90479ce37824ccd (MD5)
Previous issue date: 2012 / In this work, we studied the recent theory of convergent graph sequences and its extensions to permutation and partially ordered sets with fix dimension. We’ve conjectured a lemma of weak regularity on intervals that, if this conjecture is true, we can extend this theory to ordered graphs, which are graphs such that there is a total order on its vertices. We show some interesting relations on permutation and partially ordered sets with ordered graphs. Then, we obtain another proof to the existence of limit objects for all convergent permutation sequences. We also proved that all hereditary property of either permutation or ordered graph is testable. / Neste trabalho, estudamos a teoria recente de convergência de sequências de grafos e suas extensões para permutações e ordens parciais de dimensão fixa. Conjecturamos um lema de regularidade fraca de grafos em intervalos que, se for verdadeira, nos possibilita estender essa teoria para grafos ordenados, que são grafos tais que existe uma ordem total entre os vértices. Mostramos algumas relações interessantes de permutações e ordens parciais com grafos ordenados. Com isso, conseguimos uma prova alternativa para a existência de objetos limites de qualquer sequência convergente de permutações. Provamos também que toda propriedade hereditária de permutações ou grafos ordenados é testável.
|
Page generated in 0.0767 seconds