• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 1
  • Tagged with
  • 44
  • 35
  • 14
  • 12
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Estudo do risco sistêmico em redes interbancárias pela abordagem de sistemas complexos / Systemic risk study in interbank networks by complex systems approach

Eduardo de Souza Dias 25 November 2015 (has links)
O estudo econômico e financeiro vem se modificando e buscando novas metodologias. Desde a crise que se iniciou com os \"subprimes\" nos Estados Unidos em 2008 e se espalhou para as economias de todo o mundo, novas discussões de como ela poderia ter sido evitada e qual caminho deveriam os países seguir para sair da estagnação já surgem no mundo acadêmico em direção ao estudo da complexidade. Em termos econômicos, algumas críticas feitas ao estudo da economia tradicional, principalmente atribuídas ao excesso de restrições utilizados nos modelos, podem ser agora afrouxadas, uma a uma, através de modelagens baseadas em agentes. Já no entendimento e controle do risco financeiro, redes complexas prestam fundamental distinção. Os modelos até então utilizados para controle de riscos no mercado financeiro não levam em consideração o risco global, porém apenas o risco local. Muitas teorias sobre a diminuição do risco através da diversificação são aceitas e realmente produzem sistemas mais estáveis, porém com pouca resiliência, ou seja, o número de crises diminui, porém as que ocorrem são muito mais graves. Este trabalho sugeriu um modelo baseado em agentes, onde um sistema econômico simples foi construído, para ser capaz de gerar crises. Este modelo formado por firmas e demanda estocástica, utiliza bancos para simular o mercado financeiro. Tais bancos estão conectados entre si através de uma rede interbancária. Para testar os efeitos de risco sistêmico, foram realizados três testes. No primeiro aumentou-se a alavancagem máxima permitida e os bancos conseguiram obter mais lucro e maior crescimento, porém a partir de certo patamar o sistema entrou em colapso, com frequente crises. No segundo aumentou-se a conectividade média e os bancos também obtiveram maior lucro, porém com crises muito mais profundas. No aumento do índice de cluster da rede interbancária, assim como nos dois primeiros testes os bancos conseguiram maior crescimento, porém agora sem os mesmos efeitos indesejáveis causados pelo aumento do risco. / Economic and financial studies have been changing and searching new methodologies. Since the 2008 subprime crisis, which spread into economies around the globe, new discussions on how it could have been prevented, and paths which countries should follow to emerge from stagflation have been discussed by the academic world towards the complexity subject. In economic terms, some of the criticism of neoclassic economics, mainly due to excessive constrains used by its models, can now be eased, one by one, through agent based modeling. Regarding financial risk understanding and control, complex networks assume fundamental distinction. Models applied so far in financial market risk control dont consider global risk, but only the local one. Many theories on risk diversification are accepted and indeed produce more stable systems, although with little resilience, which means smaller number of crisis, but when it does occur, are more serious ones. This paper suggested an agent based model, using a simple economic system capable of generating crisis. This model was constituted by firms and stochastic demand, using banks to simulate the financial market. These banks were connected though a banking network. In order to test systemic risk, the model performed three tests. First, the maximum leverage allowed was increased and banks were able to achieve higher profits and growth, but from a certain level, the system collapsed with frequent crisis. Second, the average connectivity was increased and banks obtained higher profits, however with more severe crisis. Finally, increasing banking network cluster index, similarly to the first two tests, banks achieved higher growth, but without the undesirable effects caused by risk increase.
22

Paralelização do algoritmo DIANA com OpenMP e MPI / Parallelization of the DIANA algorithm with OpenMP and MPI

Ribeiro, Hethini do Nascimento 31 August 2018 (has links)
Submitted by HETHINI DO NASCIMENTO RIBEIRO (hethini.ribeiro@outlook.com) on 2018-10-08T23:20:34Z No. of bitstreams: 1 Dissertação_hethini.pdf: 1986842 bytes, checksum: f1d6e8b9be8decd1fb1e992204d2b2d0 (MD5) / Rejected by Elza Mitiko Sato null (elzasato@ibilce.unesp.br), reason: Solicitamos que realize correções na submissão seguindo as orientações abaixo: Problema 01) A FICHA CATALOGRÁFICA (Obrigatório pela ABNT NBR14724) está desconfigurada e falta número do CDU. Problema 02) Falta citação nos agradecimentos, segundo a Portaria nº 206, de 4 de setembro de 2018, todos os trabalhos que tiveram financiamento CAPES deve constar nos agradecimentos a expressão: "O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001 Problema 03) Falta o ABSTRACT (resumo em língua estrangeira), você colocou apenas o resumo em português. Problema 04) Na lista de tabelas, a página referente a Tabela 9 está desconfigurada. Problema 05) A cidade na folha de aprovação deve ser Bauru, cidade onde foi feita a defesa. Bauru 31 de agosto de 2018 Problema 06) A paginação deve ser sequencial, iniciando a contagem na folha de rosto e mostrando o número a partir da introdução, a ficha catalográfica ficará após a folha de rosto e não deverá ser contada. OBS:-Estou encaminhando via e-mail o template/modelo das páginas pré-textuais para que você possa fazer as correções da paginação, sugerimos que siga este modelo pois ele contempla as normas da ABNT Lembramos que o arquivo depositado no repositório deve ser igual ao impresso, o rigor com o padrão da Universidade se deve ao fato de que o seu trabalho passará a ser visível mundialmente. Agradecemos a compreensão on 2018-10-09T14:18:32Z (GMT) / Submitted by HETHINI DO NASCIMENTO RIBEIRO (hethini.ribeiro@outlook.com) on 2018-10-10T00:30:40Z No. of bitstreams: 1 Dissertação_hethini_corrigido.pdf: 1570340 bytes, checksum: a42848ab9f1c4352dcef8839391827a7 (MD5) / Approved for entry into archive by Elza Mitiko Sato null (elzasato@ibilce.unesp.br) on 2018-10-10T14:37:37Z (GMT) No. of bitstreams: 1 ribeiro_hn_me_sjrp.pdf: 1566499 bytes, checksum: 640247f599771152e290426a2174d30f (MD5) / Made available in DSpace on 2018-10-10T14:37:37Z (GMT). No. of bitstreams: 1 ribeiro_hn_me_sjrp.pdf: 1566499 bytes, checksum: 640247f599771152e290426a2174d30f (MD5) Previous issue date: 2018-08-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / No início desta década havia cerca de 5 bilhões de telefones em uso gerando dados. Essa produção global aumentou aproximadamente 40% ao ano no início da década passada. Esses grandes conjuntos de dados que podem ser capturados, comunicados, agregados, armazenados e analisados, também chamados de Big Data, estão colocando desafios inevitáveis em muitas áreas e, em particular, no campo Machine Learning. Algoritmos de Machine Learning são capazes de extrair informações úteis desses grandes repositórios de dados e por este motivo está se tornando cada vez mais importante o seu estudo. Os programas aptos a realizarem essa tarefa podem ser chamados de algoritmos de classificação e clusterização. Essas aplicações são dispendiosas computacionalmente. Para citar alguns exemplos desse custo, o algoritmo Quality Threshold Clustering tem, no pior caso, complexidade O(�������������5). Os algoritmos hierárquicos AGNES e DIANA, por sua vez, possuem O(n²) e O(2n) respectivamente. Sendo assim, existe um grande desafio, que consiste em processar grandes quantidades de dados em um período de tempo realista, encorajando o desenvolvimento de algoritmos paralelos que se adequam ao volume de dados. O objetivo deste trabalho é apresentar a paralelização do algoritmo de hierárquico divisivo DIANA. O desenvolvimento do algoritmo foi realizado em MPI e OpenMP, chegando a ser três vezes mais rápido que a versão monoprocessada, evidenciando que embora em ambientes de memória distribuídas necessite de sincronização e troca de mensagens, para um certo grau de paralelismo é vantajosa a aplicação desse tipo de otimização para esse algoritmo. / Earlier in this decade there were about 5 billion phones in use generating data. This global production increased approximately 40% per year at the beginning of the last decade. These large datasets that can be captured, communicated, aggregated, stored and analyzed, also called Big Data, are posing inevitable challenges in many areas, and in particular in the Machine Learning field. Machine Learning algorithms are able to extract useful information from these large data repositories and for this reason their study is becoming increasingly important. The programs that can perform this task can be called classification and clustering algorithms. These applications are computationally expensive. To cite some examples of this cost, the Quality Threshold Clustering algorithm has, in the worst case, complexity O (n5). The hierarchical algorithms AGNES and DIANA, in turn, have O (n²) and O (2n) respectively. Thus, there is a great challenge, which is to process large amounts of data in a realistic period of time, encouraging the development of parallel algorithms that fit the volume of data. The objective of this work is to present the parallelization of the DIANA divisive hierarchical algorithm. The development of the algorithm was performed in MPI and OpenMP, reaching three times faster than the monoprocessed version, evidencing that although in distributed memory environments need synchronization and exchange of messages, for a certain degree of parallelism it is advantageous to apply this type of optimization for this algorithm. / 1757857
23

Algoritmos exatos para o problema de edição de p-Clusters

Cabral, Lucidio dos Anjos Formiga 21 July 2015 (has links)
Submitted by Viviane Lima da Cunha (viviane@biblioteca.ufpb.br) on 2016-02-17T11:41:50Z No. of bitstreams: 1 arquivototal.pdf: 1276201 bytes, checksum: 9dd8fad80c483276a40101ee6a782d5b (MD5) / Made available in DSpace on 2016-02-17T11:41:50Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1276201 bytes, checksum: 9dd8fad80c483276a40101ee6a782d5b (MD5) Previous issue date: 2015-07-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work deals with the p-Cluster Editing Problem (p-CEP), which consists in performing a minimum number of editions (additions or removals of edges) in a graph G in order to transform it in a disjoint union of p cliques (clusters), where G and p are input data. p-CEP is a NP-Hard problem with applications in areas such as computational biology and machine learning. To solve this problem, we propose two new mathematical formulations and improvements in a formulation from the literature, as well as new valid inequalities. The three formulations were studied both theoretically, by comparing their linear relaxations, and practically, by implementing three exact algorithms: two based on Branch-and-Cut (BC) and one based on Branch-and-Price (BP). The proposed algorithms were tested in instances with up to 211 vertices. The results show the performance of the algorithms according to the graph density and the ratio between p and the number of vertices. Overall, the BC algorithms were superior to the BP algorithm. However, the latter obtained the best dual bounds in some instances. / Este trabalho trata do Problema de Edi¸c˜ao de p-Clusters (p-PEC), o qual consiste em realizar um n´umero m´ınimo de edi¸c˜oes (adi¸c˜oes ou remo¸c˜oes de arestas) em um grafo G de modo a transform´a-lo em uma uni˜ao disjunta de p cliques (ou clusters), sendo G e p dados de entrada. O p-PEC ´e um problema NP-Dif´ıcil que possui aplica¸c˜oes em ´areas como biologia computacional e aprendizagem de m´aquina. Para resolvˆe-lo, foram propostas duas novas formula¸c˜oes matem´aticas e melhorias em uma formula¸c˜ao proveniente da literatura, bem como novas desigualdades v´alidas. As trˆes formula¸c˜oes consideradas foram estudadas tanto teoricamente, atrav´es da compara¸c˜ao entre as relaxa¸c˜oes lineares, quanto empiricamente, atrav´es do desenvolvimento de trˆes algoritmos exatos: dois baseados em Branch-and-Cut (BC) e um baseado em Branch-and-Price (BP). Os algoritmos foram testados em instˆancias com at´e 211 v´ertices. Os resultados mostram o impacto da raz˜ao entre p e o n´umero de v´ertices, da densidade do grafo e das desigualdades nos desempenhos dos algoritmos. No geral, os algoritmos BC foram superiores ao algoritmo BP. Por´em, em algumas instˆancias, os melhores limites duais foram obtidos pelo algoritmo BP.
24

Abordagens meta-heurísticas para clusterização de dados e segmentação de imagens

Queiroga, Eduardo Vieira 17 February 2017 (has links)
Submitted by Fernando Souza (fernandoafsou@gmail.com) on 2017-08-14T11:28:15Z No. of bitstreams: 1 arquivototal.pdf: 7134434 bytes, checksum: a99ec0d172a3be38a844f44b70616b16 (MD5) / Made available in DSpace on 2017-08-14T11:28:15Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 7134434 bytes, checksum: a99ec0d172a3be38a844f44b70616b16 (MD5) Previous issue date: 2017-02-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Many computational problems are considered to be hard due to their combinatorial nature. In such cases, the use of exaustive search techniques for solving medium and large size instances becomes unfeasible. Some data clustering and image segmentation problems belong to NP-Hard class, and require an adequate treatment by means of heuristic techniques such as metaheuristics. Data clustering is a set of problems in the fields of pattern recognition and unsupervised machine learning which aims at finding groups (or clusters) of similar objects in a benchmark dataset, using a predetermined measure of similarity. The partitional clustering problem aims at completely separating the data in disjont and non-empty clusters. For center-based clustering methods, the minimal intracluster distance criterion is one of the most employed. This work proposes an approach based on the metaheuristic Continuous Greedy Randomized Adaptive Search Procedure (CGRASP). High quality results were obtained through comparative experiments between the proposed method and other metaheuristics from the literature. In the computational vision field, image segmentation is the process of partitioning an image in regions of interest (set of pixels) without allowing overlap. Histogram thresholding is one of the simplest types of segmentation for images in grayscale. Thes Otsu’s method is one of the most populars and it proposes the search for the thresholds that maximize the variance between the segments. For images with deep levels of gray, exhaustive search techniques demand a high computational cost, since the number of possible solutions grows exponentially with an increase in the number of thresholds. Therefore, metaheuristics have been playing an important role in finding good quality thresholds. In this work, an approach based on Quantum-behaved Particle Swarm Optimization (QPSO) were investigated for multilevel thresholding of available images in the literature. A local search based on Variable Neighborhood Descent (VND) was proposed to improve the convergence of the search for the thresholds. An specific application of thresholding for electronic microscopy images for microstructural analysis of cementitious materials was investigated, as well as graph algorithms to crack detection and feature extraction. / Muitos problemas computacionais s˜ao considerados dif´ıceis devido `a sua natureza combinat´oria. Para esses problemas, o uso de t´ecnicas de busca exaustiva para resolver instˆancias de m´edio e grande porte torna-se impratic´avel. Quando modelados como problemas de otimiza¸c˜ao, alguns problemas de clusteriza¸c˜ao de dados e segmenta¸c˜ao de imagens pertencem `a classe NP-Dif´ıcil e requerem um tratamento adequado por m´etodos heur´ısticos. Clusteriza¸c˜ao de dados ´e um vasto conjunto de problemas em reconhecimento de padr˜oes e aprendizado de m´aquina n˜ao-supervisionado, cujo objetivo ´e encontrar grupos (ou clusters) de objetos similares em uma base de dados, utilizando uma medida de similaridade preestabelecida. O problema de clusteriza¸c˜ao particional consiste em separar completamente os dados em conjuntos disjuntos e n˜ao vazios. Para m´etodos de clusteriza ¸c˜ao baseados em centros de cluster, minimizar a soma das distˆancias intracluster ´e um dos crit´erios mais utilizados. Para tratar este problema, ´e proposta uma abordagem baseada na meta-heur´ıstica Continuous Greedy Randomized Adaptive Search Procedure (C-GRASP). Resultados de alta qualidade foram obtidos atrav´es de experimentos envolvendo o algoritmo proposto e outras meta-heur´ısticas da literatura. Em vis˜ao computacional, segmenta¸c˜ao de imagens ´e o processo de particionar uma imagem em regi˜oes de interesse (conjuntos de pixels) sem que haja sobreposi¸c˜ao. Um dos tipos mais simples de segmenta¸c˜ao ´e a limiariza¸c˜ao do histograma para imagens em n´ıvel de cinza. O m´etodo de Otsu ´e um dos mais populares e prop˜oe a busca pelos limiares que maximizam a variˆancia entre os segmentos. Para imagens com grande profundidade de cinza, t´ecnicas de busca exaustiva possuem alto custo computacional, uma vez que o n´umero de solu¸c˜oes poss´ıveis cresce exponencialmente com o aumento no n´umero de limiares. Dessa forma, as meta-heur´ısticas tem desempenhado um papel importante em encontrar limiares de boa qualidade. Neste trabalho, uma abordagem baseada em Quantum-behaved Particle Swarm Optimization (QPSO) foi investigada para limiariza¸c˜ao multin´ıvel de imagens dispon´ıveis na literatura. Uma busca local baseada em Variable Neighborhood Descent (VND) foi proposta para acelerar a convergˆencia da busca pelos limiares. Al´em disso, uma aplica¸c˜ao espec´ıfica de segmenta¸c˜ao de imagens de microscopia eletrˆonica para an´alise microestrutural de materiais ciment´ıcios foi investigada, bem como a utiliza¸c˜ao de algoritmos em grafos para detec¸c˜ao de trincas e extra¸c˜ao de caracter´ısticas de interesse.
25

Uma estratégia baseada em perfis para suporte à formação de grupos de aprendizagem em EAD

Cunha , Felipe Oliveira Miranda 25 August 2016 (has links)
Submitted by Fernando Souza (fernandoafsou@gmail.com) on 2017-08-15T12:22:25Z No. of bitstreams: 1 arquivototal.pdf: 1993431 bytes, checksum: 37283e03fb49135caece1a8f1ca2ddbc (MD5) / Made available in DSpace on 2017-08-15T12:22:26Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1993431 bytes, checksum: 37283e03fb49135caece1a8f1ca2ddbc (MD5) Previous issue date: 2016-08-25 / In literature, much has been discussed about strategies that strengthen the collaborative learning process in Distance Education. Researches have investigated approaches in formation of groups in distance courses, which has allowed the scientific-academic community to try different ways to assign students to groups. However, literature has devoted little to investigate the contributions of distance education tutors to formation of groups. Furthermore, to define an approach in formation of groups to assure that most of the preferences are fulfilled is not an easy pedagogically task, because the characteristics and necessities of each class may vary. In front of this context, this paper aims to define an approach based on groups profiles, specified onwards the distance tutors preferences, to support the process of formation of learning groups. A systematic mapping study was carried out in the literature to identify the best practices in approaches to formation of groups. The profile and preferences of tutors of the course degree in Computer Science from Federal University of Paraíba were investigated. Group profiles were specified for further experiment in homogeneous grouping per Polo, heterogeneous grouping and complementary for programming skills from mathematical modeling and implementation of algorithm grouping. Finally, a case study was held with groups of students to evaluate the proposed approach and to analyze their performance in collaborative activity from distance. The results emphasize that the preferences of distance tutors allowed the definition of a coherent approach of formation of groups in this domain context of this present study. The grouping allowed to create homogeneous, heterogeneous and complementary groups onward educational platform Moodle data. It was applied the size restriction strategy on a partition resulting from the K-means algorithm, allowing to form homogeneous groups of uniform sizes. It was verified an increase in performance by 65.6% of the students in group activity, when compared to the performance in individual activity. / Na literatura, muito se tem discutido estratégias que fortaleçam o processo de aprendizagem colaborativa na Educação a Distância. Pesquisas têm investigado abordagens de formação de grupos em cursos à distância, o que tem permitido à comunidade científico-acadêmica experimentar diferentes maneiras de atribuir estudantes em grupos. Entretanto, a literatura pouco tem se dedicado a investigar as contribuições de tutores da Educação a Distância para formação de grupos. Além disso, definir uma abordagem de formação de grupos de forma a garantir que a maioria das preferências seja atendida não é uma tarefa pedagogicamente fácil, pois as características e as necessidades de cada turma podem variar. Diante desse contexto, este trabalho objetiva definir uma abordagem baseada em perfis de grupos, especificados a partir de preferências de tutores a distância, para apoiar o processo de formação de grupos de aprendizagem. Realizou-se estudo de mapeamento sistemático na literatura para identificar as melhores práticas em abordagens para formação de grupos. Investigou-se o perfil e as preferências dos tutores do curso de Licenciatura em Computação da Universidade Federal da Paraíba. Especificou-se perfis de grupos para posterior experimento em agrupamento homogêneo por Polo, agrupamento heterogêneo e complementar por habilidades em programação a partir da modelagem matemática e implementação de algoritmo de agrupamento. Realizou-se, por fim, estudo de caso com grupos de estudantes para avaliar a abordagem proposta e analisar o desempenho deles em atividade colaborativa à distância. Os resultados evidenciam que as preferências de tutores a distância permitiram a definição de uma abordagem de formação de grupos coerente ao contexto do domínio do presente estudo. O agrupamento permitiu criar grupos homogêneos, heterogêneos e complementares a partir de dados educacionais da plataforma Moodle. Foi aplicada a estratégia de restrição de tamanho sobre uma partição resultante do algoritmo K-médias, possibilitando formar grupos homogêneos de tamanhos uniformes. Verificou-se um aumento no desempenho em 65,6% dos estudantes em atividade em grupo, quando comparado ao desempenho em atividade individual.
26

Definição de zonas de manejo utilizando algoritmo de agrupamento fuzzy c-means com variadas métricas de distâncias / Management zones definition using the clustering algorithm fuzzy c-means with associated varied distance metrics

Fontana, Fabiane Sorbar 19 July 2017 (has links)
Submitted by Neusa Fagundes (neusa.fagundes@unioeste.br) on 2018-06-15T20:19:22Z No. of bitstreams: 2 Fabiane_Fontana2018.pdf: 2677532 bytes, checksum: 3036328537227cc96b8ea368e893f2fc (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-06-15T20:19:22Z (GMT). No. of bitstreams: 2 Fabiane_Fontana2018.pdf: 2677532 bytes, checksum: 3036328537227cc96b8ea368e893f2fc (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-07-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Precision Agriculture (AP) uses technologies aimed at increasing productivity and reducing environmental impact through localized application of agricultural inputs. In order to make AP economically feasible, it is essential to improve current methodologies, as well as to propose new ones, such as the design of management areas (MZs) from productivity data, topographic, and soil attributes, among others, to determine which are heterogeneous subareas among themselves in the same area. In this context, the main objective of this research was to evaluate three distance metrics (Diagonal, Euclidian, and Mahalanobis) through FUZME and SDUM software (for the definition of management units) using the fuzzy c-means algorithm, and, at a further moment, to evaluate the cultures of soybeans and corn, as well as the association between them. On the first scientific paper, using data corresponding to four distinct areas, the three metrics with original and normalized data associated with soybean yield were evaluated. For area A, the Diagonal and Mahalanobis distances exempted the need for normalization of the variables, presenting areas that were identical for both versions. After the normalization of the data, the Euclidian distance presented a better delineation in its MZs for area A. For areas B, C, and D it was not possible to reach conclusions regarding the best performance, since only one variable was used for the process of MZs, and that has directly influenced the results. On the second scientific paper, data corresponding to three distinct areas were applied to analyze the use of soybean and corn yields, as well as the association between them, in the selection of variables to define MZs. Based on the variables available for each of the areas, the selection was carried out using the spatial correlation method, considering, for each one of the areas, the three target yields (soybean, corn, and soybean+corn). The type of productivity used demonstrated two different outcomes: first in the variable selection process, where its alternation resulted in different selections for the same area, and second, in the evaluation of the defined MZs, where even when the same variables were selected in the definition of the MZs, the performances of the MZs were different. After the validation methods applied, it was verified that the best target yield was soybean+corn, reasserting the idea of being better to use these two cultures, together, when defining the MZs of an area with rotating crops of soybean and corn. / A Agricultura de Precisão (AP) utiliza tecnologias objetivando o aumento da produtividade e redução do impacto ambiental por meio de aplicação localizada de insumos agrícolas. Para viabilizar economicamente a AP, é essencial aprimorar as metodologias atuais, bem como propor novas, como, por exemplo, o delineamento de zonas de manejo (ZMs) a partir de dados de produtividade, atributos topográficos e do solo, entre outros, utilizados a fim de determinar subáreas heterogêneas entre si em uma mesma área. Neste contexto, este trabalho teve como principal objetivo avaliar três métricas de distâncias (Diagonal, Euclidiana e Mahalanobis) junto aos Softwares FUZME e SDUM (Software para a definição de unidades de manejo), que utilizam o algoritmo fuzzy c-means, e, em um segundo momento, avaliar também as culturas de soja e milho, assim como a associação entre elas. No primeiro artigo, utilizando dados correspondentes a quatro áreas distintas, avaliaram-se as três métricas com dados originais e normalizados associados à produtividade de soja. Para a área A, as distâncias Diagonal e Mahalanobis dispensaram a necessidade de normalização das variáveis, apresentando áreas idênticas para as duas versões. Após a normalização dos dados, a distância Euclidiana apresentou um melhor delineamento em suas ZMs para a área A. Para as áreas B, C e D não foi possível obter conclusões quanto ao melhor desempenho, visto que o fato de ser utilizado apenas uma variável para o processo de definição de ZMs influenciou diretamente nos resultados obtidos. No segundo artigo, dados correspondentes a três áreas distintas foram utilizados para analisar o uso de produtividades de soja e milho, assim como a associação entre elas, na seleção de variáveis para definição de ZMs. A partir das variáveis disponíveis para cada uma das áreas foi realizada a seleção destas através do método da correlação espacial, levando em consideração, para cada uma das áreas, as três produtividades-alvo (soja, milho e soja+milho). O tipo de produtividade utilizada repercutiu de duas formas diferentes: primeiro no processo de seleção de variáveis, onde a sua alternância resultou em seleções diferenciadas para uma mesma área; e em um segundo momento, na avaliação das ZMs definidas, onde mesmo quando as mesmas variáveis foram selecionadas na definição das ZMs, os desempenhos das ZMs foram diferentes. Após os métodos de validação aplicados, verificou-se que a melhor produtividade-alvo foi soja+milho, reforçando a ideia de ser útil a utilização destas duas culturas, em conjunto, na definição das ZMs de uma área com alternância de produção de soja e milho.
27

Um modelo dinâmico de clusterização de dados aplicado na detecção de intrusão

Rogério Akiyoshi Furukawa 25 April 2003 (has links)
Atualmente, a segurança computacional vem se tornando cada vez mais necessária devido ao grande crescimento das estatísticas que relatam os crimes computacionais. Uma das ferramentas utilizadas para aumentar o nível de segurança é conhecida como Sistemas de Detecção de Intrusão (SDI). A flexibilidade e usabilidade destes sistemas têm contribuído, consideravelmente, para o aumento da proteção dos ambientes computacionais. Como grande parte das intrusões seguem padrões bem definidos de comportamento em uma rede de computadores, as técnicas de classificação e clusterização de dados tendem a ser muito apropriadas para a obtenção de uma forma eficaz de resolver este tipo de problema. Neste trabalho será apresentado um modelo dinâmico de clusterização baseado em um mecanismo de movimentação dos dados. Apesar de ser uma técnica de clusterização de dados aplicável a qualquer tipo de dados, neste trabalho, este modelo será utilizado para a detecção de intrusão. A técnica apresentada neste trabalho obteve resultados de clusterização comparáveis com técnicas tradicionais. Além disso, a técnica proposta possui algumas vantagens sobre as técnicas tradicionais investigadas, como realização de clusterizações multi-escala e não necessidade de determinação do número inicial de clusters / Nowadays, the computational security is becoming more and more necessary due to the large growth of the statistics that describe computer crimes. One of the tools used to increase the safety level is named Intrusion Detection Systems (IDS). The flexibility and usability of these systems have contributed, considerably, to increase the protection of computational environments. As large part of the intrusions follows behavior patterns very well defined in a computers network, techniques for data classification and clustering tend to be very appropriate to obtain an effective solutions to this problem. In this work, a dynamic clustering model based on a data movement mechanism are presented. In spite of a clustering technique applicable to any data type, in this work, this model will be applied to the detection intrusion. The technique presented in this work obtained clustering results comparable to those obtained by traditional techniques. Besides the proposed technique presents some advantages on the traditional techniques investigated, like multi-resolution clustering and no need to previously know the number of clusters
28

Um sistema híbrido inteligente para previsão de posição de átomos de hidrogênio em proteínas / A hybrid intelligent system for prediction of position of the hydrogen atoms in proteins

Adauto Luiz Mancini 29 April 2008 (has links)
Os métodos existentes para a previsão da posição de átomos de hidrogênio em proteínas são todos baseados na simulação computacional de modelos construídos a partir de características físicas e (ou) químicas das moléculas. A abordagem proposta neste trabalho faz uso de técnicas inteligentes para a predição da posição de átomos de hidrogênio contidos em grupos hidroxilas (OH) pertencentes à cadeias laterais dos aminoácidos serina, treonina e tirosina. Estas técnicas inteligentes são utilizadas em duas fases para a solução do problema proposto: o preprocessamento dos dados e a predição da posição do átomo de hidrogênio. Na fase de preprocessamento, informações sobre os padrões de ligações hidrogênio existentes em moléculas de proteínas são extraídas da base PDB (Protein Data Bank) e reunidas em agrupamentos. A base de dados PDB é a principal base internacional que disponibiliza publicamente a estrutura espacial de biomoléculas, principalmente proteínas e ácidos nucléicos, cujas estruturas espacias foram determinadas através de métodos experimentais. Os padrões de ligações hidrogênio obtidos da base de dados são agrupados por similaridade através de um novo algoritimo proposto, o algoritmo de agrupamento por fusão. Este novo algoritmo de agrupamento foi criado com o propósito de tratar dados com distribuição não uniforme, isolando padrões de entrada muito diferentes da média em agrupamento separados. Após o agrupamento, os padrões de ligações hidrogênio contidos em um grupo têm suas estruturas espaciais superpostas (alinhamento das geometrias dos padrões) através de operações espaciais de translação e rotações, coordenadas pelo uso de um algoritmo genético. Na fase de predição, os padrões já superpostos contidos em cada agrupamento gerado, são utilizados para o treinamento de uma rede neural de arquitetura MLP (multi layer perceptron) para a predição da posição do átomo de hidrogênio contido no padrão. Uma parte dos padrões contidos no agrupamento não são usados para o treinamento da rede e reservados para o teste da capacidade da rede neural inferir a posição do hidrogênio após o treinamento. Para cada agrupamento é treinada uma rede individual, de forma que os parâmetros livres da rede neural sejam calibrados para os dados específicos do agrupamento para o qual a rede neural foi treinada. Após diversas alterações de metodogia ao longo dos experimentos computacionais realizados, a nova abordagem proposta mostrouse eficaz, com um bom índice de acerto na predição da posição do hidrogênio após o treino da rede neural, para padrões de ligações hidrogênio previamente superpostos em agrupamentos / The existing methods for the prediction of the position of hydrogen atoms in proteins are all based on computer simulation models constructed from physical and(or) chemical properties of molecules. The approach proposed in this paper makes use of intelligent techniques for clustering the patterns of hydrogen bonds by similarity, these patterns extracted from the spatial structure of protein molecules, recorded in the files of the PDB (Protein Data Bank). A new algorithm, which allows clustering of data with nonuniform distribution was developed for this purpose. To align spatialy these patterns already grouped in a cluster is used a genetic algorithm that rotates the patterns each other in a way to obtain the aligment of them. The prediction of the position of atoms of hydrogen is done by the training of a MLP (multi layer perceptron) neural network that uses as input the data of the patterns of hydrogen bond contained in a given cluster, previously aligned. The new approach proved to be effective, with a good rate of success in the prediction of the position of hydrogen atoms contained in a cluster after training the neural network
29

Clustering-driven equipment deployment planner and analyzer for wireless non-mobile networks applied to smart grid scenarios / Planejador e analisador de implantação de equipamento acionado por cluster para redes sem fio não móveis aplicadas a cenários de smart grid

VRBSKÝ, Ladislav 16 March 2018 (has links)
Submitted by Kelren Mota (kelrenlima@ufpa.br) on 2018-06-13T19:10:51Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Clustering-DrivenEquipament.pdf: 3943251 bytes, checksum: d4f4bb67f5ccb99e089a085eb18d8222 (MD5) / Approved for entry into archive by Kelren Mota (kelrenlima@ufpa.br) on 2018-06-13T19:12:03Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Clustering-DrivenEquipament.pdf: 3943251 bytes, checksum: d4f4bb67f5ccb99e089a085eb18d8222 (MD5) / Made available in DSpace on 2018-06-13T19:12:03Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Clustering-DrivenEquipament.pdf: 3943251 bytes, checksum: d4f4bb67f5ccb99e089a085eb18d8222 (MD5) Previous issue date: 2018-03-16 / Os modernos sistemas elétricos de potência, conhecidos como smart grids, contam com vários avanços, sendo um deles a introdução de comunicação bidirecional. Em alguns casos, os dados trocados na rede s~ao de importância crítica. As transmissões de dados devem atender aos limites de atraso específicos estabelecidos pelas agências reguladoras para que o smart grid funcione corretamente. O cumprimento desses padrões permite o uso de novas aplicações de monitoramento, controle e proteção do sistema, que resultam em um sistema elétrico mais e ciente, estável e ecológico. Esta tese apresenta uma metodologia para análise e planejamento de redes de comunicação sem o para smart grid que usa um algoritmo de clusterização para determinar as posições ideais dos pontos de acesso e gateways da rede a serem instalados. Depois, calcula o atraso para cada dispositivo eletrônico inteligente que atua como o assinante da rede. Desta forma, uma análise pode ser feita para obter a qualidade de serviço almejada para uma determinada con figuração de rede específica em um cenário específico co. Os resultados obtidos no estudo de caso realizado mostram, que é possível alcançar uma topologia de rede, que satisfaça os requisitos de atraso máximo de 100% dos seus assinantes, usando WiMAX ou uma combinação de Wi-Fi e WiMAX. Além disso, a tese explora um modo de comunicação restrito que pode suspender temporariamente as transferências de dados não críticos. Na maioria das con figurações de cenário, o modo restrito entrega todos os dados dentro do prazo máximo. A implementação do software do modelo proposto é disponibilizada publicamente sob licença open-source, para que qualquer pessoa, incluindo pesquisadores, ou empresas privadas e públicas, possa aproveitá-lo. O modelo apresentado nesta dissertação é customizável, permitindo o uso de outras tecnologias e ser usado com outras redes, inclusive para cenários que não são relacionados ao smart grid. / The modern power grids, known as smart grids, rely on various advancements, one of them being the introduction of bi-directional communication. In some cases, data exchanged in the network is of critical importance. The data transmissions need to meet speci c delay limits set by the regulatory agencies in order for the smart grid to function properly. Meeting these standards allows the use of new applications of monitoring, control and system protection, resulting in a more e cient, stable and environment-friendly system. This thesis presents a methodology for analysis and planning of wireless communication networks for smart grid, which uses a clustering algorithm to determine the optimal positions of the routers and gateways of the network to be installed. After, it calculates the delay for each Intelligent Eletronic Device that is a network subscriber. This way, an analysis can be made to obtain the Quality of Service requested for a speci c network setup in a speci c scenario. The results obtained in the performed case study show that it is possible to achieve a network topology that satis es the maximum delay requirements of 100% of its subscribers, using WiMAX or a combination of Wi-Fi and WiMAX. Also, the thesis explores a restricted communication mode that can temporarily suspend the transferences of non-critical data. In most scenario con gurations, the restricted mode delivers all the data within the maximum delay. The software implementation of the proposed model is made publicly available under open-source license, so that anyone, including researchers, or private and public companies, can take advantage of it. The model presented in this thesis is customizable, allowing the use of other technologies and be used with other networks, including scenarios that are not related to smart grid.
30

Agrupamento de curvas de carga para redução de bases de dados utilizadas na previsão de carga de curto prazo / Clustering of load profiles for short term load forecasting

Muller, Marcos Ricardo 21 February 2014 (has links)
Made available in DSpace on 2017-07-10T17:11:46Z (GMT). No. of bitstreams: 1 DISSERTACAO Marcos Muller2.pdf: 3169941 bytes, checksum: 9c51b1da2e6c3f07726daa30c819efbb (MD5) Previous issue date: 2014-02-21 / Fundação Parque Tecnológico Itaipu / This work presents the use of clustering techniques in load curves for the similar days method for load forecasting, in order to obtain a reduced data to achieve a faster computational algorithm, while achieving similar or superior performance compared to those obtained by the traditional method that makes use of the original data set. The method allows to perform similar day load forecasting using short-term historical data from the consumption of electricity at consumers level, and related data, which allow tracing analogies to a future day. Conventional implementations of the method are used for comparison and validation. The scenario that provides the data for the studies, as well as the equipment, and data preprocessing stage, are presented. The methodology is validated using the cluster silhoute analysis. With the MAPE values was possible to verify the forecast, indicating superiority of the method based on clustered load curves. / Este trabalho apresenta a utilização de clusterização de curvas de carga do nível menos agregado para o método de dias similares, com o objetivo de obter conjuntos reduzidos de dados que imponham menores cargas computacionais ao algoritmo de previsão, e permitir ainda, desempenhos similares ou superiores quando comparados aos obtidos pelo método de dias similares que faz uso do conjunto original de dados. O método de dias similares permite realizar previsão de carga de curtíssimo prazo a partir de dados históricos de consumo de energia elétrica, além de dados correlatos, que permitem traçar analogias com um dia futuro. Implementações convencionais do mesmo método são utilizadas para comparação de resultados. O cenário que fornece os dados para os estudos, assim como os equipamentos empregados e a etapa de pré-processamento de dados são apresentadas. A análise de silhuetas de cluster foi empregada com o objetivo de validar os agrupamentos. Por meio do cálculo do MAPE foi possível verificar a assertividade das previsões, indicando superioridade daquela baseada nas curvas de carga clusterizadas.

Page generated in 0.3607 seconds