• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 403
  • 34
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 1
  • Tagged with
  • 449
  • 206
  • 141
  • 134
  • 96
  • 92
  • 82
  • 78
  • 74
  • 74
  • 65
  • 64
  • 41
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Escalonamento hieráquico de tarefas do tipo Bag-Of-Tasks com compartilhamento de Arquivos

Viotti, Flávio 22 September 2008 (has links)
Made available in DSpace on 2015-02-04T21:45:26Z (GMT). No. of bitstreams: 1 Flavio Viotti.pdf: 1730754 bytes, checksum: f35e841f26e66594080afaa5ef6d730b (MD5) Previous issue date: 2008-09-22 / Aplicações Bag-of-Tasks compostas por tarefas independentes que compartilham arquivos são frequentes em diversas areas da ciência. Exemplos de tais aplicações incluem buscas massivas (como por exemplo, quebramento de chaves), mineração de dados, simulação pelo método de Monte Carlo, manipulação de imagens, entre outros. Grades computacionais são bastante favoráveis para a execução desse tipo de aplicação, provendo capacidade computacional através da agregação de recursos distribuídos. Entretanto, a baixa escalabilidade frequentemente limita o desempenho na execução de tais aplicações. Esta dissertação apresenta uma proposta de implementação de um escalonador de tarefas para grades computacionais, que tem como principal objetivo melhorar a escalabilidade de aplicaçõess Bag-of-Tasks que compartilham arquivos, coordenando de forma mais eficiente a transferência de arquivos pela rede e a distribuição das tarefas entre as máquinas que compoem a grade, com o objetivo de melhorar a escalabilidade das aplicações. As técnicas de escalonamento hierárquico e de agrupamento de tarefas são implementadas pelo escalonador, e resultados experimentais mostram que a implementação proposta permite ganhos de desempenho.
122

M?todos de clusteriza??o para apoio ? classifica??o est?tica de documentos

Primo, Tiago Thompsen 24 March 2008 (has links)
Made available in DSpace on 2015-04-14T14:49:01Z (GMT). No. of bitstreams: 1 406128.pdf: 16056423 bytes, checksum: d4b22e3a871de544238db5630e9a295f (MD5) Previous issue date: 2008-03-24 / Neste trabalho ser?o abordados estudos referentes ? classifica??o de grande quantidade de documentos de conte?do vari?vel. Em tal processo quando um grande n?mero de documentos ? gerado, existe a necessidade de um usu?rio verific?-los um a um com a inten??o de separ?-los em bons (com pouco ou nenhum problema estrutural) ou ruins (que possuem problemas estruturais), processo este considerado lento e oneroso. Considerando este problema, neste trabalho foi desenvolvida uma ferramenta de classifica??o est?tica de documentos que visa reduzir esta interven??o humana. A ferramenta desenvolvida ? baseada em m?tricas que avaliam o quanto um documento automaticamente gerado difere de seu template, criando para cada um destes documentos uma assinatura baseada nas t?cnicas de fingerprint, objetivando primeiramente distingui-los entre si para ent?o utilizar t?cnicas de clusteriza??o criando grupos de documentos com caracter?sticas semelhantes. O algoritmo K-Med?ides ? usado para fazer tal agrupamento, tal algoritmo funciona criando grupos de objetos considerando um destes como base para a cria??o de cada cluster. A id?ia deste trabalho ? reduzir a interven??o humana fazendo com que um usu?rio classifique em bom ou ruim apenas determinados documentos de cada grupo formado pelo algoritmo de clusteriza??o. S?o tamb?m apresentados resultados de quatro experimentos realizados com esta ferramenta avaliando as contribui??es para diminuir a interven??o humana no processo de classifica??o de documentos.
123

Estudo cardiológico exploratório de cães acometidos por insuficiência cardíaca congestiva, da classe II, por degeneração mixomatosa mitral (ISACHC) /

Navarrete Ampuero, Roberto Andrés. January 2017 (has links)
Orientador: Aparecido Antônio Camacho / Banca: Evandro Zacché Pereira / Banca: Maria Lucia Gomes Lourenço / Banca: Antonio Sergio Ferraudo / Banca: Aureo Evangelista Santana / Resumo: Cães com degeneração mixomatosa da válvula mitral (DMVM) estadiados na classe II-ISACHC da insuficiência cardíaca congestiva apresentam diversas alterações dentro do estágio clínico. Evidenciando-se um ou mais sinais clínicos, aumento de câmaras cardíacas, alterações no ritmo e frequência cardíaca, bem como variabilidade da frequência cardíaca, relacionando-se ao maior ou menor predomínio do sistema nervoso autonômico parassimpático. O objetivo deste estudo foi determinar a possível existência de subclasses dentro da classe II e conhecer as variáveis que diferenciariam estas subclasses. Foram utilizadas vinte e duas variáveis na análise multivariada de 15 cães pertencentes à classe II-ISACHC da ICC. Por meio da análise de agrupamento pelo método hierárquico e não hierárquico, foram determinadas três subclasses excludentes (subclasse S1, subclasse S2 e subclasse S3). Foi possível relacionar a subclasse S1 com as variáveis de variabilidade da frequência cardíaca (e.g. NNm, PNN>50%), a subclasse S3 com as variáveis de remodelamento cardíaco (e. g. AE/Ao, DIVEd/Ao, FE%) e a subclasse S2 com câmara ventricular direita (e.g. DIVDd/Ao). Posterior à análise exploratória de fatores foram determinados três fatores (PSNA, RCFS e VDST) que relacionam as variáveis inclusas em cada fator com as subclasses. O PSNA incluiu as variáveis de variabilidade da frequência cardíaca e frequência cardíaca, o RCFS incluiu as variáveis de remodelamento cardíaco e função sistólica e o VDST integra a câm... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The dogs with myxomatous mitral valve degeneration (MMVD) staged in class II-ISACHC of congestive heart failure (CHF) have several changes within the clinical stage. Evidencing one more clinical signs, increased heart chambers, changes in heart rate and rhythm, changes in heart rate variability relating to the greater or lesser prevalence of the parasympathetic autonomic nervous system. The objective of this study was to determine the possible existence of subclasses within class II and to know the variables that would differentiate these subclasses. Twenty-two variables were used in the multivariate analysis of 15 dogs, class II of CH. Using hierarchical and non-hierarchical clustering, three exclusive subclasses (S1, S2 and S3) were determined. It was possible to relate subclass S1 to heart rate variability variables (e.g. NNm, PNN>50%), subclass S3 with cardiac remodeling variables (e.g. LA/Ao, LVDd/Ao, EF%) and subclass S2 with right ventricular chamber (e.g. RVDd/Ao). After analysis of factors were determined three factors (PSNA, RCFS and VDST) that relate the variables with the subclasses. The PSNA included variables of heart rate and heart rate variability, the RCFS contained the variables of cardiac remodeling and systolic function and the VDST enclosed the right ventricular chamber. The analysis of variance of the factors compared by subclasses determined that subclass S1 has higher values of PSNA when compared to subclasses S2 and S3. The subclass S3 had higher val... (Complete abstract click electronic access below) / Doutor
124

Análise do número de grupos em bases de dados incompletas utilizando agrupamentos nebulosos e reamostragem Bootstrap / Analysis the number of clusters present in incomplete datasets using a combination of the fuzzy clustering and resampling bootstrapping

Milagre, Selma Terezinha 18 July 2008 (has links)
A técnica de agrupamento de dados é amplamente utilizada em análise exploratória, a qual é frequentemente necessária em diversas áreas de pesquisa tais como medicina, biologia e estatística, para avaliar potenciais hipóteses a serem utilizadas em estudos subseqüentes. Em bases de dados reais, a ocorrência de dados incompletos, nos quais os valores de um ou mais atributos do dado são desconhecidos, é bastante comum. Este trabalho apresenta um método capaz de identificar o número de grupos presentes em bases de dados incompletas, utilizando a combinação das técnicas de agrupamentos nebulosos e reamostragem bootstrap. A qualidade da classificação é baseada em medidas de comparação tradicionais como F1, Classificação Cruzada, Hubert e outras. Os estudos foram feitos em oito bases de dados. As quatro primeiras são bases de dados artificiais, a quinta e a sexta são a wine e íris. A sétima e oitava bases são formadas por uma coleção brasileira de 119 estirpes de Bradyrhizobium. Para avaliar toda informação sem introduzir estimativas, fez-se a modificação do algoritmo Fuzzy C-Means (FCM) utilizando-se um vetor de índices de atributos, os quais indicam onde o valor de um atributo é observado ou não, modificando-se ento, os cálculos do centro e distância ao centro. As simulações foram feitas de 2 até 8 grupos utilizando-se 100 sub-amostras. Os percentuais de valores faltando utilizados foram 2%, 5%, 10%, 20% e 30%. Os resultados deste trabalho demonstraram que nosso método é capaz de identificar participações relevantes, até em presença de altos índices de dados incompletos, sem a necessidade de se fazer nenhuma suposição sobre a base de dados. As medidas Hubert e índice randômico ajustado encontraram os melhores resultados experimentais. / Clustering in exploratory data analysis is often necessary in several areas of the survey such as medicine, biology and statistics, to evaluate potential hypotheses for subsequent studies. In real datasets the occurrence of incompleteness, where the values of some of the attributes are unknown, is very common. This work presents a method capable to identifying the number of clusters present in incomplete datasets, using a combination of the fuzzy clustering and resampling (bootstrapping). The quality of classification is based on the traditional measures, like F1, Cross-Classification, Hubert and others. The studies were made on eigth datasets. The first four are artificial datasets, the fifth and sixth are the wine and iris datasets. The seventh and eighth databases are composed of the brazilian collection of 119 Bradyrhizobium strains. To evaluate all information without introducing estimates, a modification of the Fuzzy C-Means (FCM) algorithm was developed using an index vector of attributes, which indicates whether an attribute value is observed or not, and changing the center and distance calculations. The simulations were made from 2 to 8 clusters using 100 sub-samples. The percentages of the missing values used were 2%, 5%, 10%, 20% and 30%. Even lacking data and with no special requirements of the database, the results of this work demonstrate that the proposed method is capable to identifying relevant partitions. The best experimental results were found using Hubert and corrected randomness measures.
125

Aprendizado de máquina com informação privilegiada: abordagens para agrupamento hierárquico de textos / Machine learning with privileged information: approaches for hierarchical text clustering

Marcacini, Ricardo Marcondes 14 October 2014 (has links)
Métodos de agrupamento hierárquico de textos são muito úteis para analisar o conhecimento embutido em coleções textuais, organizando os documentos textuais em grupos e subgrupos para facilitar a exploração do conhecimento em diversos níveis de granularidade. Tais métodos pertencem à área de aprendizado não supervisionado de máquina, uma que vez obtêm modelos de agrupamento apenas pela observação de regularidades existentes na coleção textual, sem supervisão humana. Os métodos tradicionais de agrupamento assumem que a coleção textual é representada apenas pela informação técnica, ou seja, palavras e frases extraídas diretamente dos textos. Por outro lado, em muitas tarefas de agrupamento existe conhecimento adicional e valioso a respeito dos dados, geralmente extraído por um processo avançado com apoio de usuários especialistas do domínio do problema. Devido ao alto custo para obtenção desses dados, esta informação adicional é definida como privilegiada e usualmente está disponível para representar apenas um subconjunto dos documentos textuais. Recentemente, um novo paradigma de aprendizado de máquina denominado LUPI (Learning Using Privileged Information) foi proposto por Vapnik para incorporar informação privilegiada em métodos aprendizado supervisionado. Neste trabalho de doutorado, o paradigma LUPI foi estendido para aprendizado não supervisionado, em especial, para agrupamento hierárquico de textos. Foram propostas e avaliadas abordagens para lidar com diferentes desafios existentes em tarefas de agrupamento, envolvendo a extração e estruturação da informação privilegiada e seu uso para refinar ou corrigir modelos de agrupamento. As abordagens propostas se mostraram eficazes em (i) consenso de agrupamentos, permitindo combinar diferentes representações e soluções de agrupamento; (ii) aprendizado de métricas, em que medidas de proximidades mais robustas foram obtidas com base na informação privilegiada; e (iii) seleção de modelos, em que a informação privilegiada é explorada para identificar relevantes estruturas de agrupamento hierárquico. Todas as abordagens apresentadas foram investigadas em um cenário de agrupamento incremental, permitindo seu uso em aplicações práticas caracterizadas pela necessidade de eficiência computacional e alta frequência de publicação de novo conhecimento textual. / Hierarchical text clustering methods are very useful to analyze the implicit knowledge in textual collections, enabling the organization of textual documents into clusters and subclusters to facilitate the knowledge browsing at various levels of granularity. Such methods are classified as unsupervised machine learning, since the clustering models are obtained only by observing regularities of textual data without human supervision. Traditional clustering methods assume that the text collection is represented only by the technical information, i.e., words and phrases extracted directly from the texts. On the other hand, in many text clustering tasks there is an additional and valuable knowledge about the problem domain, usually extracted by an advanced process with support of the domain experts. Due to the high cost of obtaining such expert knowledge, this additional information is defined as privileged and is usually available to represent only a subset of the textual documents. Recently, a new machine learning paradigm called LUPI (Learning Using Privileged Information) was proposed by Vapnik to incorporate privileged information into supervised learning methods. In this thesis, the LUPI paradigm was extended to unsupervised learning setting, in particular for hierarchical text clustering. We propose and evaluate approaches to deal with different challenges for clustering tasks, involving the extraction and structuring of privileged information and using this additional information to refine or correct clustering models. The proposed approaches were effective in (i) consensus clustering, allowing to combine different clustering solutions and textual representations; (ii) metric learning, in which more robust proximity measures are obtained from privileged information; and (iii) model selection, in which the privileged information is exploited to identify the relevant structures of hierarchical clustering. All the approaches presented in this thesis were investigated in an incremental clustering scenario, allowing its use in practical applications that require computational efficiency as well as deal with high frequency of publication of new textual knowledge.
126

Um estudo sobre agrupamento de documentos textuais em processamento de informações não estruturadas usando técnicas de "clustering" / A study about arrangement of textual documents applied to unstructured information processing using clustering techniques

Wives, Leandro Krug January 1999 (has links)
Atualmente, técnicas de recuperação e análise de informações, principalmente textuais, são de extrema importância. Após o grande BOOM da Internet, muitos problemas que já eram conhecidos em contextos fechados passaram a preocupar também toda a comunidade científica. No âmbito deste trabalho os problemas relacionados à sobrecarga de informações, que ocorre devido ao grande volume de dados a disposição de uma pessoa, são os mais importantes. Visando minimizar estes problemas, este trabalho apresenta um estudo sobre métodos de agrupamento de objetos textuais (documentos no formato ASCII), onde os objetos são organizados automaticamente em grupos de objetos similares, facilitando sua localização, manipulação e análise. Decorrente deste estudo, apresenta-se uma metodologia de aplicação do agrupamento descrevendo-se suas diversas etapas. Estas etapas foram desenvolvidas de maneira que após uma ter sido realizada ela não precisa ser refeita, permitindo que a etapa seguinte seja aplicada diversas vezes sobre os mesmos dados (com diferentes parâmetros) de forma independente. Além da metodologia, realiza-se um estudo comparativo entre alguns algoritmos de agrupamento, inclusive apresentando-se um novo algoritmo mais eficiente. Este fato é comprovado em experimentos realizados nos diversos estudos de caso propostos. Outras contribuições deste trabalho incluem a implementação de uma ferramenta de agrupamento de textos que utiliza a metodologia elaborada e os algoritmos estudados; além da utilização de uma fórmula não convencional de cálculo de similaridades entre objetos (de abordagem fuzzy), aplicada a informações textuais, obtendo resultados satisfatórios. / The Internet is the vital media of today and, as being a mass media, problems known before to specific fields of Science arise. One of these problems, capable of annoying many people, is the information overload problem caused by the excessive amount of information returned in response to the user’s query. Due to the information overload problem, advanced techniques for information retrieval and analysis are needed. This study presents some aids in these fields, presenting a methodology to help users to apply the clustering process in textual data. The technique investigated is capable of grouping documents of several subjects in clusters of documents of the same subject. The groups identified can be used to simplify the process of information analysis and retrieval. This study also presents a tool that was created using the methodology and the algorithms analyzed. The tool was implemented to facilitate the process of investigation and demonstration of the study. The results of the application of a fuzzy formula, used to calculate the similarity among documents, are also presented.
127

Detecção de novidade com aplicação a fluxos contínuos de dados / Novelty detection with application to data streams

Spinosa, Eduardo Jaques 20 February 2008 (has links)
Neste trabalho a detecção de novidade é tratada como o problema de identificação de conceitos emergentes em dados que podem ser apresentados em um fluxo contínuo. Considerando a relação intrínseca entre tempo e novidade e os desafios impostos por fluxos de dados, uma nova abordagem é proposta. OLINDDA (OnLIne Novelty and Drift Detection Algorithm) vai além da classficação com uma classe e concentra-se no aprendizado contínuo não-supervisionado de novos conceitos. Tendo aprendido uma descrição inicial de um conceito normal, prossegue à análise de novos dados, tratando-os como um fluxo contínuo em que novos conceitos podem aparecer a qualquer momento. Com o uso de técnicas de agrupamento, OLINDDA pode empregar diversos critérios de validação para avaliar grupos em termos de sua coesão e representatividade. Grupos considerados válidos produzem conceitos que podem sofrer fusão, e cujo conhecimento é continuamente incorporado. A técnica é avaliada experimentalmente com dados artificiais e reais. O módulo de classificação com uma classe é comparado a outras técnicas de detecção de novidade, e a abordagem como um todo é analisada sob vários aspectos por meio da evolução temporal de diversas métricas. Os resultados reforçam a importância da detecção contínua de novos conceitos, assim como as dificuldades e desafios do aprendizado não-supervisionado de novos conceitos em fluxos de dados / In this work novelty detection is treated as the problem of identifying emerging concepts in data that may be presented in a continuous ow. Considering the intrinsic relationship between time and novelty and the challenges imposed by data streams, a novel approach is proposed. OLINDDA, an OnLIne Novelty and Drift Detection Algorithm, goes beyond one-class classification and focuses on the unsupervised continuous learning of novel concepts. Having learned an initial description of a normal concept, it proceeds to the analysis of new data, treating them as a continuous ow where novel concepts may appear at any time. By the use of clustering techniques, OLINDDA may employ several validation criteria to evaluate clusters in terms of their cohesiveness and representativeness. Clusters considered valid produce concepts that may be merged, and whose knowledge is continuously incorporated. The technique is experimentally evaluated with artificial and real data. The one-class classification module is compared to other novelty detection techniques, and the whole approach is analyzed from various aspects through the temporal evolution of several metrics. Results reinforce the importance of continuous detection of novel concepts, as well as the dificulties and challenges of the unsupervised learning of novel concepts in data streams
128

Exploração de novas políticas de construção de métodos de acesso métricos

Souza, Jéssica Andressa de January 2013 (has links)
Orientadora: Maria Camila Nardini Barioni / Dissertação (mestrado) - Universidade Federal do ABC. Programa de Pós-Graduação em Ciência da Computação, 2013
129

Modelagem para identificação de indicadores de eficiência energética para edificações e plantas industriais /

Buccieri, Gilberto Paschoal. January 2014 (has links)
Orientador: Jose Antonio Perrella Balestieri / Banca: Rubens Alves Dias / Banca: Marcelo Modesto da Silva / Resumo: Este trabalho descreve um método de identificação e ponderação de indicadores de desempenho sustentáveis para avaliar a eficiência energética em instalações industriais. Tomando como cenário algumas empresas do setor industrial baseadas no Vale do Paraíba/SP, foi proposta uma lista de indicadores de avaliação de critérios de eficiência energética, que fornece uma referência importante para o mapeamento, comparação, evolução e investimento adequado para a avaliação dos tomadores de decisão. O método de pesquisa consistiu em realizar uma revisão abrangente da literatura e a aplicação de dois levantamentos (surveys) envolvendo especialistas e tomadores de decisão da área. Os dados foram modelados a partir da aplicação das ferramentas de análise de agrupamento (cluster analysis) e o método de Processo Analítico Hierárquico (método AHP) para ponderar os indicadores identificados, reduzindo o grau de subjetividade na análise dessas opiniões e buscando níveis de intensidade objetivos. O tamanho das amostras da pesquisa é suficiente para suportar os resultados, que foram validados pela análise de consistência do método AHP. O método proposto também pode ser estendido para desenvolver os indicadores ponderados para outras regiões / Abstract: This dissertation describes a method for the identification and weighting of indicators of sustainable performance for evaluating the energy efficiency of industrial facilities. Taking as a backdrop some industrial companies based in the Paraiba Valley / SP, it was proposed a list of indicators for assessing energy efficiency criteria, which provides an important reference for mapping, comparison, evolution and appropriate investment for the evaluation of decision makers. The research method consisted of performing a comprehensive literature review and the application of two surveys involving experts and decision makers in the area. The data were modeled from the application of cluster analysis and the method of Analytic Hierarchy Process (AHP) tools to weigh indicators identified, reducing the degree of subjectivity in the analysis of these opinions and seeking levels of intensity targets. The size of the samples is sufficient to support search results, which were validated for consistency analysis of the AHP. The proposed method can also be extended to develop the weighted indicators for other regions / Mestre
130

Divergência genética em acessos de amendoim com base em descritores fenotípicos

Ramos, Jean Pierre Cordeiro 12 February 2015 (has links)
Submitted by Jean Medeiros (jeanletras@uepb.edu.br) on 2016-03-09T14:02:43Z No. of bitstreams: 1 PDF - Jean Pierre Cordeiro Ramos.pdf: 743229 bytes, checksum: e79f51445e4907b6849b1bc46cf35e46 (MD5) / Approved for entry into archive by Secta BC (secta.csu.bc@uepb.edu.br) on 2016-07-21T21:01:15Z (GMT) No. of bitstreams: 1 PDF - Jean Pierre Cordeiro Ramos.pdf: 743229 bytes, checksum: e79f51445e4907b6849b1bc46cf35e46 (MD5) / Approved for entry into archive by Secta BC (secta.csu.bc@uepb.edu.br) on 2016-07-21T21:01:24Z (GMT) No. of bitstreams: 1 PDF - Jean Pierre Cordeiro Ramos.pdf: 743229 bytes, checksum: e79f51445e4907b6849b1bc46cf35e46 (MD5) / Made available in DSpace on 2016-07-21T21:01:24Z (GMT). No. of bitstreams: 1 PDF - Jean Pierre Cordeiro Ramos.pdf: 743229 bytes, checksum: e79f51445e4907b6849b1bc46cf35e46 (MD5) Previous issue date: 2015-02-12 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The peanut breeding programs are based on introducing or disponibilization of genetic variability by crossing, with further selection of lines showing robust descriptors as to agronomical, nutritional and physiological aspects. The multivariate analysis methodologies have been often used to estimating the inter-relationship between genotypes, based in several descriptors in order to indicate group of promising materials for further use in breeding programs. The objective of this study was to estimate the genetic diversity among peanut genotypes based on three clustering methodology, in order to selecting parents for oil and food markets. A germplasm collection containing 77 genotypes of peanut (var. fastigiata and vulgaris) was planted in field, using plots consisted of 5m-rows, in a spacing 0.7 m X 0.2 m. The following variables were evaluated: height of main stem, total dry weight of plant, weight of pods/plant, seed weight/plant, number of pods/ plant, number of seeds/pod, weight of 100 pods, weight of 100 seeds, percent of oil in seeds, pod length, harvest index, hairiness, color of the main stem, growth habit, color seed, color of leaves, inflorescence on the main stem, early flowering and Full maturation of pods. Three clustering methods were selected for divergence analysis: Tocher, UPGMA and principal components.. It was found that the three methodologies, when used together, were consistent in group establishing, revealing interesting combinations for further use in breeding programs, aiming generation of drought tolerant lines and indicated to food market. / Os programas de melhoramento do amendoim se baseiam na introdução ou disponibilização de variabilidade genética, seguidos de seleção de linhagens que apresentem descritores responsivos pelo desempenho das plantas nos aspectos nutricionais, fisiológicos e agronômicos. Técnicas de análise multivariada têm sido frequentemente utilizadas para estimar as interrelações entre genótipos, baseando-se em vários descritores com intuito de indicar quais genótipos são mais promissores para serem inseridos em programas de melhoramento. Objetivou-se, com este trabalho, proceder a uma análise da diversidade genética entre genótipos de amendoim baseando-se em diferentes métodos de agrupamento, visando seleção de genitores para os mercados de óleo e alimento. Foram utilizados 77 genótipos na fase de pré-melhoramento de amendoim da subespécie fastigiata, contendo as variedades fastigiata e vulgaris, da coleção de amendoim da Embrapa Algodão. A unidade experimental foi constituída por uma fileira de 5 m contendo 50 plantas, num espaçamento 0,7 m X 0,2 m. Foram avaliadas as seguintes variáveis: peso das vagens/planta, peso das sementes/planta, número de vagens/planta, número de sementes/vagem, peso de 100 vagens, peso de 100 sementes, teor de óleo nas sementes, comprimento da vagem, índice de colheita, peso seco total da planta, altura da haste principal, pilosidade, cor da haste principal, hábito de crescimento, cor das sementes, cor dos folíolos, inflorescência na haste principal, início da floração e Maturação completa da vagem. Três métodos de agrupamentos foram selecionados para analise da divergência: Tocher, UPGMA e componentes principais. As três metodologias usadas, em conjunto, mostraram-se concordantes na formação dos grupos estabelecidos, revelando combinações interessantes para serem usadas em programas de melhoramento visando obtenção de linhagens com tolerância ao ambiente semiárido e com padrão de sementes voltados para o mercado de alimentos.

Page generated in 0.0729 seconds