Spelling suggestions: "subject:"An?life dde agrupamento"" "subject:"An?life dee agrupamento""
1 |
Converg?ncia ou diverg?ncia no desenvolvimento? um estudo multidimensional para o Sudeste e o Nordeste do Brasil, 1990-2010Assis, Renato Silva de 02 August 2013 (has links)
Made available in DSpace on 2014-12-17T14:34:45Z (GMT). No. of bitstreams: 1
RenatoSA_DISSERT.pdf: 579996 bytes, checksum: ea1b221d1f258e0dd61c5b7549c8f5e1 (MD5)
Previous issue date: 2013-08-02 / The analysis of some aspects of development in Brazil in the past three decades reveals an
improvement on a range of indicators isolated in the south east the richest region and
north east the poorest region. From a database of twenty variables, the main purpose the
study was to verify if there are indications of convergence or divergence in five dimensions of
development between the two regions from 1990 to 2010. Aiming to identify the states more
similar and different, and to verify changes in the composition of low development groups
and high development in the adressed period, was used the analysis of groupings (Cluster
Analysis). Additionally, to test equality of distance between states all the time, was used the
non-parametric Test of Wilcoxon. This makes it possible to verify IF the distance between the
states of two regions has been increasing or has been falling, showing signs of divergence or
convergence. The results of Cluster s analysis suggest that there are indications of
convergence inside the cluster of north east, but the distance between two regions has not
changed. The results of test of Wilcoxon suggests that there have been no changes statistically
significant in the distance between the states, in the two regions the standards of development
became more homogenous, but the two regions will be far apart / A an?lise de alguns aspectos do desenvolvimento no Brasil nas ?ltimas tr?s d?cadas evidencia
que houve uma melhoria em uma s?rie de indicadores isolados tanto no Sudeste regi?o mais
rica - como no Nordeste - regi?o mais pobre. A partir de uma base de dados de vinte
vari?veis, o objetivo principal do estudo foi verificar se h? ind?cios de converg?ncia ou
diverg?ncia em cinco dimens?es do desenvolvimento entre as duas regi?es no per?odo de
1990 a 2010. Visando identificar os estados mais similares e mais diferentes entre si, bem
como verificar altera??es na composi??o dos grupos de baixo desenvolvimento e de alto
desenvolvimento no per?odo abordado, foi empregado a An?lise de Agrupamentos (Cluster
Analysis). Adicionalmente, para testar a igualdade das dist?ncias entre os estados ao longo do
tempo, foi utilizado o teste n?o param?trico de Wilcoxon. Este ?ltimo tornou poss?vel
verificar se a dist?ncia entre os estados das duas regi?es vem aumentando ou diminuindo,
apresentando ind?cios de diverg?ncia ou converg?ncia. Os resultados da an?lise de Cluster
sugerem que h? ind?cios de converg?ncia dentro do cluster do Nordeste, por?m, a dist?ncia
entre as duas regi?es n?o foi alterada. Os resultados do teste de Wilcoxon sugerem que n?o
houve mudan?as estatisticamente significativas na dist?ncia entre os estados. Dentro das duas
regi?es os padr?es de desenvolvimento se tornaram mais homog?neos, por?m, as duas regi?es
continuam muito distantes
|
2 |
Algoritmos de agrupamento aplicados a dados de express?o g?nica de c?ncer: um estudo comparativoAra?jo, Daniel Sabino Amorim de 11 November 2008 (has links)
Made available in DSpace on 2014-12-17T15:47:48Z (GMT). No. of bitstreams: 1
DanielSAA.pdf: 691771 bytes, checksum: c2a3333a69e8d426409687ac8cfac27f (MD5)
Previous issue date: 2008-11-11 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / The use of clustering methods for the discovery of cancer subtypes has drawn a great deal of attention in the scientific community. While bioinformaticians have proposed new clustering methods that take advantage of characteristics of the gene expression data, the medical community has a preference for using classic clustering methods. There have been no studies thus far performing a large-scale evaluation of different clustering methods in this context. This work presents the first large-scale analysis of seven different clustering methods and four proximity measures for the analysis of 35 cancer gene expression data sets. Results reveal that the finite
mixture of Gaussians, followed closely by k-means, exhibited the best performance in terms of recovering the true structure of the data sets. These methods also exhibited, on average, the smallest difference between the actual number of classes in the data sets and the best number of clusters as indicated by our validation criteria. Furthermore, hierarchical methods, which
have been widely used by the medical community, exhibited a poorer recovery performance than that of the other methods evaluated. Moreover, as a stable basis for the assessment and comparison of different clustering methods for cancer gene expression data, this study provides a common group of data sets (benchmark data sets) to be shared among researchers and used
for comparisons with new methods / O uso de t?cnicas de agrupamento na descoberta de subtipos de c?ncer tem atra?do grande aten??o da comunidade cient?fica. Enquanto bioinformatas prop?em novas t?cnicas de agrupamento que levam em considera??o caracter?sticas dos dados de express?o g?nica, a comunidade m?dica prefere utilizar as t?cnicas cl?ssicas de agrupamento. De fato, n?o existem trabalhos na literatura que realizam uma avalia??o em grande escala de t?cnicas de agrupamento nesse
contexto. Diante disso, este trabalho apresenta o primeiro estudo em grande escala de sete t?cnicas de agrupamento e quatro medidas de proximidade para a an?lise de 35 conjuntos de dados de express?o g?nica. Mais especificamente, os resultados mostram que a t?cnica mistura finita de gaussianas, seguida pelo k-means, apresentam os melhores resultados em termos de recupera??o da estrutura natural dos dados. Esses m?todos tamb?m apresentam a menor diferen?a entre o n?mero real de classes e o n?mero de grupos presente na melhor parti??o. Al?m disso, os m?todos de agrupamento hier?rquico, que v?m sendo bastante utilizados pela comunidade m?dica, apresentaram os piores resultados quando comparados com os outros m?todos investigados. Este trabalho tamb?m apresenta, como uma refer?ncia est?vel para a avalia??o e
compara??o de diferentes algoritmos de agrupamento para dados de express?o g?nica de c?ncer, um conjunto de bases de dados (benchmark data sets) que pode ser compartilhado entre pesquisadores e usado na compara??o de novos m?todos
|
3 |
An?lise de DFA e de agrupamento do perfil de densidade de po?os de petr?leoCosta, Kleber Carlos de Oliveira 22 April 2009 (has links)
Made available in DSpace on 2014-12-17T14:08:35Z (GMT). No. of bitstreams: 1
KleberCOCpdf.pdf: 2178209 bytes, checksum: 588b533d30c060af9cf941e7001d3372 (MD5)
Previous issue date: 2009-04-22 / In recent years, the DFA introduced by Peng, was established as an important tool capable of detecting long-range autocorrelation in time series with non-stationary. This
technique has been successfully applied to various areas such as: Econophysics, Biophysics, Medicine, Physics and Climatology. In this study, we used the DFA technique to obtain the Hurst exponent (H) of the profile of electric density profile (RHOB) of 53 wells resulting from the Field School of Namorados. In this work we want to know if we can or not use H to spatially characterize the spatial data field. Two cases arise: In the first a set of H reflects the local geology, with wells that are geographically closer showing similar H, and then one can use H in geostatistical procedures. In the
second case each well has its proper H and the information of the well are uncorrelated, the profiles show only random fluctuations in H that do not show any spatial structure.
Cluster analysis is a method widely used in carrying out statistical analysis. In this work we use the non-hierarchy method of k-means. In order to verify whether a set of data
generated by the k-means method shows spatial patterns, we create the parameter ?
(index of neighborhood). High ? shows more aggregated data, low ? indicates dispersed or data without spatial correlation. With help of this index and the method of Monte Carlo. Using ? index we verify that random cluster data shows a distribution of ? that is lower than actual cluster ?. Thus we conclude that the data of H obtained in 53 wells are grouped and can be used to characterize space patterns. The analysis of curves level confirmed the results of the k-means / Nos ?ltimos anos, o DFA introduzido por Peng, foi estabelecido como uma importante ferramenta capaz de detectar autocorrela??o de longo alcance em s?ries temporais com n?o-estacionaridade. Esta t?cnica vem sendo aplicado com sucesso a diversas ?reas tais como: Econofis?ca, Biof?sica, Medicina, F?sica e Climatologia. No presente trabalho, utilizamos a t?cnica do DFA para obter o expoente de Hurst (H) do perfil el?trico de densidade (RHOB) de 53 po?os provindos do Campo Escola de Namorado. Neste trabalho queremos saber se podemos, ou n?o, utilizar este expoente
para caracterizar espacialmente o campo. Duas hip?teses surgem: Na primeira o conjunto dos H reflete a geologia local, po?os com mesmo H se encontram pertos, e ent?o se pode
pensar em utilizar H em procedimentos geoestat?sticos espaciais. Na segunda hip?tese cada po?o tem seu H, a informa??o dos H de cada po?o est? descorrelacionada e o
conjunto dos perfis mostra apenas flutua??es aleat?rias em H que n?o revelam qualquer estrutura espacial. A an?lise de agrupamentos ? um m?todo bastante utilizado na realiza??o de an?lises estat?sticas. Nesta disserta??o utilizamos o m?todo de agrupamento n?o hier?rquico chamado m?todo do k-m?dia. Com o objetivo de verificar se um conjunto de dados gerados pelo m?todo do k-m?dia, ou de forma aleat?ria, forma padr?es espaciais, criamos o par?metro ? (?ndice de vizinhan?a). Altos ? implicam em dados mais agregados, baixos ? em dados dispersos ou sem correla??o espacial. Com aux?lio deste ?ndice e do m?todo de Monte Carlo verificamos que os dados agrupados aleatoriamente apresentam uma distribui??o mais baixa de ? do que os obtidos dos dados
concretos e agrupados pelo k-m?dia. Desta forma conclu?mos que os dados de H obtidos nos 53 po?os est?o agrupados e podem ser usados na caracteriza??o espacial de campos.
A an?lise de curvas de n?vel confirmou o resultado do k-m?dia
|
4 |
DFA e an?lise de agrupamento aplicadas a perfis de porosidade neutr?nico em po?os de petr?leoSilva, Francisco Wilton de Freitas 22 May 2009 (has links)
Made available in DSpace on 2015-03-03T13:59:42Z (GMT). No. of bitstreams: 1
FranciscoWFA.pdf: 1362232 bytes, checksum: 33548c2a28a5c7d6034cf165f163a691 (MD5)
Previous issue date: 2009-05-22 / ?Peng was the first to work with the Technical DFA (Detrended Fluctuation Analysis), a
tool capable of detecting auto-long-range correlation in time series with non-stationary.
In this study, the technique of DFA is used to obtain the Hurst exponent (H) profile of the electric neutron porosity of the 52 oil wells in Namorado Field, located in the Campos Basin -Brazil. The purpose is to know if the Hurst exponent can be used to characterize spatial distribution of wells. Thus, we verify that the wells that have close values of H are spatially close together. In this work we used the method of hierarchical clustering and non-hierarchical clustering method (the k-mean method). Then compare the two methods to see which of the two provides the best result. From this, was the parameter ? (index neighborhood) which checks whether a data set generated by the k- average method, or at random, so in fact spatial patterns. High values of ? indicate that the data are aggregated, while low values of ? indicate that the data are scattered (no spatial correlation). Using the Monte Carlo method showed that combined data show a random distribution of ? below the empirical value. So the empirical evidence of H obtained from 52 wells are grouped geographically. By passing the data of standard curves with the results obtained by the k-mean, confirming that it is effective to correlate well in spatial distribution / Peng foi o primeiro a trabalhar com a T?cnica DFA (Detrended Fluctuation Analysis),
uma ferramenta capaz de detectar auto-correla??o de longo alcance em s?ries temporais
com n?o-estacionaridade. Nesse trabalho, a t?cnica de DFA ? utilizada para obter o
expoente de Hurst (H) do perfil el?trico de Porosidade Neutr?nica dos 52 po?os
petrol?feros Campo de Namorado, situado na Bacia de Campos ? RJ. A finalidade ?
saber se o expoente de Hurst pode ou n?o ser usado para se caracterizar uma
distribui??o espacial dos po?os. Assim, queremos verificar se os po?os que apresentam
valores pr?ximos de H est?o espacialmente pr?ximos entre si. Neste trabalho foi
utilizado o m?todo de agrupamento hier?rquico e o m?todo de agrupamento n?o
hier?rquico (m?todo do k-m?dia). Em seguida comparamos os dois m?todos para ver
qual dos dois fornece o melhor resultado. A partir disso, foi criado o par?metro
(?ndice de vizinhan?a) o qual verifica se um conjunto de dados gerados pelo m?todo km?dia,
ou de forma aleat?ria, forma de fato padr?es espaciais. Altos valores de
indicam que os dados est?o agregados, enquanto que baixos valores de indicam que
os dados est?o espalhados (sem correla??o espacial). Com aux?lio do m?todo de Monte
Carlo observou-se que dados agrupados aleatoriamente apresentam uma distribui??o de
inferior ao valor emp?rico. Portanto os dados emp?ricos de H obtidos dos 52 po?os
est?o agrupados espacialmente. Ao cruzar os dados das curvas de n?vel com os
resultados obtidos pelo k-m?dia, confirmam que este ? eficaz para correlacionar po?os
em distribui??o espacial
|
5 |
An?lise de Agrupamentos Com Base na Teoria da Informa??o: Uma Abordagem RepresentativaAra?jo, Daniel Sabino Amorim de 18 March 2013 (has links)
Made available in DSpace on 2014-12-17T14:55:09Z (GMT). No. of bitstreams: 1
DanielSAA_TESE_inicio_pag67.pdf: 3521346 bytes, checksum: 030bba7c8ca800b8151b345676b6759c (MD5)
Previous issue date: 2013-03-18 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / Currently, one of the biggest challenges for the field of data mining is to perform
cluster analysis on complex data. Several techniques have been proposed but, in general,
they can only achieve good results within specific areas providing no consensus of what
would be the best way to group this kind of data. In general, these techniques fail due
to non-realistic assumptions about the true probability distribution of the data. Based on
this, this thesis proposes a new measure based on Cross Information Potential that uses
representative points of the dataset and statistics extracted directly from data to measure
the interaction between groups. The proposed approach allows us to use all advantages of
this information-theoretic descriptor and solves the limitations imposed on it by its own
nature. From this, two cost functions and three algorithms have been proposed to perform
cluster analysis. As the use of Information Theory captures the relationship between different
patterns, regardless of assumptions about the nature of this relationship, the proposed
approach was able to achieve a better performance than the main algorithms in literature.
These results apply to the context of synthetic data designed to test the algorithms in
specific situations and to real data extracted from problems of different fields / Atualmente, um dos maiores desafios para o campo de minera??o de dados ? realizar
a an?lise de agrupamentos em dados complexos. At? o momento, diversas t?cnicas foram
propostas mas, em geral, elas s? conseguem atingir bons resultados dentro de dom?nios
espec?ficos, n?o permitindo, dessa maneira, que exista um consenso de qual seria a melhor
forma para agrupar dados. Essas t?cnicas costumam falhar por fazer suposi??es nem sempre
realistas sobre a distribui??o de probabilidade que modela os dados. Com base nisso,
o trabalho proposto neste documento cria uma nova medida baseada no Potencial de Informa??o
Cruzado que utiliza pontos representativos do conjunto de dados e a estat?stica
extra?da diretamente deles para medir a intera??o entre grupos. A abordagem proposta
permite usar todas as vantagens desse descritor de informa??o e contorna as limita??es
impostas a ele pela sua pr?pria forma de funcionamento. A partir disso, duas fun??es
custo de otimiza??o e tr?s algoritmos foram constru?dos para realizar a an?lise de agrupamentos.
Como o uso de Teoria da Informa??o permite capturar a rela??o entre diferentes
padr?es, independentemente de suposi??es sobre a natureza dessa rela??o, a abordagem
proposta foi capaz de obter um desempenho superior aos principais algoritmos citados
na literatura. Esses resultados valem tanto para o contexto de dados sint?ticos desenvolvidos
para testar os algoritmos em situa??es espec?ficas quanto em dados extra?dos de
problemas reais de diferentes naturezas
|
6 |
An?lise de agrupamentos dos dados de DFA oriundos de perfis el?tricos de indu??o de po?os de petr?leo / Clustering analysis of the data of DFA profiles of eletric induction in oil wellsMata, Maria das Vit?rias Medeiros da 24 July 2009 (has links)
Made available in DSpace on 2014-12-17T14:08:35Z (GMT). No. of bitstreams: 1
MariaVMMpdf.pdf: 1276052 bytes, checksum: 2a1c6384ed87c24c3ab5a2346947a35d (MD5)
Previous issue date: 2009-07-24 / The main objective of this study is to apply recently developed methods of physical-statistic to time series analysis, particularly in electrical induction s profiles of oil wells data, to study the petrophysical similarity of those wells in a spatial distribution. For this, we used the DFA
method in order to know if we can or not use this technique to characterize spatially the fields. After obtain the DFA values for all wells, we applied clustering analysis. To do these tests we used the non-hierarchical method called K-means. Usually based on the Euclidean distance, the K-means consists in dividing the elements of a data matrix N in k groups, so that the similarities among elements belonging to different groups are the smallest possible. In order to test if a dataset generated by the K-means method or randomly generated datasets form spatial patterns, we created the parameter Ω (index of neighborhood). High values of Ω
reveals more aggregated data and low values of Ω show scattered data or data without spatial correlation. Thus we concluded that data from the DFA of 54 wells are grouped and can be used to characterize spatial fields. Applying contour level technique we confirm the results obtained by the K-means, confirming that DFA is effective to perform spatial analysis / O principal objetivo do presente trabalho foi aplicar m?todos recentemente desenvolvidos em f?sica-estat?stica ?s s?ries temporais, em especial a dados de perfis el?tricos de indu??o de 54 po?os de petr?leo localizados no Campo de Namorado Bacia de Campos - RJ, para estudar a similaridade petrof?sica dos po?os numa distribui??o espacial. Para isto, utilizamos o m?todo do DFA com o intuito de saber se podemos, ou n?o, utilizar esta t?cnica para caracterizar espacialmente o campo. Depois de obtidos os valores de DFA para todos os po?os, fizemos uma an?lise de agrupamento com rela??o a estas caracter?sticas; para tanto, utilizamos o m?todo de agrupamento n?o-hier?rquico chamado m?todo K-m?dia. Geralmente baseado na dist?ncia euclidiana, o K-m?dia consiste em dividir os elementos de uma matriz n de dados
em k grupos bem definidos, de maneira que as semelhan?as existentes entre elementos pertencentes a grupos distintos sejam as menores poss?veis. Com o objetivo de verificar se um
conjunto de dados gerados pelo m?todo do K-m?dia ou gerado aleatoriamente forma padr?es espaciais, criamos o par?metro Ω (?ndice de vizinhan?a). Altos valores de Ω implicam em dados mais agregados e baixos valores de Ω em dados dispersos ou sem correla??o espacial. Com aux?lio do m?todo de Monte Carlo observamos que dados agrupados aleatoriamente apresentam uma distribui??o de Ω inferior ao valor emp?rico. Desta forma conclu?mos que os dados de DFA obtidos nos 54 po?os est?o agrupados e podem ser usados na caracteriza??o espacial de campos. Ao cruzar os dados das curvas de n?vel com os resultados obtidos pelo K-m?dia, confirmamos a efici?ncia do mesmo para correlacionar po?os em distribui??o espacial
|
7 |
Metodologia estat?stica na solu??o do problema do caixeiro viajante e na avalia??o de algoritmos : um estudo aplicado ? transgen?tica computacionalRamos, Iloneide Carlos de Oliveira 03 March 2005 (has links)
Made available in DSpace on 2014-12-17T14:55:03Z (GMT). No. of bitstreams: 1
IloneideCOR.pdf: 1010601 bytes, checksum: 76bbc04aa0a456f079121fb0d750ea74 (MD5)
Previous issue date: 2005-03-03 / The problems of combinatory optimization have involved a large number of researchers in search of approximative solutions for them, since it is generally accepted that they are unsolvable in polynomial time. Initially, these solutions were focused on heuristics. Currently, metaheuristics are used more for this task, especially those based on evolutionary algorithms. The two main contributions of this work are: the creation of what is called an -Operon- heuristic, for the construction of the information chains necessary for the implementation of transgenetic (evolutionary) algorithms, mainly using statistical methodology - the Cluster Analysis and the Principal Component Analysis; and the utilization of statistical analyses that are adequate for the evaluation of the performance of the algorithms that are developed to solve these problems. The aim of the Operon is to construct good quality dynamic information chains to promote an -intelligent- search in the space of solutions. The Traveling Salesman Problem (TSP) is intended for applications based on a transgenetic algorithmic known as ProtoG. A strategy is also proposed for the renovation of part of the chromosome population indicated by adopting a minimum limit in the coefficient of variation of the adequation function of the individuals, with calculations based on the population. Statistical methodology is used for the evaluation of the performance of four algorithms, as follows: the proposed ProtoG, two memetic algorithms and a Simulated Annealing algorithm. Three performance analyses of these algorithms are proposed. The first is accomplished through the Logistic Regression, based on the probability of finding an optimal solution for a TSP instance by the algorithm being tested. The second is accomplished through Survival Analysis, based on a probability of the time observed for its execution until an optimal solution is achieved. The third is accomplished by means of a non-parametric Analysis of Variance, considering the Percent Error of the Solution (PES) obtained by the percentage in which the solution found exceeds the best solution available in the literature. Six experiments have been conducted applied to sixty-one instances of Euclidean TSP with sizes of up to 1,655 cities. The first two experiments deal with the adjustments of four parameters used in the ProtoG algorithm in an attempt to improve its performance. The last four have been undertaken to evaluate the performance of the ProtoG in comparison to the three algorithms adopted. For these sixty-one instances, it has been concluded on the grounds of statistical tests that there is evidence that the ProtoG performs better than these three algorithms in fifty instances. In addition, for the thirty-six instances considered in the last three trials in which the performance of the algorithms was evaluated through PES, it was observed that the PES average obtained with the ProtoG was less than 1% in almost half of these instances, having reached the greatest average for one instance of 1,173 cities, with an PES average equal to 3.52%. Therefore, the ProtoG can be considered a competitive algorithm for solving the TSP, since it is not rare in the literature find PESs averages greater than 10% to be reported for instances of this size. / Os problemas de otimiza??o combinat?ria t?m envolvido um grande n?mero de pesquisadores na busca por solu??es aproximativas para aqueles, desde a aceita??o de que eles s?o considerados insol?veis em tempo polinomial. Inicialmente, essas solu??es eram focalizadas por meio de heur?sticas. Atualmente, as metaheur?sticas s?o mais utilizadas para essa tarefa, especialmente aquelas baseadas em algoritmos evolucion?rios. As duas principais contribui??es deste trabalho s?o: a cria??o de uma heur?stica, denominada Operon, para a constru??o de cadeias de informa??es necess?rias ? implementa??o de algoritmos transgen?ticos (evolucion?rios) utilizando, principalmente, a metodologia estat?stica - An?lise de Agrupamentos e An?lise de Componentes Principais -; e a utiliza??o de an?lises estat?sticas adequadas ? avalia??o da performance de algoritmos destinados ? solu??o desses problemas. O Operon visa construir, de forma din?mica e de boa qualidade, cadeias de informa??es a fim de promover uma busca -inteligente- no espa?o de solu??es. O Problema do Caixeiro Viajante (PCV) ? focalizado para as aplica??es que s?o realizadas com base num algoritmo transgen?tico, denominado ProtoG. Prop?e-se, tamb?m, uma estrat?gia de renova??o de parte da popula??o de cromossomos indicada pela ado??o de um limite m?nimo no coeficiente de varia??o da fun??o de adequa??o dos indiv?duos, calculado com base na popula??o. S?o propostas tr?s an?lises estat?sticas para avaliar a performance de algoritmos. A primeira ? realizada atrav?s da An?lise de Regress?o Log?stica, com base na probabilidade de obten??o da solu??o ?tima de uma inst?ncia do PCV pelo algoritmo em teste. A segunda ? realizada atrav?s da An?lise de Sobreviv?ncia, com base numa probabilidade envolvendo o tempo de execu??o observado at? que a solu??o ?tima seja obtida. A terceira ? realizada por meio da An?lise de Vari?ncia n?o param?trica, considerando o Erro Percentual da Solu??o (EPS) obtido pela percentagem em que a solu??o encontrada excede a melhor solu??o dispon?vel na literatura. Utiliza-se essa metodologia para a avalia??o da performance de quatro algoritmos, a saber: o ProtoG proposto, dois algoritmos mem?ticos e um algoritmo Simulated Annealing. Foram realizados seis experimentos, aplicados a sessenta e uma inst?ncias do PCV euclidiano, com tamanhos de at? 1.655 cidades. Os dois primeiros experimentos tratam do ajuste de quatro par?metros utilizados no algoritmo ProtoG, visando melhorar a performance do mesmo. Os quatro ?ltimos s?o utilizados para avaliar a performance do ProtoG em compara??o aos tr?s algoritmos adotados. Para essas sessenta e uma inst?ncias, conclui-se, sob testes estat?sticos, que h? evid?ncias de que o ProtoG ? superior a esses tr?s algoritmos em cinq?enta inst?ncias. Al?m disso, para as trinta e seis inst?ncias consideradas nos tr?s ?ltimos experimentos, nos quais a avalia??o da performance dos algoritmos foi realizada com base no EPS, observou-se que o ProtoG obteve EPSs m?dios menores que 1% em quase metade das inst?ncias, tendo atingido a maior m?dia para uma inst?ncia composta por 1.173 cidades, com EPS m?dio igual a 3,52%. Logo, o ProtoG pode ser considerado um algoritmo competitivo para solucionar o PCV, pois n?o ? raro serem reportados, na literatura, EPSs m?dios maiores que 10% para inst?ncias desse porte.
|
Page generated in 0.2489 seconds