• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 242
  • 12
  • 1
  • 1
  • Tagged with
  • 262
  • 262
  • 208
  • 192
  • 67
  • 60
  • 52
  • 51
  • 51
  • 50
  • 45
  • 44
  • 44
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Metanálise caso a caso sob a perspectiva bayesiana / Meta-analysis case by case using Bayesian approach

Martins, Camila Bertini 29 November 2013 (has links)
O papel da metanálise de sumarizar estudos publicados de mesmo objetivo, por meio da estatística, torna-se cada dia mais fundamental em razão do avanço da ciência e do desejo de usar o menor número de seres humanos em ensaios clínicos, desnecessários, em vários casos. A síntese das informações disponíveis facilita o entendimento e possibilita conclusões robustas. O aumento de estudos clínicos, por exemplo, promove um crescimento da necessidade de metanálises, fazendo com que seja necessário o desenvolvimento de técnicas sofisticadas. Desse modo, o objetivo deste trabalho foi propor uma metodologia bayesiana para a realização de metanálises. O procedimento proposto consiste na mistura das distribuições a posteriori do parâmetro de interesse de cada estudo pertencente à metanálise; ou seja, a medida metanalítica proposta foi uma distribuição de probabilidade e não uma simples medida-resumo. A metodologia apresentada pode ser utilizada com qualquer distribuição a priori e qualquer função de verossimilhança. O cálculo da medida metanalítica pode ser utilizado, desde problemas simples até os mais sofisticados. Neste trabalho, foram apresentados exemplos envolvendo diferentes distribuições de probabilidade e dados de sobrevivência. Em casos, em que se há uma estatística suficiente disponível para o parâmetro em questão, a distribuição de probabilidade a posteriori depende dos dados apenas por meio dessa estatística e, assim, em muitos casos, há a redução de dimensão sem perda de informação. Para alguns cálculos, utilizou-se o método de simulação de Metropolis-Hastings. O software estatístico utilizado neste trabalho foi o R. / The meta-analysis role of using Statistics to summarize published studies that have the same goal becomes more essential day by day, due to the improvement of Science and the desire of using the least possible number of human beings in clinical trials, which in many cases is unnecessary. By match the available information it makes the understanding easier and it leads to more robust conclusions. For instance, the increase in the number of clinical researches also makes the need for meta-analysis go higher, arising the need for developing sophisticated techniques. Then our goal in this work is to propose a Bayesian methodology to conduct meta-analysis. The proposed procedure is a blend of posterior distributions from interest parameters of each work we are considering when doing meta-analysis. As a consequence, we have a probability distribution as a meta-analytic measure, rather than just a statistical summary. The methodology we are presenting can be used with any prior probability distribution and any likelihood function. The calculation of the meta-analytic measure has its uses from small to more complex problems. In this work we present some examples that consider various probability distributions and also survival data. There is a sufficient statistic available for the parameter of interest, the posterior probability distribution depends on the data only through this statistic and thus, in many cases, we can reduce our data without loss of information. Some calculations were performed through Metropolis-Hastings simulation algorithm. The statistical software used in this work was the R.
122

Estimação de parâmetros de populações de plantas daninhas usando inferência Bayesiana / Estimation of the parameters of weeds population using Bayesian inference

Lopes, Marcel Rodrigues 20 April 2007 (has links)
O banco de sementes de plantas daninhas pode vir a ser um sério problema para a atividade agrícola por manter infestações por longos períodos. A dinâmica da população de plantas daninhas pode ser representada por modelos matemáticos que relaciona as densidades de sementes produzidas e de plântulas em áreas de cultivo. Os valores dos parâmetros dos modelos podem ser inferidos diretamente de experimentação e análise estatística. O presente trabalho tem por objetivo estimar parâmetros de populações das plantas daninhas anuais denominadas Digitaria ciliares, Panicum maximum e Euphorbia heterophylla e avaliar um modelo espacial com 2 e 3 parâmetros, a partir de um experimento conduzido em cultura de Zea mays (milho) usando inferência Bayesiana. / The seeds bank of weed could be a serious problem to the agricultural activity because it maintains infestations for long periods. The dynamics of weed populations can be described by mathematical models that relates the produced seeds and seedlings densities in areas of crop. The values of the parameters of the models can be inferred from experimentation and statistics analysis. The objective of this work is to estimate parameters of anual weed populations denoted Digitaria ciliares, Panicum maximum e Euphorbia heterophylla and evaluate a spatial model with 2 and 3 parameters from experimental data of Zea mays (corn) fields using Bayesian inference.
123

O uso de simulação de Monte Carlo via cadeias de Markov no melhoramento genético / The use of Monte Carlo simulation via Markov chains in genetic breeding

Nascimento, Moysés 20 February 2009 (has links)
Made available in DSpace on 2015-03-26T13:32:07Z (GMT). No. of bitstreams: 1 texto completo.pdf: 860520 bytes, checksum: 10a14565e22ba73ede77de9091dd7ed9 (MD5) Previous issue date: 2009-02-20 / Universidade Federal de Viçosa / The objective of this work was to provide a theoretical and applied reference on the main Monte Carlo simulation methods via Markov chains (MCMC), seeking to focus on applications in genetic breeding. Thus, the algorithms of Metropolis-Hastings, simulated annealing and the Gibbs sampler were presented. The theoretical aspects of the methods were approached through a detailed discussion about their foundations based on the Markov chain theory. Besides the theoretical discussion, concrete applications were developed. The Metropolis-Hastings algorithm was used to achieve estimates from the frequencies of recombination between pairs of markers of a population F2, of co-dominant nature, with 200 individuals. The simulated annealing was applied to establish a better linking order in the construction of genetic maps of three simulated populations F2, with markers of co-dominant nature, containing 50, 100 and 200 individuals, respectively. For each population, it was established a genome with four linking groups, each with 100 cM of size. The linking groups present 51, 21, 11 and 6 markers, with a distance of 2, 5, 10 and 20 cM between the adjacent marks, respectively, providing different degrees of saturation. The Gibbs sampler, on the other hand, was used for the achievement of the estimates of the adaptability and stability parameters of the model proposed by Finlay and Wilkinson (1963), through the Bayesian inference. The data of the productivity averages of five genotypes evaluated in nine environments were used, come from essays in randomized blocks with four replications. In all the applications, the algorithms were computationally viable and achieved satisfactory results. / Este trabalho teve por objetivo fornecer um referencial teórico e aplicado sobre os principais métodos de simulação de Monte Carlo via cadeias de Markov (MCMC), buscando dar ênfase em aplicações no melhoramento genético. Assim, apresentaram-se os algoritmos de Metropolis-Hastings, simulated annealing e amostrador de Gibbs. Os aspectos teóricos dos métodos foram abordados através de uma discussão detalhada de seus fundamentos com base na teoria de cadeias de Markov. Além da discussão teórica, aplicações concretas foram desenvolvidas. O algoritmo de Metropolis- Hastings foi utilizado para obter estimativas das freqüências de recombinação entre pares de marcadores de uma população F2, de natureza codominante, constituída de 200 indivíduos. O simulated annealing foi aplicado no estabelecimento da melhor ordem de ligação na construção de mapas genéticos de três populações F2 simuladas, com marcadores de natureza codominantes, de tamanhos 50, 100 e 200 indivíduos respectivamente. Para cada população foi estabelecido um genoma com quatro grupos de ligação, com 100 cM de tamanho cada. Os grupos de ligação possuem 51, 21, 11 e 6 marcadores, com uma distância de 2, 5, 10 e 20 cM entre marcas adjacentes respectivamente, ocasionando diferentes graus de saturação. Já o amostrador de Gibbs foi utilizado na obtenção das estimativas dos parâmetros de adaptabilidade e estabilidade, do modelo proposto por Finlay e Wilkinson (1963), através da inferência bayesiana. Foram utilizados os dados de médias de rendimento de cinco genótipos avaliados em nove ambientes, provenientes de ensaios em blocos ao acaso com quatro repetições. Em todas as aplicações os algoritmos se mostraram computacionalmente viáveis e obtiveram resultados satisfatórios.
124

Relações entre características de crescimento, de conformação e reprodutivas de animais da raça Canchim visando a proposição de critérios de seleção para fertilidade

Borba, Luis Henrique Fernandes [UNESP] 08 July 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:32:15Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-07-08Bitstream added on 2014-06-13T19:02:44Z : No. of bitstreams: 1 borba_lhf_dr_jabo.pdf: 857431 bytes, checksum: 9fca82a12c53154ccccaf9966a463570 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Características reprodutivas são importantes na produção de bovinos de corte, entretanto são pouco utilizadas em programas de melhoramento genético, pois são fortemente influenciadas por fatores ambientais. Neste estudo procurou-se verificar as relações existentes entre características de crescimento, de conformação e de reprodução como proposta para definição de critério de seleção para fertilidade na raça Canchim. As características analisadas foram: idade ao primeiro parto (IPP), idade ao primeiro parto penalizada (IPPPEN), idade ao segundo parto (ISP), idade ao segundo parto penalizada (ISPPEN), ocorrência de parição até os 38 meses de idade (PP38), e circunferência escrotal (CE420), peso (PE420) e escore de conformação frigorífica (CF420) aos 420 dias de idade. As médias (± DP) das estimativas de herdabilidade foram iguais a 0,02 ± 0,01(IPP); 0,03 ± 0,01 (IPPPEN); 0,05 ± 0,04 (ISP); 0,05 ± 0,02 (ISPPEN); 0,06 ± 0,03 (PP38); 0,25 ± 0,04 (CE420), 0,30 ± 0,02 (PE420) e 0,17 ± 0,05 (CF420). As médias (± DP) das estimativas de correlação genética com PE420 foram -0,09 ± 0,20 (IPP); 0,05 ± 0,21 (IPPPEN); 0,10 ± 0,18 (ISP); 0,13 ± 0,16 (ISPPEN); -0,09 ± 0,17 (PP38), com CE420 foram -0,67 ± 0,23 (IPP); -0,50 ± 0,25 (IPPPEN); -0,33 ± 0,18 (ISP); -0,31 ± 0,25 (ISPPEN) e 0,37 ± 0,25 (PP38), e com CF420 foram -0,16 ± 0,34 (IPP), -0,33 ± 0,36 (IPPPEN), 0,16 ± 0,36 (ISP), 0,35 ± 0,35 (ISPPEN) e 0,42 ± 0,28 (PP38). Estes resultados sugerem que as características reprodutivas das fêmeas (CR) não deverão apresentar boas respostas à seleção, que a seleção para PE420 não deverá provocar mudanças nas CR, que a seleção para maior CE420 deverá melhorar as CR e que a seleção para maior CF420 deve resultar em maior PP38 / Reproductive traits are important to beef cattle production systems, however their use in animal breeding programs is still small, because they are strongly influenced by environmental factors. Genetic parameters of reproduction, growth and conformation traits were estimated in a Canchim population to evaluate their potential to be included as selection criteria in a breeding program. The traits studied were age at first calving (IPP), age at first calving penalized (IPPPEN), age at second calving (ISP), age at second calving penalized (ISPPEN), occurrence of calving until 38 months of age (PP38), scrotal circumference (CE420), body weight (PE420) and carcass conformation score (CF420) at 420 days of age. The mean (± SD) of the heritability estimates were 0.02 ± 0.01 (IPP); 0.03 ± 0.01 (IPPPEN); 0.05 ± 0.04 (ISP); 0.05 ± 0.02 (ISPPEN); 0.06 ± 0.03 (PP38); 0.25 ± 0.04 (CE420); 0.30 ± 0.02 (PE420) and 0,17 ± 0,05 (CF420). The mean (± SD) of the genetic correlation estimates with PE420 were -0.09 ± 0.20 (IPP); 0.05 ± 0.21 (IPPPEN); 0.10 ± 0.18 (ISP); 0.13 ± 0.16 (ISPPEN) and -0.09 ± 0.17 (PP38), with CE420 were -0.67 ± 0.23 (IPP); -0.50 ± 0.25 (IPPPEN); -0.33 ± 0.18 (ISP); -0.31 ± 0.25 (ISPPEN) and 0.37 ± 0.25 (PP38), and with CF420 were -0.16 ± 0,34 (IPP), -0.33 ± 0,36 (IPPPEN), 0.16 ± 0,36 (ISP), 0.35 ± 0,35 (ISPPEN) and 0.42 ± 0,28 (PP38). These results suggest that the female reproductive traits (RT) will not show good genetic progress through selection, that selection for PE420 should not change RT, that selection to increase CE420 should change female reproductive traits favorably, and that selection to increase CF420 should increase PP38
125

Uma análise bayesiana para dados composicionais.

Obage, Simone Cristina 03 March 2005 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 DissSCO.pdf: 3276753 bytes, checksum: eea407b94c282f57d7fb7e97200ee05a (MD5) Previous issue date: 2005-03-03 / Universidade Federal de Sao Carlos / Compositional data are given by vectors of positive numbers with sum equals to one. These kinds of data are common in many applications, as in geology, biology, economy among many others. In this paper, we introduce a Bayesian analysis for compositional data considering additive log-ratio (ALR) and Box-Cox transformations assuming a mul- tivariate normal distribution for correlated errors. These results generalize some existing Bayesian approaches assuming uncorrelated errors. We also consider the use of expo- nential power distributions for uncorrelated errors considering additive log-ratio (ALR) transformation. We illustrate the proposed methodology considering a real data set. / Dados Composicionais são dados por vetores com elementos positivos cuja soma é um. Exemplos típicos de dados desta natureza são encontrados nas mais diversas áreas; como em geologia, biologia, economia entre outras. Neste trabalho, introduzimos uma análise Bayesiana para dados composicionais considerando as transformações razão log-aditiva e Box-Cox, assumindo a distribuição normal multivariada para erros correlacionados. Estes resultados generalizam uma abordagem bayesiana assumindo erros não correlacionados. Também consideramos o uso da distribuição potência exponencial para erros não correla- cionados, assumindo a transformação razão log-aditiva. Nós ilustramos a metodologia proposta considerando um conjunto de dados reais.
126

Estimação do Value at Risk via enfoque bayesiano / Value at Risk Estimation by a Bayesian Approach

Marques, Felipe Tumenas 26 January 2007 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 1642.pdf: 1151544 bytes, checksum: 8fe56d1fcfe5711823ed58e9184fead7 (MD5) Previous issue date: 2007-01-26 / The continuous development of new financial instruments brings more and more investment options for market participants. These investment options also bring a bigger necessity to evaluate the risk embedded in these new financial instruments. Risk Analysis can be defined as an attempt to measure the uncertainty degree in the attainment of the expected return in a financial application and the standard measure to evaluate financial risk is the Value at Risk. This work aims to develop a new approach to estimate the Value at Risk, considering both the market data and the specialists´ opinion. / O desenvolvimento contínuo de novos títulos financeiros possibilita cada vez mais opções de investimento para os participantes do mercado. Este leque de opções de investimentos também traz a necessidade cada vez maior de avaliar o risco que cada novo título financeiro carrega. A análise de riscos pode ser definida como como a tentativa de mensurar o grau de incerteza na obtenção do retorno esperado em uma determinada aplicação financeira. Este trabalho visa desenvolver uma nova abordagem para a estimação do Value at Risk, considerando tanto os dados de mercado quanto a opinião de especialistas
127

Uma abordagem bayesiana para análise de fraude de subscrição em telecomunicações

Cristofaro, Elizabeth Agnes Urban 09 June 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 3751.pdf: 1215283 bytes, checksum: a444e96052342bbf56d3012849edebde (MD5) Previous issue date: 2006-06-09 / Este trabalho tem por objetivo comparar a performance da inferência bayesiana e inferência clássica na classi cação de comportamento do fraudador (considerado evento raro). Espera-se desenvolver um método para inferir e internalizar novos padrões de fraude baseado na abordagem bayesiana, possibilitando a construção do conhecimento sobre o evento a partir da inclusão de informações históricas incrementais em funções encadeadas.
128

Uso de métodos bayesianos em testes de vida acelerados no controle da qualidade de produtos industriais.

Vieira, Denilton da Silva 03 March 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissDSV.pdf: 2343078 bytes, checksum: 2c801ff20741d65287919e8cf1d5b178 (MD5) Previous issue date: 2006-03-03 / Financiadora de Estudos e Projetos / In this work, we introduce a Bayesian approach for quality control of industrial products, assuming units in test under stress levels higher than the usual level. We assume di¤erent distributions for the lifetimes of the units under a type II censoring mechanism and a general stress-response model that includes the usual accelerated life test models. Using a predictive density of a future observation, we present some criteria to be used by engineers in the quality control of a batch of industrial products. These criteria permit a choise for the best time in test or for the best stress level in the quality control test. The quality control procedure is based on the observed proportion of failures tested during a specified time and a specified stress level. We use the software WinBugs (Spiegelhalter et al, 1999) to obtain the posterior summaries of interest. keywords: Accelerated lifetime test, Bayesian Inference, Markov Chain Monte Carlo, Quality Control. / Neste trabalho propomos uma metodologia Bayesiana de controle da qualidade de produtos industriais, considerando unidades em teste sob níveis de estresse mais severos que os usualmente utilizados. Assumimos algumas distribuições para os tempos de vida das unidades, dados sob esquema de censura do tipo II e um modelo estresse-resposta geral que inclui alguns dos modelos mais utilizados em testes acelerados. Usando a densidade preditiva para uma observação futura, apresentamos um critério para ser usado por engenheiros no controle da qualidade de um determinado lote de produtos industriais. Este critério permite escolher o tempo necessário para o teste ou o nível de estresse no teste de controle da qualidade. O controle da qualidade de um lote de componentes poderá ser baseado na proporção de unidades que falham quando testadas durante o período de tempo fixo, sob o nível especificado de estresse. Uma implementação do código WinBugs (ver por exemplo, Spiegelhalter et al., 1999) é considerada.
129

Modelagem da volatilidade em séries temporais financeiras via modelos GARCH com abordagem Bayesiana / Modeling of volatility in financial time series using GARCH models with Bayesian approach

Karen Fiorella Aquino Gutierrez 18 July 2017 (has links)
Nas últimas décadas a volatilidade transformou-se num conceito muito importante na área financeira, sendo utilizada para mensurar o risco de instrumentos financeiros. Neste trabalho, o foco de estudo é a modelagem da volatilidade, que faz referência à variabilidade dos retornos, sendo esta uma característica presente nas séries temporais financeiras. Como ferramenta fundamental da modelação usaremos o modelo GARCH (Generalized Autoregressive Conditional Heteroskedasticity), que usa a heterocedasticidade condicional como uma medida da volatilidade. Considerar-se-ão duas características principais a ser modeladas com o propósito de obter um melhor ajuste e previsão da volatilidade, estas são: a assimetria e as caudas pesadas presentes na distribuição incondicional da série dos retornos. A estimação dos parâmetros dos modelos propostos será feita utilizando a abordagem Bayesiana com a metodologia MCMC (Markov Chain Monte Carlo) especificamente o algoritmo de Metropolis-Hastings. / In the last decades volatility has become a very important concept in the financial area, being used to measure the risk of financial instruments. In this work, the focus of study is the modeling of volatility, that refers to the variability of returns, which is a characteristic present in the financial time series. As a fundamental modeling tool, we used the GARCH (Generalized Autoregressive Conditional Heteroskedasticity) model, which uses conditional heteroscedasticity as a measure of volatility. Two main characteristics will be considered to be modeled with the purpose of a better adjustment and prediction of the volatility, these are: heavy tails and an asymmetry present in the unconditional distribution of the return series. The estimation of the parameters of the proposed models is done by means of the Bayesian approach with an MCMC (Markov Chain Monte Carlo) methodology , specifically the Metropolis-Hastings algorithm.
130

Uma abordagem de múltiplos aspectos para alinhamento de ontologias baseado em Cluster Ensembles Bayesianos. / A multi-aspect approach for ontology matching based on Bayesian Cluster Ensembles.

André Ippolito 22 May 2017 (has links)
Ontologias são especificações formais e explícitas usadas para descrever entidades de um domínio e seus relacionamentos. Estatísticas recentes do projeto Linked Open Data (LOD) indicam a existência de milhares de ontologias heterogêneas publicadas na nuvem do LOD, impondo um desafio para a integração de ontologias. Um passo fundamental na integração é o emparelhamento, processo que obtém elementos correspondentes entre ontologias heterogêneas. Visando superar o desafio de efetuar o emparelhamento em larga escala, desenvolveu-se uma estratégia baseada em clusterização das ontologias, a qual particiona as ontologias em subontologias, clusteriza as subontologias e restringe o processo de emparelhamento aos elementos de um mesmo cluster. Porém, observa-se que as soluções do estado da arte necessitam explorar mais os múltiplos aspectos que as subontologias possuem. As clusterizações de cada aspecto podem ser combinadas, por meio de um consenso. Cluster Ensembles é uma técnica que permite obter esse consenso. Além disso, estudos comparativos indicaram que o uso de Cluster Ensembles Bayesianos (CEB) resulta em uma clusterização de maior acurácia do que a obtida por outras técnicas de Cluster Ensembles. Um dos principais objetivos deste trabalho foi desenvolver uma nova metodologia de emparelhamento de ontologias baseada em clusterização consensual de múltiplos aspectos de comunidades, de forma a estruturar um arcabouço metodológico, por meio do qual diferentes técnicas e aspectos podem ser incorporados e testados. De acordo com a metodologia desenvolvida neste trabalho, inicialmente aplicaram-se técnicas de Detecção de Comunidades para particionar as ontologias. Em seguida, consideraram-se os seguintes aspectos das comunidades obtidas: terminológico, estrutural e extensional. Fez-se, separadamente, a clusterização das comunidades segundo cada aspecto e aplicaram-se diferentes técnicas de clusterização consensual para obter um consenso entre as clusterizações de cada aspecto: CEB, técnicas baseadas em similaridades e técnicas baseadas em métodos diretos. Para os diferentes consensos, o processo de emparelhamento foi feito apenas entre elementos das ontologias que pertencessem a um mesmo cluster consensual. As soluções consensuais destacaram-se nos estudos de caso efetuados quanto à precisão e cobertura dos alinhamentos, enquanto a solução baseada no aspecto terminológico destacou-se quanto ao valor de F-measure. A principal contribuição deste trabalho relaciona-se à metodologia desenvolvida, que constitui um arcabouço metodológico, por meio do qual diferentes aspectos e técnicas podem ser incorporados e testados quanto ao seu desempenho de clusterização e de alinhamento de ontologias. / Ontologies are formal and explicit specifications used to describe entities of a domain and its relationships. Recent statistics of the Linked Open Data (LOD) project indicate the existence of thousands of heterogeneous ontologies in the LOD cloud, posing a challenge to ontology integration. A fundamental step in integration is matching, a process that finds correspondent elements between heterogeneous ontologies. Aiming to overcome the challenge of large-scale ontology matching, researchers developed a strategy based on clustering, which divides ontologies into subontologies, clusters subontologies and restricts the matching process to elements of the same cluster. However, state-of-the-art solutions need to explore more the multiple aspects that subontologies have. Clustering solutions of each aspect can be combined, by means of a consensus. Cluster Ensembles is a technique that allows obtaining this consensus. Besides, comparative studies indicated that Bayesian Cluster Ensembles has higher clustering accuracy than other Cluster Ensembles techniques. One of the main goals of this work was to develop a new methodology for ontology matching based on consensus clustering of multiple aspects of communities, structuring a methodological framework that enables the use and tests of different techniques and aspects. According to the methodology adopted in this work, initially, Community Detection techniques were applied to partition the ontologies. In the sequence, the following aspects of the communities were considered: terminological, structural and extensional. Clustering according to each aspect was performed separately and different consensus clustering techniques were applied to obtain a consensus among clustering solutions of each aspect: Bayesian Cluster Ensembles, techniques based on similarities and techniques based on direct methods. For the different consensuses, matching was done only between elements of the two ontologies that belonged to the same consensual cluster. For the case studies applied in this work, the consensual solutions were a standout in precision and recall, while the terminological-based solution was a standout in F-measure. The main contribution of this work is related to the developed methodology, which constitutes a methodological framework, through which different aspects and techniques can be incorporated and tested concerning their ontology clustering and alignment performance.

Page generated in 0.0729 seconds