• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 490
  • 18
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 523
  • 330
  • 267
  • 224
  • 120
  • 97
  • 86
  • 79
  • 74
  • 71
  • 69
  • 64
  • 60
  • 56
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

A interpretação de texto na escola: o sentido pode ser outro / Text interpretation in the school context: the meaning can be a different one

Vanessa Chaves de Almeida 31 March 2011 (has links)
A presente pesquisa objetiva auxiliar o professor no trabalho da interpretação, articulando a academia e a escola. Buscou-se entender melhor o que é interpretação e o que pode ser ensinado ao aluno para que a pratique com mais proficiência. Partiu-se da hipótese de que não há uma metodologia precisa para o ensino de interpretação. Para testá-la, aplicou-se uma atividade de interpretação baseada na crônica Povo, de Luis Fernando Verissimo, retirada de um livro didático, às turmas de 8o ano do Ensino Fundamental e 2o ano do Ensino Médio de 4 colégios públicos do Rio de Janeiro (Cap UERJ, Cap UFRJ, CMRJ e CP II) Analisou-se como os alunos respondiam às questões propostas. Pretende-se mostrar, conforme a teoria de Orlandi (2002: 64), que interpretar não é atribuir sentidos, mas explicar como o texto produz sentidos, inclusive, sentidos que podem ser sempre outros, divergentes do esperado pelo livro didático ou pelo gabarito do professor. Imaginava-se que os resultados fossem semelhantes; toda via, o EF obteve 40% de acertos, enquanto o EM obteve 60,7%. Apesar dos resultados diferentes, foi possível realizar a atividade em duas séries tão distintas, porque a seleção do texto é de interesse de ambas. Identificaram-se a inferência, a polissemia, a metáfora e o contexto como elementos que auxiliam a interpretação, pois se fizeram presente na análise dos dados, mostrando que é possível praticá-los. Logo, apesar de não haver uma metodologia precisa e seriada para o desenvolvimento da interpretação, não significa que não haja o que se possa trabalhar. Defende-se que esses elementos podem ser aplicados em todas as séries e o que irá se diferenciar é o grau de complexidades dos textos, que mudam a cada série. É necessário trabalhar a interpretação em sala de aula com respaldo teórico, operacionalizá-la, apontando estratégias, oferecendo subsídios aos alunos. O presente trabalho busca lançar luz sobre um campo profícuo justamente por tratar de um tema complexo com várias divergências de pensamento e nomenclaturas e, ao mesmo tempo, tão relevante, porque, além de fazer parte da vida estudantil, ultrapassa os muros da escola / This research intends to help teachers in the work of interpretation, articulating academic thinking and school practice. It aims at understanding the meaning of interpretation, in addition to identifying which strategies can be taught to students in order to make them proficient in the interpretative task. The initial hypothesis is that there is no precise methodology for teaching interpretation. In order to test this hypothesis, an interpretation activity, based on the text Povo, by Luis Fernando Verissimo, taken from a school book, was applied to two groups of students in 4 public schools from Rio de Janeiro (Cap UERJ, Cap UFRJ, CMRJ e CP II). The first group included students from the eighth grade of Elementary School. The second group, on the other hand, was compounded of students from the second grade of High School. It was analyzed how students had answered to the proposed questions. The present research intends to demonstrate, according to the theoretical assumptions from Orlandi (2002: 64), that to interpret is not to make sense, but instead to explain how the text produce meanings, including meanings that can be always different from the expected by the textbook or the teacher's feedback. It was considered that results would be similar; however, Elementary School students achieved 40% of correct answers, while High School students reached the rate of 60,7%. Despite different results, it was possible to apply the activity to the two grades, because the text selection was relevant for both. The research identifies inference, polysemy, metaphor and context as tools for building interpretation, for they appear in data analysis, showing it is possible to put them in practice. Therefore, despite the lack of a precise and level-based methodology for the development of interpretation, there are strategies that can be taught in order to improve students ability to interpret. These strategies can be applied to all grades, varying the complexity of the texts chosen for each grade. It is necessary to build interpretation in the school context considering theoretical background, showing and operating strategies, offering subsidies to students. In this way, the present work puts in the spotlight a field which is complex, built through disagreements on thought and on categories. At the same time, it brings a useful contribution to improve the knowledge in a subject very relevant to school practice and to the life as whole
292

Um modelo baseado em casos e ontologia para apoio à tarefa intensiva em conhecimento de classificação com foco na análise de sentimentos

Ceci, Flávio January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2015 / Made available in DSpace on 2016-02-09T03:11:46Z (GMT). No. of bitstreams: 1 337378.pdf: 4389643 bytes, checksum: 1701260659b2ae4b7afa3bf45370be3c (MD5) Previous issue date: 2015 / O uso de informações externas às organizações, presentes nas redes sociais, pode auxiliar no processo de compra de um produto por parte de um cliente a partir da leitura de revisões ou de blogs especializados. A classificação de texto, mais precisamente, a análise de sentimento, auxilia na definição da imagem de um produto ou na identificação do sentimento de uma sentença como positiva ou negativa. Neste trabalho propõe-se um modelo que combina ontologia de domínio com técnicas de processamento de linguagem natural para a identificação do sentimento agregado a uma determinada sentença, buscando apresentar uma explicação para tal polarização. Utiliza-se ainda o raciocínio baseado em casos para que seja possível aprender com os raciocínios (polarizações) passados, visando reutilizá-los em novas classificações. Também foram elaboradas etapas para o tratamento de negação, para a adequação do léxico de sentimento para um domínio e para a adaptação da classificação de termos ambíguos baseados em classificações passadas. Foram desenvolvidos testes em dois domínios distintos, câmeras digitais e filmes, para justificar a evolução do modelo até se chegar à proposta final. Pôde-se observar que a acurácia obtida pelo modelo é superior à obtida por abordagens estatísticas tradicionais. Esses resultados demonstram que o modelo da tese contribui para a área de análise de sentimento, tanto no nível da acurácia quanto pela possibilidade de apresentar o caminho percorrido para chegar a determinada classificação.<br> / Abstract : The use of information outside organizations available in social networks such as reviews or specialized blogs can assist customers in their decisions. The text classification, more precisely sentiment analysis, assists in defining the image of a product or identifying the sense of a sentence as positive or negative. This work intends to combine domain ontology with natural language processing techniques to identify the sentiment behind judgments aiming to provide an explanation for such polarization. Also, it intends to use the Case-Based Reasoning strategy in order to learn from past reasonings (polarizations) so they can be used in new polarizations. Some steps have been developed for treatment of negation, adequacy of sentiment lexicon for a domain and adaptation of ambiguous terms classification based on past ratings. Tests were developed in two distinct areas, digital cameras and movies, to justify the model evolution until its final proposal. It was observed that the accuracy obtained by the proposed model overcomes standard statisticals approaches. These results demonstrate that the thesis model contributes to the sentiment analysis area, both as a solution that provides high levels of accuracy, as well as the possibility to present the track to achieve a particular classification.
293

Relações entre características de crescimento, de conformação e reprodutivas de animais da raça Canchim visando a proposição de critérios de seleção para fertilidade

Borba, Luis Henrique Fernandes [UNESP] 08 July 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:32:15Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-07-08Bitstream added on 2014-06-13T19:02:44Z : No. of bitstreams: 1 borba_lhf_dr_jabo.pdf: 857431 bytes, checksum: 9fca82a12c53154ccccaf9966a463570 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Características reprodutivas são importantes na produção de bovinos de corte, entretanto são pouco utilizadas em programas de melhoramento genético, pois são fortemente influenciadas por fatores ambientais. Neste estudo procurou-se verificar as relações existentes entre características de crescimento, de conformação e de reprodução como proposta para definição de critério de seleção para fertilidade na raça Canchim. As características analisadas foram: idade ao primeiro parto (IPP), idade ao primeiro parto penalizada (IPPPEN), idade ao segundo parto (ISP), idade ao segundo parto penalizada (ISPPEN), ocorrência de parição até os 38 meses de idade (PP38), e circunferência escrotal (CE420), peso (PE420) e escore de conformação frigorífica (CF420) aos 420 dias de idade. As médias (± DP) das estimativas de herdabilidade foram iguais a 0,02 ± 0,01(IPP); 0,03 ± 0,01 (IPPPEN); 0,05 ± 0,04 (ISP); 0,05 ± 0,02 (ISPPEN); 0,06 ± 0,03 (PP38); 0,25 ± 0,04 (CE420), 0,30 ± 0,02 (PE420) e 0,17 ± 0,05 (CF420). As médias (± DP) das estimativas de correlação genética com PE420 foram -0,09 ± 0,20 (IPP); 0,05 ± 0,21 (IPPPEN); 0,10 ± 0,18 (ISP); 0,13 ± 0,16 (ISPPEN); -0,09 ± 0,17 (PP38), com CE420 foram -0,67 ± 0,23 (IPP); -0,50 ± 0,25 (IPPPEN); -0,33 ± 0,18 (ISP); -0,31 ± 0,25 (ISPPEN) e 0,37 ± 0,25 (PP38), e com CF420 foram -0,16 ± 0,34 (IPP), -0,33 ± 0,36 (IPPPEN), 0,16 ± 0,36 (ISP), 0,35 ± 0,35 (ISPPEN) e 0,42 ± 0,28 (PP38). Estes resultados sugerem que as características reprodutivas das fêmeas (CR) não deverão apresentar boas respostas à seleção, que a seleção para PE420 não deverá provocar mudanças nas CR, que a seleção para maior CE420 deverá melhorar as CR e que a seleção para maior CF420 deve resultar em maior PP38 / Reproductive traits are important to beef cattle production systems, however their use in animal breeding programs is still small, because they are strongly influenced by environmental factors. Genetic parameters of reproduction, growth and conformation traits were estimated in a Canchim population to evaluate their potential to be included as selection criteria in a breeding program. The traits studied were age at first calving (IPP), age at first calving penalized (IPPPEN), age at second calving (ISP), age at second calving penalized (ISPPEN), occurrence of calving until 38 months of age (PP38), scrotal circumference (CE420), body weight (PE420) and carcass conformation score (CF420) at 420 days of age. The mean (± SD) of the heritability estimates were 0.02 ± 0.01 (IPP); 0.03 ± 0.01 (IPPPEN); 0.05 ± 0.04 (ISP); 0.05 ± 0.02 (ISPPEN); 0.06 ± 0.03 (PP38); 0.25 ± 0.04 (CE420); 0.30 ± 0.02 (PE420) and 0,17 ± 0,05 (CF420). The mean (± SD) of the genetic correlation estimates with PE420 were -0.09 ± 0.20 (IPP); 0.05 ± 0.21 (IPPPEN); 0.10 ± 0.18 (ISP); 0.13 ± 0.16 (ISPPEN) and -0.09 ± 0.17 (PP38), with CE420 were -0.67 ± 0.23 (IPP); -0.50 ± 0.25 (IPPPEN); -0.33 ± 0.18 (ISP); -0.31 ± 0.25 (ISPPEN) and 0.37 ± 0.25 (PP38), and with CF420 were -0.16 ± 0,34 (IPP), -0.33 ± 0,36 (IPPPEN), 0.16 ± 0,36 (ISP), 0.35 ± 0,35 (ISPPEN) and 0.42 ± 0,28 (PP38). These results suggest that the female reproductive traits (RT) will not show good genetic progress through selection, that selection for PE420 should not change RT, that selection to increase CE420 should change female reproductive traits favorably, and that selection to increase CF420 should increase PP38
294

Uma análise bayesiana para dados composicionais.

Obage, Simone Cristina 03 March 2005 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 DissSCO.pdf: 3276753 bytes, checksum: eea407b94c282f57d7fb7e97200ee05a (MD5) Previous issue date: 2005-03-03 / Universidade Federal de Sao Carlos / Compositional data are given by vectors of positive numbers with sum equals to one. These kinds of data are common in many applications, as in geology, biology, economy among many others. In this paper, we introduce a Bayesian analysis for compositional data considering additive log-ratio (ALR) and Box-Cox transformations assuming a mul- tivariate normal distribution for correlated errors. These results generalize some existing Bayesian approaches assuming uncorrelated errors. We also consider the use of expo- nential power distributions for uncorrelated errors considering additive log-ratio (ALR) transformation. We illustrate the proposed methodology considering a real data set. / Dados Composicionais são dados por vetores com elementos positivos cuja soma é um. Exemplos típicos de dados desta natureza são encontrados nas mais diversas áreas; como em geologia, biologia, economia entre outras. Neste trabalho, introduzimos uma análise Bayesiana para dados composicionais considerando as transformações razão log-aditiva e Box-Cox, assumindo a distribuição normal multivariada para erros correlacionados. Estes resultados generalizam uma abordagem bayesiana assumindo erros não correlacionados. Também consideramos o uso da distribuição potência exponencial para erros não correla- cionados, assumindo a transformação razão log-aditiva. Nós ilustramos a metodologia proposta considerando um conjunto de dados reais.
295

Estimação do Value at Risk via enfoque bayesiano / Value at Risk Estimation by a Bayesian Approach

Marques, Felipe Tumenas 26 January 2007 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 1642.pdf: 1151544 bytes, checksum: 8fe56d1fcfe5711823ed58e9184fead7 (MD5) Previous issue date: 2007-01-26 / The continuous development of new financial instruments brings more and more investment options for market participants. These investment options also bring a bigger necessity to evaluate the risk embedded in these new financial instruments. Risk Analysis can be defined as an attempt to measure the uncertainty degree in the attainment of the expected return in a financial application and the standard measure to evaluate financial risk is the Value at Risk. This work aims to develop a new approach to estimate the Value at Risk, considering both the market data and the specialists´ opinion. / O desenvolvimento contínuo de novos títulos financeiros possibilita cada vez mais opções de investimento para os participantes do mercado. Este leque de opções de investimentos também traz a necessidade cada vez maior de avaliar o risco que cada novo título financeiro carrega. A análise de riscos pode ser definida como como a tentativa de mensurar o grau de incerteza na obtenção do retorno esperado em uma determinada aplicação financeira. Este trabalho visa desenvolver uma nova abordagem para a estimação do Value at Risk, considerando tanto os dados de mercado quanto a opinião de especialistas
296

Uma abordagem bayesiana para análise de fraude de subscrição em telecomunicações

Cristofaro, Elizabeth Agnes Urban 09 June 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 3751.pdf: 1215283 bytes, checksum: a444e96052342bbf56d3012849edebde (MD5) Previous issue date: 2006-06-09 / Este trabalho tem por objetivo comparar a performance da inferência bayesiana e inferência clássica na classi cação de comportamento do fraudador (considerado evento raro). Espera-se desenvolver um método para inferir e internalizar novos padrões de fraude baseado na abordagem bayesiana, possibilitando a construção do conhecimento sobre o evento a partir da inclusão de informações históricas incrementais em funções encadeadas.
297

Capacidade preditiva de Modelos Credit Scoring em inferência dos rejeitados

Prazeres Filho, Jurandir 28 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6034.pdf: 941825 bytes, checksum: 6d06b85571d5cab86cee2ed1c1d699da (MD5) Previous issue date: 2014-03-28 / Universidade Federal de Sao Carlos / Granting credit to an applicant is a decision made in a context of uncertainty. At the moment the lender decides to grant a loan or credit sale there is always the possibility of loss, and, if it is associated with a probability, the decision to grant or not credit will be more reliable. In order to aid the decision to accept or not the request for applicants are used the credit scoring models, which estimate the probability of loss associated with granting credit. But one of the problems involving these models is that only information about the applicants accepted are used, which causes a sampling bias, because the rejected applicants are discarded. With the aim to solve this problem it can use rejected inference, which are considered individuals who have had credit application rejected. However, only considering rejected inference and one method of modeling data, usually, is not sufficient to get satisfactory predictive measures, and thus, were used combined results of three methods, logistic regression, analysis probit and decision tree. The purpose of this combination were to increase the predictive perfomance and the metrics used were sensitivity, specificity , positive predictive value, negative predictive value and accuracy. Through the application in data sets we concluded that the use of the combined results increased the predictive performance, specially regarding to sensitivity. / A concessão de crédito e uma decisão a ser tomada num contexto de incertezas. No momento em que o credor decide conceder um empréstimo, realizar um financiamento ou venda a prazo sempre existe a possibilidade de perda, e, se for atribuída uma probabilidade a esta perda, a decisão de conceder ou não credito será mais confiável. Com o objetivo de auxiliar a tomada de decisão em relação ao pedido de credito dos solicitantes são utilizados os modelos credit scoring, os quais estimam a probabilidade de perda associada a concessão de credito. Um dos problemas envolvendo estes modelos e que somente informações a respeito dos proponentes aceitos são utilizadas, o que causa um viés amostral, pois, os solicitantes recusados são descartados no processo de modelagem. Com intuito de solucionar este problema tem-se a inferência dos rejeitados, em que são considerados os indívíduos que tiveram pedido de credito rejeitado. No entanto, considerar a inferência dos rejeitados e o uso de somente um método de modelagem de dados, muitas vezes, não e suficiente para que se tenha medidas preditivas satisfatórias. Desta forma, foram utilizados resultados combinados de três metodologias, regressão logística, probit e árvore de decisão/classificação concomitantemente a utilização dos métodos de inferência dos rejeitados que incluem o uso de variável latente, reclassificação, parcelamento e ponderação. O objetivo dessa combinação foi aumentar a capacidade preditiva e as métricas utilizadas foram a sensibilidade, especificidade, valor preditivo positivo, valor preditivo negativo e acurácia. Através da aplicação em conjuntos de dados concluiu-se que a utilização dos resultados combinados aumentou a capacidade preditiva, principalmente, em relação a sensibilidade.
298

Uso de métodos bayesianos em testes de vida acelerados no controle da qualidade de produtos industriais.

Vieira, Denilton da Silva 03 March 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissDSV.pdf: 2343078 bytes, checksum: 2c801ff20741d65287919e8cf1d5b178 (MD5) Previous issue date: 2006-03-03 / Financiadora de Estudos e Projetos / In this work, we introduce a Bayesian approach for quality control of industrial products, assuming units in test under stress levels higher than the usual level. We assume di¤erent distributions for the lifetimes of the units under a type II censoring mechanism and a general stress-response model that includes the usual accelerated life test models. Using a predictive density of a future observation, we present some criteria to be used by engineers in the quality control of a batch of industrial products. These criteria permit a choise for the best time in test or for the best stress level in the quality control test. The quality control procedure is based on the observed proportion of failures tested during a specified time and a specified stress level. We use the software WinBugs (Spiegelhalter et al, 1999) to obtain the posterior summaries of interest. keywords: Accelerated lifetime test, Bayesian Inference, Markov Chain Monte Carlo, Quality Control. / Neste trabalho propomos uma metodologia Bayesiana de controle da qualidade de produtos industriais, considerando unidades em teste sob níveis de estresse mais severos que os usualmente utilizados. Assumimos algumas distribuições para os tempos de vida das unidades, dados sob esquema de censura do tipo II e um modelo estresse-resposta geral que inclui alguns dos modelos mais utilizados em testes acelerados. Usando a densidade preditiva para uma observação futura, apresentamos um critério para ser usado por engenheiros no controle da qualidade de um determinado lote de produtos industriais. Este critério permite escolher o tempo necessário para o teste ou o nível de estresse no teste de controle da qualidade. O controle da qualidade de um lote de componentes poderá ser baseado na proporção de unidades que falham quando testadas durante o período de tempo fixo, sob o nível especificado de estresse. Uma implementação do código WinBugs (ver por exemplo, Spiegelhalter et al., 1999) é considerada.
299

Modelagem da volatilidade em séries temporais financeiras via modelos GARCH com abordagem Bayesiana / Modeling of volatility in financial time series using GARCH models with Bayesian approach

Karen Fiorella Aquino Gutierrez 18 July 2017 (has links)
Nas últimas décadas a volatilidade transformou-se num conceito muito importante na área financeira, sendo utilizada para mensurar o risco de instrumentos financeiros. Neste trabalho, o foco de estudo é a modelagem da volatilidade, que faz referência à variabilidade dos retornos, sendo esta uma característica presente nas séries temporais financeiras. Como ferramenta fundamental da modelação usaremos o modelo GARCH (Generalized Autoregressive Conditional Heteroskedasticity), que usa a heterocedasticidade condicional como uma medida da volatilidade. Considerar-se-ão duas características principais a ser modeladas com o propósito de obter um melhor ajuste e previsão da volatilidade, estas são: a assimetria e as caudas pesadas presentes na distribuição incondicional da série dos retornos. A estimação dos parâmetros dos modelos propostos será feita utilizando a abordagem Bayesiana com a metodologia MCMC (Markov Chain Monte Carlo) especificamente o algoritmo de Metropolis-Hastings. / In the last decades volatility has become a very important concept in the financial area, being used to measure the risk of financial instruments. In this work, the focus of study is the modeling of volatility, that refers to the variability of returns, which is a characteristic present in the financial time series. As a fundamental modeling tool, we used the GARCH (Generalized Autoregressive Conditional Heteroskedasticity) model, which uses conditional heteroscedasticity as a measure of volatility. Two main characteristics will be considered to be modeled with the purpose of a better adjustment and prediction of the volatility, these are: heavy tails and an asymmetry present in the unconditional distribution of the return series. The estimation of the parameters of the proposed models is done by means of the Bayesian approach with an MCMC (Markov Chain Monte Carlo) methodology , specifically the Metropolis-Hastings algorithm.
300

Uma abordagem de múltiplos aspectos para alinhamento de ontologias baseado em Cluster Ensembles Bayesianos. / A multi-aspect approach for ontology matching based on Bayesian Cluster Ensembles.

André Ippolito 22 May 2017 (has links)
Ontologias são especificações formais e explícitas usadas para descrever entidades de um domínio e seus relacionamentos. Estatísticas recentes do projeto Linked Open Data (LOD) indicam a existência de milhares de ontologias heterogêneas publicadas na nuvem do LOD, impondo um desafio para a integração de ontologias. Um passo fundamental na integração é o emparelhamento, processo que obtém elementos correspondentes entre ontologias heterogêneas. Visando superar o desafio de efetuar o emparelhamento em larga escala, desenvolveu-se uma estratégia baseada em clusterização das ontologias, a qual particiona as ontologias em subontologias, clusteriza as subontologias e restringe o processo de emparelhamento aos elementos de um mesmo cluster. Porém, observa-se que as soluções do estado da arte necessitam explorar mais os múltiplos aspectos que as subontologias possuem. As clusterizações de cada aspecto podem ser combinadas, por meio de um consenso. Cluster Ensembles é uma técnica que permite obter esse consenso. Além disso, estudos comparativos indicaram que o uso de Cluster Ensembles Bayesianos (CEB) resulta em uma clusterização de maior acurácia do que a obtida por outras técnicas de Cluster Ensembles. Um dos principais objetivos deste trabalho foi desenvolver uma nova metodologia de emparelhamento de ontologias baseada em clusterização consensual de múltiplos aspectos de comunidades, de forma a estruturar um arcabouço metodológico, por meio do qual diferentes técnicas e aspectos podem ser incorporados e testados. De acordo com a metodologia desenvolvida neste trabalho, inicialmente aplicaram-se técnicas de Detecção de Comunidades para particionar as ontologias. Em seguida, consideraram-se os seguintes aspectos das comunidades obtidas: terminológico, estrutural e extensional. Fez-se, separadamente, a clusterização das comunidades segundo cada aspecto e aplicaram-se diferentes técnicas de clusterização consensual para obter um consenso entre as clusterizações de cada aspecto: CEB, técnicas baseadas em similaridades e técnicas baseadas em métodos diretos. Para os diferentes consensos, o processo de emparelhamento foi feito apenas entre elementos das ontologias que pertencessem a um mesmo cluster consensual. As soluções consensuais destacaram-se nos estudos de caso efetuados quanto à precisão e cobertura dos alinhamentos, enquanto a solução baseada no aspecto terminológico destacou-se quanto ao valor de F-measure. A principal contribuição deste trabalho relaciona-se à metodologia desenvolvida, que constitui um arcabouço metodológico, por meio do qual diferentes aspectos e técnicas podem ser incorporados e testados quanto ao seu desempenho de clusterização e de alinhamento de ontologias. / Ontologies are formal and explicit specifications used to describe entities of a domain and its relationships. Recent statistics of the Linked Open Data (LOD) project indicate the existence of thousands of heterogeneous ontologies in the LOD cloud, posing a challenge to ontology integration. A fundamental step in integration is matching, a process that finds correspondent elements between heterogeneous ontologies. Aiming to overcome the challenge of large-scale ontology matching, researchers developed a strategy based on clustering, which divides ontologies into subontologies, clusters subontologies and restricts the matching process to elements of the same cluster. However, state-of-the-art solutions need to explore more the multiple aspects that subontologies have. Clustering solutions of each aspect can be combined, by means of a consensus. Cluster Ensembles is a technique that allows obtaining this consensus. Besides, comparative studies indicated that Bayesian Cluster Ensembles has higher clustering accuracy than other Cluster Ensembles techniques. One of the main goals of this work was to develop a new methodology for ontology matching based on consensus clustering of multiple aspects of communities, structuring a methodological framework that enables the use and tests of different techniques and aspects. According to the methodology adopted in this work, initially, Community Detection techniques were applied to partition the ontologies. In the sequence, the following aspects of the communities were considered: terminological, structural and extensional. Clustering according to each aspect was performed separately and different consensus clustering techniques were applied to obtain a consensus among clustering solutions of each aspect: Bayesian Cluster Ensembles, techniques based on similarities and techniques based on direct methods. For the different consensuses, matching was done only between elements of the two ontologies that belonged to the same consensual cluster. For the case studies applied in this work, the consensual solutions were a standout in precision and recall, while the terminological-based solution was a standout in F-measure. The main contribution of this work is related to the developed methodology, which constitutes a methodological framework, through which different aspects and techniques can be incorporated and tested concerning their ontology clustering and alignment performance.

Page generated in 0.0451 seconds