• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 588
  • 44
  • 39
  • 37
  • 9
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 768
  • 768
  • 185
  • 174
  • 156
  • 135
  • 119
  • 82
  • 71
  • 66
  • 63
  • 63
  • 59
  • 55
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
661

Mixed order hyper-networks for function approximation and optimisation

Swingler, Kevin January 2016 (has links)
Many systems take inputs, which can be measured and sometimes controlled, and outputs, which can also be measured and which depend on the inputs. Taking numerous measurements from such systems produces data, which may be used to either model the system with the goal of predicting the output associated with a given input (function approximation, or regression) or of finding the input settings required to produce a desired output (optimisation, or search). Approximating or optimising a function is central to the field of computational intelligence. There are many existing methods for performing regression and optimisation based on samples of data but they all have limitations. Multi layer perceptrons (MLPs) are universal approximators, but they suffer from the black box problem, which means their structure and the function they implement is opaque to the user. They also suffer from a propensity to become trapped in local minima or large plateaux in the error function during learning. A regression method with a structure that allows models to be compared, human knowledge to be extracted, optimisation searches to be guided and model complexity to be controlled is desirable. This thesis presents such as method. This thesis presents a single framework for both regression and optimisation: the mixed order hyper network (MOHN). A MOHN implements a function f:{-1,1}^n →R to arbitrary precision. The structure of a MOHN makes the ways in which input variables interact to determine the function output explicit, which allows human insights and complexity control that are very difficult in neural networks with hidden units. The explicit structure representation also allows efficient algorithms for searching for an input pattern that leads to a desired output. A number of learning rules for estimating the weights based on a sample of data are presented along with a heuristic method for choosing which connections to include in a model. Several methods for searching a MOHN for inputs that lead to a desired output are compared. Experiments compare a MOHN to an MLP on regression tasks. The MOHN is found to achieve a comparable level of accuracy to an MLP but suffers less from local minima in the error function and shows less variance across multiple training trials. It is also easier to interpret and combine from an ensemble. The trade-off between the fit of a model to its training data and that to an independent set of test data is shown to be easier to control in a MOHN than an MLP. A MOHN is also compared to a number of existing optimisation methods including those using estimation of distribution algorithms, genetic algorithms and simulated annealing. The MOHN is able to find optimal solutions in far fewer function evaluations than these methods on tasks selected from the literature.
662

Aplicativo computacional para obtenção de probabilidades a priori de classificação errônea em experimentos agronômicos

Padovani, Carlos Roberto [UNESP] 27 July 2007 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:37Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-07-27Bitstream added on 2014-06-13T21:02:58Z : No. of bitstreams: 1 padovani_crp_dr_botfca.pdf: 793418 bytes, checksum: 8b62c9d520c0086c46554fb418856bb7 (MD5) / Nas Ciências Agronômicas, encontram-se várias situações em que são observadas diversas variáveis respostas nas parcelas ou unidades experimentais. Nestas situações, um caso de interesse prático à experimentação agronômica é o que considera a construção de regiões de similaridade entre as parcelas para a discriminação entre os grupos experimentais e ou para a classificação de novas unidades experimentais em uma dessas regiões. Os métodos de classificação ou discriminação exigem, para sua utilização prática, uma quantidade considerável de retenção de informação da estrutura de variabilidade dos dados e, principalmente, alta fidedignidade e competência nas alocações de novos indivíduos nos grupos, mostradas nas distribuições corretas destes indivíduos. Existem vários procedimentos para medir o grau de decisão correta (acurácia) das informações fornecidas pelos métodos classificatórios. Praticamente, a totalidade deles utilizam a probabilidade de classificação errônea como o indicador de qualidade, sendo alguns destes freqüentistas (probabilidade estimada pela freqüência relativa de ocorrências - métodos não paramétricos) e outros baseados nas funções densidade de probabilidade das populações (métodos paramétricos). A principal diferença entre esses procedimentos é a conceituação dada ao cálculo da probabilidade de classificação errônea. Pretende-se, no presente estudo, apresentar alguns procedimentos para estimar estas probabilidades, desenvolver um software para a obtenção das estimativas considerando a distância generalizada de Mahalanobis como o procedimento relativo à da função densidade de probabilidade para populações com distribuição multinormal . Este software será de acesso livre e de fácil manuseio para pesquisadores de áreas aplicadas, completado com o manual do usuário e com um exemplo de aplicação envolvendo divergência genética de girassol. / In the Agronomical Sciences, mainly in studies involving biomass production and rational use of energy, there are several situations in which several variable answers in the parts or experimental units are observed. In these situations, a case of practical interest to the agronomical experimentation is that one which considers the construction of similarity regions among parts and or the classification of new experimental units. The classification methods demand, for their utilization, a considerable quantity for utilization of their information retention of data and, mostly, high fidelity and competence in the new individual allocations. There are several procedures to measure accuracy degree of the information supplied by the discrimination method. Practically all of them use the miss-classification probability (erroneous classification) like the quality indicator. The main difference among these evaluation methods is the characterization of the miss-classification probability. Therefore, the aim is to present some estimate procedures of the missclassification probabilities involving repetition frequency and distribution methods and to develop a software to obtain their estimate, which is accessible and easy handling for researchers of applied areas, complementing the study with user's manual and examples in the rational energy application and biomass energy.
663

Meta-heurísticas aplicadas ao problema de projeção do preço de ações na bolsa de valores

Cordeiro, Jelson Andre 28 November 2013 (has links)
A projeção do preço de ações na bolsa de valores é um campo atraente para a investigação devido às suas aplicações comerciais e os benefícios financeiros oferecidos. O objetivo deste trabalho é analisar o desempenho de dois algoritmos meta-heurísticos, o Algoritmo do Morcego e o Algoritmo Genético, para o problema de projeção do preço de ações. Os indivíduos da população dos algoritmos foram modelados utilizando os parâmetros de 7 indicadores técnicos. O lucro final ao fim de um período é maximizado através da escolha do momento adequado para compra e venda de ações. Para avaliar a metodologia proposta foram realizados experimentos utilizando dados históricos reais (2006-2012) de 92 ações listadas na bolsa de valores do Brasil. A validação cruzada foi aplicada nos experimentos para evitar o overfiting, utilizando 3 períodos para treinamento e 4 para teste. Os resultados dos algoritmos foram comparados entre si e com o indicador de desempenho Buy and Hold (B&H). Para 91,30% das ações os algoritmos obtiveram lucro superior ao B&H, sendo que em 79,35% delas o Algoritmo do Morcego teve o melhor desempenho, enquanto que para 11,95% das ações o Algoritmo Genético foi melhor. Os resultados alcançados indicam que é promissora a aplicação de meta-heurísticas com a modelagem proposta para o problema de projeção do preço de ações na bolsa de valores. / The stock prices prediction in the stock exchange is an attractive field for research due to its commercial applications and financial benefits offered. The objective of this work is to analyze the performance of two meta-heuristic algorithms, Bat Algorithm and Genetic Algorithm to the problem of stock prices prediction. The individuals in the population of the algorithms were modeled using 7 technical indicators. The profit at the end of a period is maximized by choosing the right time to buy and sell stocks. To evaluate the proposed methodology, experiments were performed using real historical data (2006-2012) of 92 stocks listed on the stock exchange in Brazil. Cross-validation was applied in the experiments to avoid the overfiting using 3 periods for training and 4 for testing. The results of the algorithms were compared among them and also the performance indicator BuyandHold (B&H).For 91.30% of the stocks, the algorithms obtained profit higher than the B&H, and in 79.35% of them Bat Algorithm had the best performance, while for 11.95% of the stocks Genetic Algorithm was better. The results indicate that it is promising to apply meta-heuristics with the proposed model to the problem of stock prices prediction in the stock exchange.
664

Detecção de região saliente em imagens usando dissimilaridade de cor e amostragem por pixeis aleatórios / Salient region detection in images using color dissimilariries in random sampled pixels

Paula, Nelson Garcia de 21 December 2015 (has links)
O objetivo deste trabalho é demonstrar e avaliar um algoritmo simples de estimação automática da região mais saliente em uma imagem, com possíveis usos em visão computacional. O algoritmo explora a relação entre dissimilaridades de cores na imagem e a região mais saliente da imagem. Este algoritmo não recorre a hipóteses prévias sobre o conteúdo das cenas processadas. Dissimilaridade entre pixeis é uma função informal da distância entre as cores de um pixel específico e outros pixeis de uma imagem. Examina-se a relação entre dissimilaridade de cor entre pixeis aleatórios da imagem e detecção de regiões salientes no conjunto de dados MSRA1K. Propomos um algoritmo simples para a detecção de regiões salientes através da dissimilaridade entre pares de pixeis amostrados aleatoriamente na imagem. Computa-se a dissimilaridade acumulando a distância entre as cores de cada pixel e uma amostra aleatória de n outros pixeis, no espaço de cores CIELAB. Um resultado relevante descoberto é que a dissimilaridade de cada pixel com uma amostra aleatória de tamanho unitário é suficiente para criar mapas de saliência funcionais quando combinada com um filtro da mediana, mantendo um desempenho comparável ao de outros algoritmos relacionados na área de detecção de regiões salientes. A métrica adotada para a análise de desempenho foi a curva de abrangência-precisão. As ideias deste trabalho foram inspiradas no mecanismo de atenção visual humana que é capaz de selecionar poucas regiões para concentrar a atenção, e que é um mecanismo biológico que a comunidade de visão computacional objetiva reproduzir. Também revisamos parte da história da atenção seletiva. / The purpose of this work is to demonstrate and to assess a simple algorithm for automatic estimation of the most salient region in an image, that have possible application in computer vision. The algorithm uses the connection between color dissimilarities in the image and the image’s most salient region. The algorithm also avoids using image priors. Pixel dissimilarity is an informal function of the distance of a specific pixel’s color to other pixels’ colors in an image. We examine the relation between pixel color dissimilarity and salient region detection on the MSRA1K image dataset. We propose a simple algorithm for salient region detection through random pixel color dissimilarity. We define dissimilarity by accumulating the distance between each pixel and a sample of n other random pixels, in the CIELAB color space. An important result is that random dissimilarity between each pixel and just another pixel (n = 1) is enough to create adequate saliency maps when combined with median filter, with competitive average performance if compared with other related methods in the saliency detection research field. The assessment was performed by means of precision-recall curves. This idea is inspired on the human attention mechanism that is able to choose few specific regions to focus on, a biological system that the computer vision community aims to emulate. We also review some of the history on this topic of selective attention.
665

O problema do k-Servidor / The k-server problem

San Felice, Mário César, 1985- 16 August 2018 (has links)
Orientador: Orlando Lee / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-16T05:20:45Z (GMT). No. of bitstreams: 1 SanFelice_MarioCesar_M.pdf: 1592906 bytes, checksum: 7d6d43104cbdeb2ad46a93e6ef11ae23 (MD5) Previous issue date: 2010 / Resumo: Nesta dissertação consideramos o problema do k-Servidor. Neste problema temos k servidores em um espaço métrico e nosso objetivo e atender a uma seqüência de requisições, de modo a minimizar a distancia total percorrida pelos servidores. Dedicamos especial atenção a conjectura do k-Servidor: qualquer espaço métrico admite um algoritmo k-competitivo para o problema do k-Servidor. Este e um dos problemas mais importantes em aberto da area de computação online. O algoritmo da função trabalho, proposto por Chrobak e Larmore, e especialmente relevante para a conjectura. Isto porque foi provado que este algoritmo e k-competitivo para diversos casos particulares do problema do k-Servidor. Alem disso, acredita-se que este algoritmo e de fato k-competitivo para todo espaço métrico. Por isto, o entendimento deste algoritmo e central neste trabalho. Para analisar o algoritmo da função trabalho são utilizados diversos resultados auxiliares desenvolvidos por vários autores. Neste trabalho tentamos apresentar de forma coesa uma coletânea destes resultados. A partir desta mostramos uma prova do teorema de Koutsoupias e Papadimitriou: o algoritmo da função trabalho e (2k - 1)-competitivo para todo espaço métrico. Este e o resultado mais importante relacionado ao problema do k-Servidor. Alem disso, mostramos que a conjectura do k-Servidor vale para alguns casos particulares do problema / Abstract: In this work we study the k-server problem. In this problem, we have k servers on a metric space that must attend a sequence of requests with the goal of minimizing the total distance moved by the servers. We dedicate special attention to the k-server conjecture: any metric space allows for a k-competitive k-server algorithm. This is one of the most important open problems in online computing. The work function algorithm, proposed by Chrobak and Larmore, is very relevant to the conjecture. It has been proved that this algorithm is k-competitive for several special cases of the k-server problem. Furthermore, most researchers believe that the algorithm is indeed k-competitive for any metric space. Thus, a deeper understanding of this algorithm plays a special role in this work. To analyze the work function algorithm, we use many auxiliary results developed by several authors. In this work we tried to present a collection of these results in a concise way. From this, we present a proof of Koutsoupias and Papadimitriou's theorem: the work function algorithm is (2k - 1)-competitive for any metric space. This is the most important result related to the k-server problem. Moreover, we show that the k-server conjecture holds in some special cases / Mestrado / Otimização Combinatoria / Mestre em Ciência da Computação
666

Um mecanismo cognitivo para adaptação automática da taxa de transmissão em redes IEEE 802.11 / A cognitive mechanism for automatic data rate adaptation in IEEE 802.11

Chaves, Luciano Jerez 06 November 2010 (has links)
Orientadores: Edmundo Roberto Mauro Madeira, Islene Calciolari Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-16T05:02:35Z (GMT). No. of bitstreams: 1 Chaves_LucianoJerez_M.pdf: 4144968 bytes, checksum: 7062e66cb3db67a161adbe3ef29be0b2 (MD5) Previous issue date: 2010 / Resumo: A utilização das redes sem fio vem se tornando cada vez mais frequente, e o IEEE 802.11 é o padrão escolhido pela maioria dos dispositivos. Com o objetivo de adaptar-se às condições instáveis dos canais de transmissão sem fio, este padrão especifica diversos esquemas de codificação e modulação de dados que devem ser, obrigatoriamente, implementados pelas interfaces sem fio. Como conseqüência, essas interfaces passam a suportar múltiplas taxas de transmissão, definidas em função da combinação entre a codificação e a modulação utilizada. Entretanto, não faz parte da especificação o processo para a escolha dinâmica de qual taxa de transmissão utilizar, deixando livre para os fabricantes a definição de um algoritmo para solucionar este problema, conhecido por adaptação automática da taxa de transmissão. Apesar de diversas soluções terem sido propostas na literatura, o desempenho alcançado por elas está limitado por fatores como a dificuldade na estimativa da qualidade do canal e o compartilhamento injusto dos recursos entre as estações da rede. Para lidar com estes desafios, este trabalho apresenta um mecanismo cognitivo para adaptação automática da taxa de transmissão denominado Cognitive Rate Adaptation (CORA). Este é um mecanismo completamente distribuído, capaz de equipar as estações da rede com as funcionalidades de autoconfiguração e auto-otimização da taxa de transmissão. O CORA é capaz de reagir rapidamente às mudanças nas condições do canal para evitar a degradação do desempenho, além de convergir para a melhor taxa de transmissão durante os períodos de estabilidade. Para isso, o mecanismo utiliza uma abordagem simplista para avaliar a qualidade do canal sem fio, além de apresentar características específicas que contribuem com a justiça no compartilhamento dos recursos entre as estações. O mecanismo proposto é avaliado através de simulações, e os resultados são comparados com algumas soluções existentes na literatura e também com algoritmos utilizados nos dispositivos comerciais. Os resultados obtidos confirmam o bom desempenho do mecanismo proposto em relação aos demais algoritmos avaliados / Abstract: Wireless networks have become frequently used nowadays, and IEEE 802.11 is the standard chosen for practically all devices. Aiming to adapt to changing conditions of wireless channels, this standard specifies several modulation and coding schemes that must be implemented by all wireless interfaces. As a result, these interfaces can support multiple data rates, which are named according to the selected modulation and coding schemes. However, this standard does not define how to dynamically select the transmission rate to be used, allowing manufacturers to create and implement their own algorithm to solve this problem, known as the rate adaptation problem. Despite that several solutions have been proposed in the literature, the performance achieved by them is limited by factors such as the difficulty in estimating wireless channel conditions and unfair resource sharing among network nodes. In order to tackle these challenges, this work introduces a cognitive mechanism for rate adaptation called CORA. This is a completely distributed mechanism, capable of equipping network stations with self-configuration functionality to dynamically adapt the data rate. This mechanism is also able to quickly react to changes on channel conditions in order to avoid performance degradation, and can converge to the best data rate during periods of stability. To do this, CORA makes use of a simplistic approach for assessing the channel conditions, besides presenting specific features that may ensure fair resource sharing among nodes. The proposed mechanism is evaluated by simulations, and the results are compared with some solutions existing in the literature and also with algorithms that are used in commercial devices. Simulation results confirm performance benefits with respect to the other rate adaptation algorithms evaluated / Mestrado / Redes de Computadores / Mestre em Ciência da Computação
667

Resolução de anafora pronominal em portugues utilizando o algoritmo de Lappin e Leass / Lappin and Leass' algorithm for pronominal anaphora resolution in portuguese

Coelho, Thiago Thomes 16 December 2005 (has links)
Orientador: Ariadne Maria Brito Rizzoni Carvalho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T04:43:41Z (GMT). No. of bitstreams: 1 Coelho_ThiagoThomes_M.pdf: 1293031 bytes, checksum: e0e6b1cd98ea1818dfa38a0c78aaf2e0 (MD5) Previous issue date: 2005 / Resumo: Um dos problemas do processamento de língua natural é a resolução de anáforas, fenômeno que ocorre quando duas ou mais expressões de um texto se referem a uma mesma entidade do discurso. Diversos algoritmos foram propostos para fazer a identificação do antecedente anafórico de pronomes, como o algoritmo de Lappin e Leass (1994), Hobbs (1978) e Grosz et aI. (1995). A resolução de anáforas pode melhorar consideravelmente a qualidade do resultado em diversas aplicações de processamento de língua natural, como por exemplo a recuperação e extração de informações, geração automática de resumos, traduções automáticas, entre outros. A pesquisa envolvendo o processamento automático do português ainda é limitada, se comparada a outras línguas, como inglês, francês e espanhol. Este trabalho visa implementar e avaliar o algoritmo de Lappin e Leass para a resolução de anáforas pronominais em terceira pessoa e pronomes reflexivos e recíprocos, em português. O algoritmo é baseado em um sistema de pesos, atribuídos de acordo com a estrutura sintática da sentença, e utiliza apenas conhecimento sintático na resolução das anáforas / Abstract: One of the most challenging problems in naturallanguage processing is anaphora resolution. This phenomenon occurs when one or more expressions in a text refer to the same entity previously mentioned in the discourse. Several approaches to anaphora resolution have been proposed, such as Lappin e Leass' algorithm (1994), Hobbs (1978) and Grosz et aI. (1995). Anaphora resolution can improve significantly the performance of several naturallanguage processing applications, such as automatic translation and summarisation, among others. Research in automatic processing of Portuguese is still incipient, when compared with other languages such as English, Spanish or French. This work aims at developing and evaluating the Lappin and Leass' algorithm for third person, as well as reflexive and reciprocal pronoun resolution, in Portuguese. The algorithm relies on an weighting scheme assigned according to the syntactic structure of the sentence, and on syntactic knowledge to perform anaphora resolution / Mestrado / Processamento de Linguas Naturais / Mestre em Ciência da Computação
668

Modelagem matemática e simulação computacional para análise de dispersão de poluentes em um trecho do Rio Paraíba do Sul / Mathematical models and computer simulation for analysis of pollutant dispersion in a stretch of the Paraíba do Sul River

Almeida, José Ricardo Ferreira de 06 August 2010 (has links)
Orientador: João Frederico da Costa Azevedo Meyer / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-16T01:39:24Z (GMT). No. of bitstreams: 1 Almeida_JoseRicardoFerreirade_M.pdf: 4553728 bytes, checksum: 624a425a2bcd810bbcf5f8306e5edca4 (MD5) Previous issue date: 2010 / Resumo: Este trabalho usa o modelo clássico de Difusão-Advccção-Reação para simular o comportamento evolutivo bidimensional de manchas de poluentes em um domínio aquático. Em função da ausência de possibilidade de solução analítica (primordialmente pelo tipo de domínio em que sit estuda o referido problema), recorre-se a um método de aproximação baseado em diferenças finitas centradas tanto para as variáveis espaciais quanto para a variável temporal (esta, via uso adequadamente explicitado do método de Crank-Nicolson). As condições de contorno são definidas com foco na situação real, considerando a absorção de poluentes nas margens em trechos determinados em função de seu comportamento. O trecho de rio considerado é o do rio Paraíba do Sul na região de Volta Redonda. RJ, que se caracteriza por ser um trecho reto do referido corpo aquático. Adota-se, como perfil de velocidades, a parábola devida a Poiseuille [11], o que afeta a montagem do sistema de diferenças finitas. Especial atenção é dedicada à precisão numérica resultante da estratégia de aproximação, bem como à possibilidade de visualizar qualitativamente os resultados, criando, assim, um recurso de software que podo ser usado em muitas outras situações minimamente semelhantes de contaminação hídrica sistemática ou emergência / Abstract: His work use the classical model of diffusiou-advection-reaction to simulate the evolutionary two-dimensional behavior of patch.es of pollutants in an aquatic domain. Because of the lack of possibility of analytical solution (primarily by the type of domain where you study the problem), it resorts to an approximation method based on finite differences centered for both spatial variables and for the time variable (this, via the use adequately explained of the Crank-Nicolson method). The boundary conditions are set to focus on the real situation, considering the absorption of pollutants into the bank in determined sections depending on their behavior. The considered stretch of river is this Paraíba do Sul river in region of Volta Redonda, RJ, which is characterized by a straight stretch of that body of water. It is adopted, such a velocity profile, the parabola due to Poiseuillc, which affects the mounting of the system of finite differences. Special attention is devoted to numerical accuracy resulting from the approximation strategy, and the ability to qualitatively visualize the results, thus creating a software feature that can be used in many other similar minimally situations of systematic water contamination or emergency / Mestrado / Matematica Aplicada / Mestre em Matemática Aplicada
669

Resolução de anafora pronominal em portugues utilizando o algoritmo de Hobbs / Hobbs' algorithm for pronomin resolution in portuguese

Santos, Denis Neves de Arruda 20 June 2008 (has links)
Orientador: Ariadne Maria Brito Rizzoni Carvalho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-11T18:00:17Z (GMT). No. of bitstreams: 1 Santos_DenisNevesdeArruda_M.pdf: 1378385 bytes, checksum: 10cb49b058677a79380f46221351fb8a (MD5) Previous issue date: 2008 / Resumo: Anáfora é uma referência abreviada a uma entidade, esperando que o receptor do discurso possa compreender a referência. A automatização da resolução de anáforas pode melhorar o desempenho de vários sistemas de processamento de língua natural, como tradutores, geradores e sumarizadores. A dificuldade no processo de resolução acontece nos casos em que existe mais de um referente possível. Pesquisas sobre a resolução de anáforas na língua portuguesa ainda são escassas, quando comparadas com as pesquisas para outras línguas, como por exemplo, o inglês. Este trabalho descreve uma adaptação para o português do algoritmo sintático proposto por Hobbs para resolução de anáfora pronominal. A avaliação foi feita comparando os resultados com os obtidos por outro algoritmo sintático para resolução de pronomes, o algoritmo de Lappin e Leass. Os mesmos corpora foram utilizados e uma melhora significativa foi obtida com o algoritmo de Hobbs. / Abstract: Anaphora is an abreviated reference to an entity expecting the receiver of the discourse can understand the reference. Automatic pronoun resolution may improve the performance of natural language systems, such as translators, generators and summarizers. Difficulties may arise when there is more than one potential candidate for a referent. There has been little research on pronoun resolution for Portuguese, if compared to other languages, such as English. This paper describes a variant of Hobbs' syntactic algorithm for pronoun resolution in Portuguese. The system was evaluated comparing the results with the ones obtained with another syntactic algorithm for pronoun resolution handling, the Lappin and Leass' algorithm. The same Portuguese corpora were used and significant improvement was verified with Hobbs' algorithm. / Mestrado / Processamento de Linguas Naturais / Mestre em Ciência da Computação
670

The window least mean square error algorithm

Degtyarena, Anna Semenovna 01 January 2003 (has links)
In order to improve the performance of LMS (least mean square) algorithm by decreasing the amount of calculations this research proposes to make an update on each step only for those elements from the input data set, that fall within a small window W near the separating hyperplane surface. This work aims to describe in detail the results that can be achieved by using the proposed LMS with window learning algorithm in information systems that employ the methodology of neural network for the purposes of classification.

Page generated in 0.0968 seconds