• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 16
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 418
  • 254
  • 83
  • 66
  • 65
  • 61
  • 56
  • 50
  • 50
  • 47
  • 42
  • 39
  • 38
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Duas abordagens para a formação de sintagmas fonológicos em Rikbaktsa / Two approaches to phonological phrasing in Rikbaktsa

Pioli, Alexandre Tunis 16 August 2018 (has links)
Orientador: Maria Filomena Spatti Sândalo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Estudos da Linguagem / Made available in DSpace on 2018-08-16T18:43:58Z (GMT). No. of bitstreams: 1 Pioli_AlexandreTunis_M.pdf: 14647464 bytes, checksum: d11052859655c3adc334ae80c8920985 (MD5) Previous issue date: 2010 / Resumo: Esta dissertação tem como objetivos (i) contribuir para o maior conhecimento de aspectos da fonologia da língua Rikbaktsa e (ii) oferecer duas análises para a formação de sintagmas fonológicos nesta língua. O primeiro objetivo é atingido através de uma análise inicial da fonologia entoacional do Rikbaktsa, em que sentenças de diferentes configurações (variando em termos de posições de constituintes) são analisadas conforme o modelo da fonologia entoacional autossegmental-métrica (Pierrehumbert & Beckman 1988, entre outros). Desta análise partem as observações de nível segmental e suprassegmental que contribuem ao alcance do segundo objetivo. As evidências entoacionais sugerem que níveis prosódicos como palavra fonológica, sintagma fonológico e sintagma entoacional são razoavelmente delimitados entoacionalmente, embora seus limites não emerjam de imediato se modelos tradicionais como Nespor & Vogel (1986) e Selkirk (1995) são levados em consideração. Este trabalho oferece, então, percursos de análise no quadro teórico da Teoria da Otimalidade e de uma faceta da fonologia baseada em regras, partindo do pressuposto de que o processo analítico de um e outro modelo podem trazer insights interessantes sobre os fenômenos abordados. Tal discussão foi amplamente estimulada pela literatura recente, notadamente por Nevins & Vaux (2008). A discussão, que inevitavelmente passa por uma comparação entre os pontos-de-vista derivacional e representacional para o fenômeno em análise, encontra seu termo no argumento de que o modelo de Frampton (2008), em que aspectos de ambos se influenciam, oferece uma visão satisfatória para a formação de sintagmas fonológicos na língua, tanto com respeito a um critério conceptual, quanto empírico. / Abstract: This work aims to (i) contribute to the better knowledge of some aspects of the Rikbaktsa phonology and to (ii) offer two approaches to the phonological phrasing in this language. The first goal is fulfilled through an initial analysis of the intonational phonology of Rikbaktsa. Different syntactic configurations (varying in complexity and word order) are analyzed using the autosegmental-metric approach to intonational phonology (Pierrehumbert & Beckman 1988, inter alia). This intonational analysis results in segmental and suprasegmental observations that support the analyses of the following chapters (the second goal of this work). Intonational evidence suggest that prosodic domains such as the phonological word, the phonological phrase and the intonational phrase are delimited by intonation markers. These domains won't emerge automatically if traditional models such as Nespor & Vogel (1986) and Selkirk (1995) are used. This work offers two approaches to the phonological phrasing in this language - in both Optimality Theory and Derivational Phonology-based frameworks -, assuming that good insights can emerge in the analytic process. The discussion, mainly triggered by recent works in the phonological literature such as Nevins & Vaux (2008), also presents an informal comparison between the derivational and representational analyses. This results in the choice of the deffect-driven model by Frampton (2008) as an eligible approach to the phonological phrasing in Rikbaktsa, in which both conceptual and empirical criteria are satisfied in a good measure. / Mestrado / Linguistica / Mestre em Linguística
342

Human skin segmentation using correlation rules on dynamic color clustering / Segmentação de pele humana usando regras de correlação baseadas em agrupamento dinâmico de cores

Rodrigo Augusto Dias Faria 31 August 2018 (has links)
Human skin is made of a stack of different layers, each of which reflects a portion of impinging light, after absorbing a certain amount of it by the pigments which lie in the layer. The main pigments responsible for skin color origins are melanin and hemoglobin. Skin segmentation plays an important role in a wide range of image processing and computer vision applications. In short, there are three major approaches for skin segmentation: rule-based, machine learning and hybrid. They differ in terms of accuracy and computational efficiency. Generally, machine learning and hybrid approaches outperform the rule-based methods but require a large and representative training dataset and, sometimes, costly classification time as well, which can be a deal breaker for real-time applications. In this work, we propose an improvement, in three distinct versions, of a novel method for rule-based skin segmentation that works in the YCbCr color space. Our motivation is based on the hypotheses that: (1) the original rule can be complemented and, (2) human skin pixels do not appear isolated, i.e. neighborhood operations are taken into consideration. The method is a combination of some correlation rules based on these hypotheses. Such rules evaluate the combinations of chrominance Cb, Cr values to identify the skin pixels depending on the shape and size of dynamically generated skin color clusters. The method is very efficient in terms of computational effort as well as robust in very complex images. / A pele humana é constituída de uma série de camadas distintas, cada uma das quais reflete uma porção de luz incidente, depois de absorver uma certa quantidade dela pelos pigmentos que se encontram na camada. Os principais pigmentos responsáveis pela origem da cor da pele são a melanina e a hemoglobina. A segmentação de pele desempenha um papel importante em uma ampla gama de aplicações em processamento de imagens e visão computacional. Em suma, existem três abordagens principais para segmentação de pele: baseadas em regras, aprendizado de máquina e híbridos. Elas diferem em termos de precisão e eficiência computacional. Geralmente, as abordagens com aprendizado de máquina e as híbridas superam os métodos baseados em regras, mas exigem um conjunto de dados de treinamento grande e representativo e, por vezes, também um tempo de classificação custoso, que pode ser um fator decisivo para aplicações em tempo real. Neste trabalho, propomos uma melhoria, em três versões distintas, de um novo método de segmentação de pele baseado em regras que funciona no espaço de cores YCbCr. Nossa motivação baseia-se nas hipóteses de que: (1) a regra original pode ser complementada e, (2) pixels de pele humana não aparecem isolados, ou seja, as operações de vizinhança são levadas em consideração. O método é uma combinação de algumas regras de correlação baseadas nessas hipóteses. Essas regras avaliam as combinações de valores de crominância Cb, Cr para identificar os pixels de pele, dependendo da forma e tamanho dos agrupamentos de cores de pele gerados dinamicamente. O método é muito eficiente em termos de esforço computacional, bem como robusto em imagens muito complexas.
343

Estados Exóticos do Charmonium / Charmonium Exotic States

Raphael Moreira de Albuquerque 14 December 2012 (has links)
Nesta tese de doutorado é utilizado o método das Regras de Soma da QCD para estudar a natureza dos novos estados ressonantes do charmonium: Y(3930), Y(4140), X(4350), Y(4260), Y(4360) e Y(4660). Há fortes evidências de que estes estados possuam estruturas hadrônicas não convencionais (ou exóticas) uma vez que as suas respectivas massas e canais de decaimento observados experimentalmente são inconsistentes com o que é esperado para o estado ressonante convencional do charmonium, J/psi. O mesmo fenômeno ocorre no setor do bottomonium, onde os novos estados Yb(10890) e Yb(11020) observados recentemente poderiam indicar a existência de novos estados exóticos do bottomonium. Neste sentido, verifica-se que o estado Y(4140) poderia ser descrito ou por uma estrutura molecular Ds*Ds* (0++) ou mesmo uma mistura entre estados moleculares Ds*Ds* (0++) e D*D* (0++). Já os estados Y(3930) e o X(4350) não podem ser descritos por correntes moleculares D*D* (0++) e Ds*Ds* (1-+), respectivamente. Verifica-se também que a estrutura molecular Psi(2S) f_0(980) (1--) descreve muito bem a massa do estado Y(4660). Uma extensão ao setor do bottomonium indica que o estado molecular Y(2S) f_0(980) é um bom candidato para descrever a estrutura do estado Yb(10890). É feita também uma estimativa para os possíveis estados moleculares formados por mésons D(*) e B(*), que poderão ser observados em futuros experimentos realizados pelo LHC. Um amplo estudo, utilizando o formalismo das Regras de Soma e também da Dupla Razão das Regras de Soma, é feito para calcular as massas dos bárions pesados na QCD. As estimativas para as massas dos bárions com um (Qqq) e com dois (QQq) quarks pesados são um excelente teste para a capacidade do método das regras de soma em prever a massa dos bárions que ainda não foram observados. / In this thesis, the QCD sum rules approach was used to study the nature of the new charmonium resonances: Y(3930), Y(4140), X(4350), Y(4260), Y(4360) and Y(4660). There is a strong evidence that these states have non-conventional (or exotic) hadronic structures since their respective masses and decay channels observed experimentally are inconsistent with what expected for a conventional charmonium state, J/psi. The same phenomenon occurs on the bottomonium sector, where new states like Yb(10890) and Yb(11020) observed recently could indicate the existence of new bottomonium exotic states. In this way, one verifies that the state Y(4140) could be described as a Ds*Ds* (0++) molecular state or even as a mixture of Ds*Ds* (0++) and D*D* (0++) molecular states. For the Y(3930) and X(4350) states, both cannot be described as a D*D* (0++) and Ds*Ds* (1-+), respectively. From a sum rule point of view, the Y(4660) state could be described as a Psi(2s) f_0(980) (1--) molecular state. The extension to the bottomonium sector is done in a straightforward way to demonstrate that the Y(2S) f_0(980) molecular state is a good candidate for describing the structure of the Yb(10890) state. In the following, one estimates the mass of the exotic Bc-like molecular states using QCD Sum Rules - these exotic states would correspond to bound states of D(*) and B(*) mesons. All of these mass predictions could (or not) be checked in a near future experiments at LHC. A large study using the Double Ratio of Sum Rules approach has been evaluated for the study of the heavy baryon masses in QCD. The obtained results for the unobserved heavy baryons, with one (Qqq) and two (QQq) heavy quarks will be an excellent test for the capability of the sum rule approach in predicting their masses.
344

Estudo da excitação eletrônica de um produto natural Volátil (isopreno) por espectroscopia de impacto de elétrons na região do ultravioleta de vácuo

Moraes, Maria Oneide Silva de 25 March 2013 (has links)
Submitted by Alisson Mota (alisson.davidbeckam@gmail.com) on 2015-07-17T18:46:47Z No. of bitstreams: 1 Dissertação - Maria Oneide Silva de Moraes.pdf: 9993702 bytes, checksum: d0ede70d56d052b19d6265bf315f6128 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-20T14:16:31Z (GMT) No. of bitstreams: 1 Dissertação - Maria Oneide Silva de Moraes.pdf: 9993702 bytes, checksum: d0ede70d56d052b19d6265bf315f6128 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-20T14:20:29Z (GMT) No. of bitstreams: 1 Dissertação - Maria Oneide Silva de Moraes.pdf: 9993702 bytes, checksum: d0ede70d56d052b19d6265bf315f6128 (MD5) / Made available in DSpace on 2015-07-20T14:20:29Z (GMT). No. of bitstreams: 1 Dissertação - Maria Oneide Silva de Moraes.pdf: 9993702 bytes, checksum: d0ede70d56d052b19d6265bf315f6128 (MD5) Previous issue date: 2013-03-25 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The absolute values of the photoabsorption cross section of compounds are of great importance in the fields of physics, chemistry, biology, therapy and related fields. Studies of natural products are also of great importance several areas of science and innovation, however, information related to the values of the photoabsorption cross section in the vacuum ultraviolet region are scarce in the literature. In this paper a study of the electronic excitations of the molecule isoprene using a spectrometer energy loss of electrons from low-resolution (0,8– 1,0 eV FWHM) at the Laboratory for Photon and Electron Impact (LIFE-UFRJ). The energy loss spectra of electrons were obtained in the range 3-100 eV at various angles of scattering with incident energy of 1 keV. The spectra of generalized oscillator strength (GOS) for the isoprene molecule were obtained by the Bethe-Born conversion. The spectrum GOS obtained in the angle of impact 2o was extrapolated to the strength oscillator photoabsorption optical using the universal formula Msezane and Sakmar (1997). The photoabsorption cross sections on an absolute scale were determined by of the static polarizability of isoprene applying the sum rule S(-2) in the photoabsorption spectrum. The contributions of the inner layer photoabsorption above 100 eV were estimated from a fit polynomial curve. Other sum rules were used to estimate the values of physical properties isoprene as sum rule S(0) is equal to the number of electrons on the target (36,45 a. u.), the rule logarithmic L(0) is the stopping power of the molecule (18,05 a.u.), the rule logarithmic L(1) is related to the effect straggling referring to fluctuations of the incident beam (22,49 a.u.) and rule logarithmic L(2) for the Lamb shift (55,27 a.u.). The set of spectra GOS obtained at different scattering angles were presented in Bethe surface to isoprene. Two regions stand out: a region dominated by the optical selection rules for electronic transitions of the absorption, and the other region, we observed a strong angular dependence on the momentum of the incident electrons becomes significant.The Bethe surface and the sum rules are unpublished experimental data in the literature. The absolute values of the cross section and the Bethe surface can contribute to a complete understanding of the electronic excitations of the molecule isoprene induced by collisions of charged particles. It is expected that these absolute valuesmay be useful as references to theoretical calculations and experimental in the electronic spectra of isoprene. / Os dados de seção de choque de fotoabsorção de compostos são de grande importância nas áreas de física, química, biologia, terapia e áreas afins. Os estudos de produtos naturais também são de grande importância em diversas áreas científicas e de inovação, porém, informações relacionadasaos valores de seção de choque de fotoabsorção na região ultravioleta de vácuo são incipientes na literatura. Neste trabalho foi feito um estudo das excitações eletrônicas da molécula isopreno utilizando um espectrômetro de perda de energia de elétrons de baixa resolução (0,8 – 1,0 eV FWHM) no Laboratório de Impacto de Fótons e Elétrons (LIFE-UFRJ). Os espectros de perda de energia de elétrons foram obtidos na faixa de 3 a 100 eV em vários ângulos de espalhamentos com energia incidente de 1 keV. Os espectros de força do oscilador generalizado (FOG) para a molécula isopreno foram obtidos pela conversão de Bethe-Born. O espectro de FOG obtido no ângulo de impacto de 2o foi extrapolado para força do oscilador de fotoabsorção ótico utilizando a fórmula universal de Msezane e Sakmar (1997). As seções de choque de fotoabsorção em escala absoluta foram determinadas por meio da polarizabilidade estática do isopreno aplicando a regra de soma S(-2) no espectro de fotoabsorção. As contribuições da fotoabsorção da camada interna acima de 100 eV foram estimadas com o ajuste de uma curva polinomial.Outras regras de somas foram utilizadas para estimar os valores de propriedades físicas para o isopreno como a regra de soma S(0) que é igual ao número de elétrons no alvo (36,45 u. a., unidades atômicas), a regra de soma logarítmica L(0) é o stopping power da molécula (18,05 u. a.), a regra de soma logarítmica L(1) é o efeito straggling referente às flutuações estáticas do feixe incidente (22,49 u. a.) e a regra de soma logarítmica L(2) referente ao deslocamento de Lamb (55,27 u. a.). O conjunto de espectros de FOG obtidos em diferentes ângulos de espalhamento foi apresentado na Superfície de Bethe para o isopreno. Duas regiões se destacaram: uma região dominada pelas regras de seleção ópticas de transições eletrônicas dos processos de absorção, e a outra região, foi observado uma forte dependência angular em que o momento linear dos elétrons incidentes torna-se significativo. A Superfície de Bethe e as regras de somas são resultados experimentais inéditos na literatura. Os valores absolutos de seção de choque e a Superfície de Bethe podem contribuir para um entendimento completo das excitações eletrônicas da molécula isopreno induzidas por colisões de partículas carregadas. É esperado que estes valores absolutos possam ser úteis como referências em cálculos teóricos e experimentais para o espectro eletrônico do isopreno.
345

Removing DUST using multiple alignment of sequences

Rodrigues, Kaio Wagner Lima, 92991221146 21 September 2016 (has links)
Submitted by Kaio Wagner Lima Rodrigues (kaiowagner@gmail.com) on 2018-08-23T05:45:00Z No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5) kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5) / Approved for entry into archive by Secretaria PPGI (secretariappgi@icomp.ufam.edu.br) on 2018-08-23T19:08:57Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5) kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-08-24T13:43:58Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5) kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5) / Made available in DSpace on 2018-08-24T13:43:58Z (GMT). No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5) kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5) Previous issue date: 2016-09-21 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / A large number of URLs collected by web crawlers correspond to pages with duplicate or near-duplicate contents. These duplicate URLs, generically known as DUST (Different URLs with Similar Text), adversely impact search engines since crawling, storing and using such data imply waste of resources, the building of low quality rankings and poor user experiences. To deal with this problem, several studies have been proposed to detect and remove duplicate documents without fetching their contents. To accomplish this, the proposed methods learn normalization rules to transform all duplicate URLs into the same canonical form. This information can be used by crawlers to avoid fetching DUST. A challenging aspect of this strategy is to efficiently derive the minimum set of rules that achieve larger reductions with the smallest false positive rate. As most methods are based on pairwise analysis, the quality of the rules is affected by the criterion used to select the examples and the availability of representative examples in the training sets. To avoid processing large numbers of URLs, they employ techniques such as random sampling or by looking for DUST only within sites, preventing the generation of rules involving multiple DNS names. As a consequence of these issues, current methods are very susceptible to noise and, in many cases, derive rules that are very specific. In this thesis, we present a new approach to derive quality rules that take advantage of a multi-sequence alignment strategy. We demonstrate that a full multi-sequence alignment of URLs with duplicated content, before the generation of the rules, can lead to the deployment of very effective rules. Experimental results demonstrate that our approach achieved larger reductions in the number of duplicate URLs than our best baseline in two different web collections, in spite of being much faster. We also present a distributed version of our method, using the MapReduce framework, and demonstrate its scalability by evaluating it using a set of 7.37 million URLs. / Um grande número de URLs obtidas por coletores corresponde a páginas com conteúdo duplicado ou quase duplicado, conhecidas em Inglês pelo acrônimo DUST, que pode ser traduzido como Diferentes URLs com Texto Similar. DUST são prejudiciais para sistemas de busca porque ao serem coletadas, armazenadas e utilizadas, contribuem para o desperdício de recursos, a criação de rankings de baixa qualidade e, consequentemente, uma experiência pior para o usuário. Para lidar com este problema, muita pesquisa tem sido realizada com intuito de detectar e remover DUST antes mesmo de coletar as URLs. Para isso, esses métodos se baseiam no aprendizado de regras de normalização que transformam todas as URLs com conteúdo duplicado para uma mesma forma canônica. Tais regras podem ser então usadas por coletores com o intuito de reconhecer e ignorar DUST. Para isto, é necessário derivar, de forma eficiente, um conjunto mínimo de regras que alcance uma grande taxa de redução com baixa incidência de falsos-positivos. Como a maioria dos métodos propostos na literatura é baseada na análise de pares, a qualidade das regras é afetada pelo critério usado para selecionar os exemplos de pares e a disponibilidade de exemplos representativos no treino. Para evitar processar um número muito alto de exemplos, em geral, são aplicadas técnicas de amostragem ou a busca por DUST é limitada apenas a sites, o que impede a geração de regras que envolvam diferentes nomes de DNS. Como consequência, métodos atuais são muito suscetíveis a ruído e, em muitos casos, derivam regras muito específicas. Nesta tese, é proposta uma nova técnica para derivar regras, baseada em uma estratégia de alinhamento múltiplo de sequências. Em particular, mostramos que um alinhamento prévio das URLs com conteúdo duplicado contribui para uma melhor generalização, o que resulta na geração de regras mais efetivas. Através de experimentos em duas diferentes coleções extraídas da Web, observa-se que a técnica proposta, além de ser mais rápida, filtra um número maior de URLs duplicadas. Uma versão distribuída do método, baseada na arquitetura MapReduce, proporciona a possibilidade de escalabilidade para coleções com dimensões compatíveis com a Web.
346

Projeto e avaliação de algoritmos paralelos para sistemas Multicore e Manycore aplicados no processamento de documentos / Design and evaluation of parallel algorithms for Multicore and Manycore systems applied on document processing

Freitas, Mateus Ferreira e 30 August 2017 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2017-10-02T15:28:01Z No. of bitstreams: 2 Dissertação - Mateus Ferreira e Freitas - 2017.pdf: 4269845 bytes, checksum: e84e69d8747a21125170793812384a98 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-10-02T15:30:07Z (GMT) No. of bitstreams: 2 Dissertação - Mateus Ferreira e Freitas - 2017.pdf: 4269845 bytes, checksum: e84e69d8747a21125170793812384a98 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-10-02T15:30:07Z (GMT). No. of bitstreams: 2 Dissertação - Mateus Ferreira e Freitas - 2017.pdf: 4269845 bytes, checksum: e84e69d8747a21125170793812384a98 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-08-30 / Several applications process documents in different ways, aiming to filter, organize or learn with them. Nowadays, a great computational power is necessary in order to do that efficiently, due to the large and increasing number of documents. Usually, documents are independent of each other, which facilitates the use of parallelism to speed up this processing. This work explores three problems: active learning, learning to rank (L2R) and top-k search. Using the parallelism on multicore CPUs and manycore GPUs (Graphics Processing Unit), parallel algorithms were proposed and evaluated for each problem, and implemented with the OpenMP and CUDA APIs. For the active learning problem a multicore algorithm was proposed, which obtained 10.8x of speedup in the best case with 12 threads. The proposed manycore version obtained 128x of speedup over the serial version, and a solution with 4 GPUs achieved 3.5x of speedup over 1 GPU. For the L2R problem a manycore algorithm was proposed, which follows a thread-block approach using the concept of Combinadic, and uses a cache with fingerprint to speed up the processing. The best case speedups were 508x over the serial, 9x over a GPU baseline, and 4x over our solution when using 4 GPUs. When comparing with a version without combinadic, the speedup over it was 4.4x with both versions using 1 GPU and 3.9x with 4. These solutions used bitmap structures to speed up the association rules creation. In the top-k search a serial and multicore solutions were implemented from a state of the art manycore algorithm for exact searches. These implementations served as baselines for our extension of this algorithm, which includes the use of multi-GPU, group searches and an intra-block load balancing. The speedups were 2.7x over the original algorithm, 17x over the serial, 4x over the multicore, and 4x over our version when using 4 GPUs. / Diversas aplicações processam documentos de diferentes maneiras, visando filtrá-los, organizá-los ou aprender com eles. Atualmente, é necessário um grande poder computacional para que isso seja feito eficientemente, devido ao número grande e crescente de documentos. Geralmente os documentos são independentes entre si, o que facilita o uso de paralelismo para acelerar esse processamento. Este trabalho explora três problemas: aprendizado ativo, learning to rank (L2R) e busca top-k. Usando o paralelismo em CPUs multicore e GPUs (Graphics Processing Unit) manycore, algoritmos paralelos foram propostos e avaliados para cada problema, e implementados com as APIs OpenMP e CUDA. Para problema de aprendizado ativo foi proposto um algoritmo multicore, que obteve speedup de 10,8x no melhor caso com 12 threads. A versão manycore proposta obteve speedup de 128x em relação ao serial, e uma solução com 4 GPUs atingiu 3,5x de speedup sobre 1 GPU. Para o problema de L2R foi proposto um algoritmo manycore, que segue uma abordagem por bloco de threads} usando o conceito de Combinadic, e usa uma cache} com fingerprint para acelerar o processamento. Os speedups nos melhores casos foram de 508x sobre o serial, 9x sobre uma baseline em GPU, e 4x sobre nossa solução com 1 GPU ao usar 4 GPUs. Ao comparar com uma versão sem o combinadic, o speedup sobre ela foi de 4,4x com ambas versões usando 1 GPU e 3,9x usando 4. Estas soluções usaram estruturas de mapa de bits para acelerar a criação de regras de associação. Na busca top-k foram implementadas uma solução serial e uma multicore de um algoritmo manycore estado da arte para buscas exatas. Estas implementações serviram de baseline para nossa extensão desse algoritmo, que inclui o uso de multi-GPU, buscas em grupos e um balanceamento de carga intra-bloco. Os speedups obtidos foram de 2,7x sobre o algoritmo original, 17x sobre o serial, 4x sobre o multicore, e 4x sobre nossa versão ao usar 4 GPUs.
347

Dimensionamento de usinas hidroelétricas através de técnicas de otimização evolutiva / Sizing hydropower plants via evolutionary optimization techniques

Donato da Silva Filho 18 December 2003 (has links)
As metodologias normalmente utilizadas para otimizar as dimensões de uma usina hidroelétrica, incluindo os métodos empregados pelo Setor Elétrico Brasileiro, baseiam-se em análises do tipo custo/benefício. Os custos provêm de gastos diretos com a construção da usina e os benefícios correspondem a receitas proporcionadas pela venda de energia. Para avaliar os benefícios, são realizadas simulações da operação da usina e a energia produzida é valorizada economicamente. Esta necessidade das simulações da operação faz com que o problema de dimensionamento não possua uma função analítica explícita para determinar os benefícios energéticos, o que dificulta a implementação de métodos tradicionais de otimização. O objetivo deste trabalho é justamente desenvolver e implementar uma metodologia de dimensionamento que permita que o processo de busca pelas dimensões ótimas seja automático. Para tanto, acoplam-se um modelo de otimização evolutiva e um modelo de simulação da operação de sistemas hidroelétricos. Adicionalmente, o modelo proposto também deve ser flexível, permitindo que as regras de operação do sistema hidroelétrico, o conjunto de vazões afluentes, a forma de valorização da energia gerada e uma série de outros fatores sejam tratados como parâmetros do modelo. Os resultados encontrados indicam que, sob o ponto de vista computacional, o modelo proposto é automático, flexível e eficiente. Além disso, as várias análises de sensibilidade realizadas atestam a consistência da metodologia proposta e permitem avaliar a forma como os diferentes parâmetros do modelo influenciam as próprias dimensões da usina sob dimensionamento. A partir destas análises, sugerem-se algumas medidas de regulamentação e planejamento para que as dimensões de novas usinas não sejam determinadas a partir de sinalizações imprecisas de parâmetros que influenciam de forma decisiva suas dimensões ótimas. / The methods normally applied to optimally size a hydropower plant, including the ones used by the Brazilian Power Industry, are based on cost/benefit analysis. The costs are due to direct expenses with the hydropower plant construction and the benefits correspond to incomes from selling energy. The benefits are evaluated throughout computing simulations of the hydropower plant operation, followed by the assignment of an economical value to the energy produced by it. The need for computing simulations turns out a non-analytical objective function for the sizing problem, what makes the use of traditional optimization tools very hard. The objective of this work is just to develop and implement a sizing method that automatically performs the search for the optimal sizes of a hydropower plant. The proposed method combines an evolutionary optimization technique and a simulation model for the operation of hydropower systems. Additionally, the proposed model is also flexible in the sense that the operation rules for the hydroelectric system simulation, the set of water inflows, the way the energy is valued and some other factors that may influence the results are treated as parameters. The results show that, from the computing point of view, the proposed method is automatic, flexible and efficient. Furthermore, the sensitivity analyses performed validate the method consistency and establish relationships among the different parameters and the way they affect the optimal features of the new hydropower plant. Based on the results of such analyses, some regulation and planning measures are suggested in order to avoid sizing hydropower plants with mistaken parameters that can substantially change its optimal features.
348

O papel do Estado na regulação dos investimentos das entidades fechadas de previdência complementar

Santos, Fabiano Silva dos 15 December 2015 (has links)
Made available in DSpace on 2016-03-15T19:34:28Z (GMT). No. of bitstreams: 1 Fabiano Silva dos Santos.pdf: 1406197 bytes, checksum: 82789068e6510aa77de9d8baceebd07a (MD5) Previous issue date: 2015-12-15 / Universidade Presbiteriana Mackenzie / This study aims to evaluate the State role in investment regulation of the private entities of complementary pension. The control of pension resource investment process has as propose maintain funds liquidity and ensure the future payment of pension contracted by the participants. The pension funds are overseen by National Superintendence of Complementary Pension (PREVIC) and should have enough internal controls and governance to avoid actuarial deficit in the benefit plans that manage, the corporate governance. The private pension system is managed by entities whose purpose is implant and execute the benefit plans, considering the investment policy the main bond of the negotiation process, it s in the policy that becomes stablished the guideline fallowed by everyone included in the investment. The main technical features and procedures commented above have relevant normative regulation, especially Complementary Law n. 109/2001, Resolution CMN n. 3.792/2009 e Resolution CGPC n. 13/2004. Moreover, will be analyzed different segments of investments, included fixed income, variable income, structured investments, real estate and operations with participants, in addition to your legal limitations. The State will act throughout the private pension system, regulating, coordinating and supervising activities, seeking, in this way, a balance between economic and social. / O presente estudo pretende analisar o papel do Estado na regulação dos investimentos das entidades fechadas de previdência complementar. O controle do processo de aplicação dos recursos previdenciários tem como finalidade preservar a liquidez e o pagamento do benefício futuro. Os fundos de pensão são fiscalizados pela Superintendência Nacional de Previdência Complementar (PREVIC) e devem possuir controles internos suficientes para evitar déficit atuarial nos planos de benefício que administram, a partir da governança corporativa. O regime de previdência privada é operado por entidades que têm por objetivo principal instituir e executar os planos de benefícios previdenciários, observando a política de investimentos enquanto linha condutora do processo negocial de investimento, uma vez que é nela que se registram as diretrizes observadas por todos aqueles que participam do processo decisório de investimento. As características e os procedimentos acima descritos possuem regulação normativa relevante, com destaque para a Lei Complementar nº 109/2001, a Resolução CMN nº 3.792/2009 e a Resolução CGPC nº 13/2004. Além disso, serão analisados, ainda, neste trabalho, os diferentes segmentos de investimentos, quais sejam: a renda fixa, a renda variável, as operações com participação, os investimentos imobiliários e os investimentos estruturados, bem como as limitações para suas alocações. O Estado irá atuar em todo o sistema de previdência complementar, disciplinando, coordenando e supervisionando as atividades, a fim de buscar o equilíbrio entre o econômico e o social.
349

Evolução de regras de associação para recomendação de produtos em comércio eletrônico

Cunha, Danilo Souza da 23 October 2013 (has links)
Made available in DSpace on 2016-03-15T19:37:52Z (GMT). No. of bitstreams: 1 Danilo Souza da Cunha.pdf: 1082171 bytes, checksum: 4d2c64017c5641baf212b0fe377da373 (MD5) Previous issue date: 2013-10-23 / Fundo Mackenzie de Pesquisa / E-commerce has been growing rapidly over the past years. Various products, services, and information are constantly offered to millions of internet users. Defining an adequate strategy to offer a product to a customer is the main goal of a recommender system. To do so, the items to be offered have to take into account the interests of each customer. This association of items is a data mining task, more specifically a task called association rule mining. This dissertation investigated the use of bioinspired algorithms, particularly evolutionary and im-mune algorithms, to build associations among items of a database. Three sets of experiments were performed: an investigation into the influence of different selection and crossover mech-anisms in an evolutionary algorithm for association rule mining; the use of a probabilistic selection in the immune algorithm; and a comparison of the bioinspired algorithms with the standard deterministic algorithm called Apriori. The data bases for comparison were taken from real e-commerce applications. The results allowed the identification of a suitable combi-nation of the selection and crossover mechanisms for the evolutionary algorithm, and to iden-tify the strengths and weaknesses of all approaches when applied to real-world recommender systems. / O comércio eletrônico vem crescendo rapidamente ao longo dos últimos anos. Produtos, serviços e informações dos mais variados tipos são oferecidos todos os dias para milhares de usuários na Internet. Definir uma estratégia adequada para oferecer um produto a clientes é o objetivo dos sistemas de recomendação. Para isso leva em conta itens que podem ser ofertados considerando o interesse de cada cliente. Essa associação entre itens é uma tarefa que recai sobre a competência da mineração de dados, mais especificamente a área chamada de mineração de regras de associação. Esta dissertação investigou o uso de algoritmos bioinspirados, mais especificamente algoritmos evolutivos e imunológicos, a fim de construir associações entre os itens de uma base de dados. Foram feitos três estudos: a influência de diferentes mecanismos de seleseleção e cruzamento no algoritmo evolutivo; o uso de seleção probabilística no algoritmo imunológico; e a comparação dos algoritmos bioinspirados com o algoritmo determinístico clássico aplicado a essa tarefa, chamado de Apriori. As bases de dados para efeitos comparativos foram coletadas em lojas nacionais de comércio eletrônico. Os resulta-dos apresentados permitiram identificar uma combinação adequada dos mecanismos de sele-ção e cruzamento do algoritmo evolutivo, assim como identificar os pontos fortes e fracos dos algoritmos bioinspirados quando comparados ao algoritmo tradicional.
350

Uso de medidas de desempenho e de grau de interesse para análise de regras descobertas nos classificadores

Rocha, Mauricio Rêgo Mota da 20 August 2008 (has links)
Made available in DSpace on 2016-03-15T19:38:11Z (GMT). No. of bitstreams: 1 Mauricio Rego Mota da Rocha.pdf: 914988 bytes, checksum: d8751dcc6d37e161867d8941bc8f7d64 (MD5) Previous issue date: 2008-08-20 / Fundo Mackenzie de Pesquisa / The process of knowledge discovery in databases has become necessary because of the large amount of data currently stored in databases of companies. They operated properly can help the managers in decision-making in organizations. This process is composed of several steps, among them there is a data mining, stage where they are applied techniques for obtaining knowledge that can not be obtained through traditional methods of analysis. In addition to the technical, in step of data mining is also chosen the task of data mining that will be used. The data mining usually produces large amount of rules that often are not important, relevant or interesting to the end user. This makes it necessary to review the knowledge discovered in post-processing of data. In the stage of post-processing is used both measures of performance but also of degree of interest in order to sharpen the rules more interesting, useful and relevant. In this work, using a tool called WEKA (Waikato Environment for Knowledge Analysis), were applied techniques of mining, decision trees and rules of classification by the classification algorithms J48.J48 and J48.PART respectively. In the post-processing data was implemented a package with functions and procedures for calculation of both measures of performance but also of the degree of interest rules. At this stage consultations have also been developed (querys) to select the most important rules in accordance with measures of performance and degree of interest. / O processo de descoberta de conhecimento em banco de dados tem se tornado necessário devido à grande quantidade de dados atualmente armazenados nas bases de dados das empresas. Esses dados devidamente explorados podem auxiliar os gestores na tomada de decisões nas organizações. Este processo é composto de várias etapas, dentre elas destaca-se a mineração de dados, etapa onde são aplicadas técnicas para obtenção de conhecimento que não podem ser obtidas através de métodos tradicionais de análise. Além das técnicas, na etapa demineração de dados também é escolhida a tarefa de mineração que será utilizada. A mineração de dados geralmente produz grande quantidade de regras que muitas vezes não são importantes, relevantes ou interessantes para o usuário final. Isto torna necessária a análise do conhecimento descoberto no pós-processamento dos dados. Na etapa de pós-processamento são utilizadas medidas tanto de desempenho como também de grau de interesse com a finalidade de apontar as regras mais interessante, úteis e relevantes. Neste trabalho, utilizando-se de uma ferramenta chamada WEKA (Waikato Environment for Knowledge Analysis), foram aplicadas as técnicas de mineração de Árvore de Decisão e de Regras de Classificação através dos algoritmos de classificação J48.J48 e J48.PART respectivamente. No pós-processamento de dados foi implementado um pacote com funções e procedimentos para cálculo das medidas tanto de desempenho como também de grau de interesse de regras. Nesta etapa também foram desenvolvidas consultas (querys) para selecionar as regras mais importantes de acordo com as medidas de desempenho e de grau de interesse.

Page generated in 0.0275 seconds