• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3326
  • 2048
  • 475
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 5882
  • 3174
  • 3124
  • 3107
  • 3039
  • 2995
  • 2988
  • 2987
  • 2981
  • 2968
  • 2965
  • 798
  • 490
  • 460
  • 416
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Técnicas para mejorar la eficiencia energética de los CMPs con coherencia de caché= Improving the energy-efficiency of cache-coherent multi-cores.

García Guirado, Antonio 22 November 2013 (has links)
Objetivos Con el fin de los beneficios energéticos del escalado clásico de los transistores, la eficiencia energética se convirtió en el principal objetivo de los diseños de microprocesador. Las mejoras de los transistores no pueden compensar al mismo ritmo que en el pasado los costes energéticos de mejorar el rendimiento con frecuencias mayores y microarquitecturas más complejas. Ahora más que nunca, los arquitectos de computadores deben proporcionar el crecimiento de rendimiento esperado a través de diseños más eficientes energéticamente. Hace algunos años los multiprocesadores en un chip (CMPs), formados por núcleos relativamente simples, se adoptaron como una arquitectura con mayor eficiencia energética, convirtiéndose en la principal corriente de diseño. Sin embargo, los CMPs plantean dificultades particulares en su diseño. En esta tesis abordamos dos cuestiones con creciente importancia al escalar los CMPs: el consumo de energía de la red del chip (NoC) y la escalabilidad de la coherencia de caché, y proponemos mecanismos para mitigar su impacto en la eficiencia energética. Al aumentar la cantidad de núcleos, la información de coherencia de caché llegaría a ocupar la mayor parte del área de almacenamiento del chip si no somos capaces de desarrollar esquemas de coherencia escalables y eficientes energéticamente. Además, las tendencias actuales indican que la NoC acabaría usando la mayor parte de la energía del chip si no se toman medidas para evitarlo. Metodología Cada propuesta de esta tesis fue evaluada contra otras soluciones recientes, demostrando su eficacia, y puesta en contexto con el estado del arte. Para ello se utilizó un extenso conjunto de herramientas, incluyendo simuladores detallados como Simics, GEMS y GEM5 para modelar el rendimiento de los CMPs, simuladores de red como GARNET y simuladores de consumo energético como McPAT, Orion o CACTI. Un diseño tiled-CMP, representativo de los multiprocesadores actuales en cualquier segmento de mercado, se usó como base sobre la que implementar nuestras propuestas. Resultados Para mejorar la escalabilidad de la coherencia de caché proponemos un nuevo esquema de coherencia basado en un chip dividido en áreas enlazadas que reduce notablemente el tamaño del almacenamiento usado por la información de compartición. También proponemos una organización de caché unificada que elimina la sobrecarga y complejidad de las estructuras de almacenamiento de directorio aprovechando los recursos compartidos de caché para almacenar alternativamente datos o información de directorio con granularidad de entrada de caché. Esta organización usa eficientemente los recursos de almacenamiento, asignando a información de directorio sólo el (pequeño) número de entradas necesarias de la memoria caché unificada. Demostramos que esta organización es escalable a grandes números de núcleos (e.g., 512 trivialmente y 1 millón con códigos compartidos elaborados). Para reducir el impacto del escalado de la NoC desarrollamos técnicas para aumentar la proximidad entre datos y núcleos a nivel de la arquitectura y políticas para utilizar de manera eficiente la novedosa tecnología de transmisión fotónica en silicio de bajo consumo. Para aumentar la cercanía de datos, proponemos un mecanismo que obtiene datos de un proveedor cercano en la zona en que se encuentra el núcleo que solicita los datos, a nivel de protocolo de coherencia de caché. A nivel de organización de caché proponemos una nueva organización cuyo objetivo es minimizar la distancia media para acceder al último nivel de cache, reduciendo la energía necesaria para alimentar los núcleos con datos. Para permitir la explotación de la fotónica en silicio abrimos el campo de las políticas dinámicas de gestión de NoCs híbridas fotónicas-electrónicas, haciendo uso eficiente de las propiedades particulares de cada tecnología con fina granularidad de mensaje, resultando en importantes beneficios en rendimiento, energía y latencia. / Objectives With the end of the energy benefits of classical transistor scaling, energy-efficiency became the driving factor of microprocessor design. The energy costs of increasing operating frequencies and using more aggressive microarchitectures to improve performance can no longer be compensated by transistor technology advances at the same rate as in the past. Now more than ever, computer architects are left in charge of providing the expected growth of microprocessor performance by means of more energy-efficient designs, in order to make cost-effective use of the ever-increasing transistor density in chips within a limited power budget. Otherwise, microprocessor evolution would be doomed to hit the power wall. Some years back, chip multiprocessors (CMPs) containing relatively simple cores were deemed a suitable architecture in the search for energy-efficiency and went mainstream. However, CMPs pose particular challenges in their design. In this thesis we tackle two paramount issues with growing importance as we scale out CMPs, namely network-on-chip power consumption and cache coherence scalability, and we propose mechanisms to alleviate their impact on the energy-efficiency of CMPs. As the core count increases, cache coherence information may eventually account for most storage area on chip if we fail to provide scalable and energy-efficient coherence schemes. In addition, current trends indicate that networks-on-chip (NoCs) would end up taking up most of the chip energy budget unless measures are taken to prevent it. Methodology To carry out this research, a comprehensive set of tools was used, including detailed simulators such as Simics, GEMS and GEM5 to model the timing of CMPs, network simulators such as GARNET, as well as power simulators such as McPAT, Orion or CACTI. A tiled-CMP design, representative of current multiprocessors in every market segment, was used as a baseline with realistic features on which to implement our proposals. Every proposal was evaluated against state of the art counterparts to prove their effectiveness. Results To improve the scalability of cache coherence, we propose a new coherence scheme based on a chip divided in linked areas that noticeably reduces the size of the storage used to maintain sharing information. Then, we propose a unified cache organization that eliminates the overhead and complexity of directory storage structures by leveraging shared cache resources to alternately store data or directory information at a cache entry granularity. This organization makes efficient use of storage resources as just the required (small) number of entries are allocated for directory information in the unified cache. We show that this organization is scalable to very large core counts (e.g. 512 trivially and one million with elaborate sharing codes). To reduce the impact of network scaling, we develop techniques to increase the proximity of data to cores at the architecture level, and policies to efficiently use disruptive low-power transmission technologies such as silicon photonics. For increasing data proximity, in this thesis we propose a mechanism that retrieves data from a close provider in the area in which the core requesting the data is located, working at the cache coherence protocol level. At the cache organization level, we propose a new organization that aims at minimizing the average distance to access the last level cache, reducing the energy required to feed the cores with data. To enable the exploitation of photonics, we open the field of dynamic policies for arbitrating hybrid photonic-electronic NoCs, making energy-efficient use of the particular properties of both technologies at a fine message granularity, resulting in important benefits in throughput, energy and latency.
112

Random forests estocástico

Gómez, Silvio Normey January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:07Z (GMT). No. of bitstreams: 1 000449231-Texto+Completo-0.pdf: 1860025 bytes, checksum: 1ace09799e27fa64938e802d2d91d1af (MD5) Previous issue date: 2012 / In the Data Mining area experiments have been carried out using Ensemble Classifiers. We experimented Random Forests to evaluate the performance when randomness is applied. The results of this experiment showed us that the impact of randomness is much more relevant in Random Forests when compared with other algorithms, e. g., Bagging and Boosting. The main purpose of this work is to decrease the effect of randomness in Random Forests. To achieve the main purpose we implemented an extension of this method named Stochastic Random Forests and specified the strategy to increase the performance and stability combining the results. At the end of this work the improvements achieved are presented. / Na área de Mineração de Dados, experimentos vem sendo realizados utilizando Conjuntos de Classificadores. Estes experimentos são baseados em comparações empíricas que sofrem com a falta de cuidados no que diz respeito à questões de aleatoriedade destes métodos. Experimentamos o Random Forests para avaliar a eficiência do algoritmo quando submetido a estas questões. Estudos sobre os resultados mostram que a sensibilidade do Random Forests é significativamente maior quando comparado com a de outros métodos encontrados na literatura, como Bagging e Boosting. O proposito desta dissertação é diminuir a sensibilidade do Random Forests quando submetido a aleatoriedade. Para alcançar este objetivo, implementamos uma extensão do método, que chamamos de Random Forests Estocástico. Logo especificamos como podem ser alcançadas melhorias no problema encontrado no algoritmo combinando seus resultados. Por último, um estudo é apresentado mostrando as melhorias atingidas no problema de sensibilidade.
113

Descoberta de conjuntos de itens frequentes com o modelo de programação MapReduce sobre contextos de incerteza

Carvalho, Juliano Varella de January 2015 (has links)
Made available in DSpace on 2015-08-18T02:05:38Z (GMT). No. of bitstreams: 1 000473651-Texto+Completo-0.pdf: 15125610 bytes, checksum: 0ae5116bc2669408e12c87781990c0a8 (MD5) Previous issue date: 2015 / Frequent Itemsets Mining (FIM) is a data mining task used to find relations between dataset items. Apriori is the traditional algorithm of the Generate-and-Test class to discover these relations. Recent studies show that this algorithm and others of this task are not adapted to execute in contexts with uncertainty because these algorithms are not prepared to handle with the probabilities associated to items of the dataset. Nowadays, data with uncertainty occur in many applications, for example, data collected from sensors, information about the presence of objects in satellite images and data from application of statistical methods. Due to big datasets with associated uncertainty, new algorithms have been developed to work in this context: UApriori, UF-Growth and UH-Mine. UApriori, specially, is an algorithm based in expected support, often addressed by scientific community. On the one hand, when this algorithm is applied to big datasets, in a context with associated probabilities to dataset items, it does not present good scalability. On the other hand, some works have evolved the Apriori algorithm joining with the model of programming MapReduce, in order to get a better scalability. With this model, it is possible to discover frequent itemsets using parallel and distributed computation. However, these works focus their efforts on discovering frequent itemsets on deterministic datasets. This thesis present the development, implementation and experiments applied to three algorithms: UAprioriMR, UAprioriMRByT and UAprioriMRJoin. The three cited algorithms evolve the traditional algorithm Apriori, integrating the model of programming MapReduce, on contexts with uncertainty. The algorithm UAprioriMRJoin is a hybrid algorithm based on the UAprioriMR and UAprioriMRByT algorithms. The experiments expose the good performance of the UAprioriMRJoin algorithm, when applied on big datasets, with many distinct items and a small average number of items per transaction in a cluster of nodes. / Frequent Itemsets Mining (FIM) é uma tarefa de mineração de dados utilizada para encontrar relações entre os itens de um dataset. O Apriori é um tradicional algoritmo da classe Generateand- Test para descobrir tais relações. Estudos recentes mostram que este e outros algoritmos desta tarefa não estão aptos para executar em contextos onde haja incerteza associada, pois eles não estão preparados para lidar com as probabilidades existentes nos itens do dataset. A incerteza nos dados ocorre em diversas aplicações como, por exemplo, dados coletados de sensores, informações sobre a presença de objetos em imagens de satélite e dados provenientes da aplicação de métodos estatísticos. Dada a grande quantidade de dados com incertezas associadas, novos algoritmos têm sido desenvolvidos para trabalharem neste contexto: UApriori, UF-Growth e UH-Mine. O UApriori, em especial, é um algoritmo baseado em suporte esperado, abordado frequentemente pela comunidade acadêmica. Quando este algoritmo é aplicado sobre grandes datasets, em um contexto com probabilidades associadas aos itens do dataset, ele não apresenta boa escalabilidade. Por outro lado, alguns trabalhos têm adaptado o algoritmo Apriori para trabalhar com o modelo de programação MapReduce, a fim de prover uma melhor escalabilidade. Utilizando este modelo, é possível descobrir itens frequentes de modo paralelo e distribuído. No entanto, tais trabalhos focam seus esforços na descoberta de itens frequentes sobre datasets determinísticos. Esta tese apresenta o desenvolvimento, implementação e os experimentos realizados, a partir da aplicação e discussão de três algoritmos: UAprioriMR, UAprioriMRByT e UAprioriMRJoin. Os três algoritmos citados evoluem o algoritmo tradicional Apriori para que possam executar com o modelo de programação MapReduce sobre contextos com incerteza associada. O algoritmo UAprioriMRJoin é um algoritmo híbrido com base nos algoritmos UAprioriMR e UAprioriMRByT. Os experimentos revelam o bom desempenho do algoritmo UAprioriMRJoin quando aplicado sobre grandes datasets, com muitos atributos e um número médio pequeno de itens por transação, em um cluster de nodos.
114

Uma abordagem de apoio ao gerenciamento de projetos por meio do uso de ferramenta BPMS / AN APPROACH TO SUPORT THE PROJECT MANAGEMENT BY USING A BPMS TOOL (Inglês)

Carmo, Welkey Costa do 05 October 2015 (has links)
Made available in DSpace on 2019-03-30T00:02:16Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-10-05 / Offering a list of advantages for the management of companies thet adopt the Business Process Management(BPM), presents itself as a strong alternative in pursuit of operational efficiency. The project management initiative, intends to make better use of resources and ensure the suplly of temporary efforts. It happens, in spite of the benefits of the two areas are clear, there is a gap regarding the association of each other. In an attempt to leave a small contribution to the construction of practical knowledge about the use of BPM, especially applied to project management, thes paper proposes a management methodology automation approach mature for implementation and use in various projects, over two cycles of action research. The present study was conducted at a public institution of the Brazilian courts and might be used as automation guide throug Busines Process Management Suite(BPMS). Keywords: BPM, Project Management, BPMS, action research / Oferecendo uma lista de vantagens para a gestão das empresas que o adotam, o Business Process Management(BPM), ou Gerenciamento por Processos de Negócio se apresenta como forte alternativa em busca da eficiência operacional. Por sua vez, a iniciativa de gerenciamento de projetos intenciona fazer melhor uso dos recursos e garantir as entregas dos esforços temporários. Ocorre que apesar das benesses das duas áreas serem claras, há uma lacuna no que tange à associação de uma à outra. Na intenção de deixar uma pequena contribuição para a construção do conhecimento prático acerca do uso de BPM(Business Process Management), sobretudo aplicado ao Gerenciamento de Projetos, este trabalho propõe uma abordagem de automação de metodologia de gerenciamento, amadurecida pela aplicação e uso em diversos projetos, ao longo de dois ciclos de pesquisa-ação. O estudo aqui apresentado foi conduzido em instituição pública do Poder Judiciário brasileiro e pode vir a ser utilizado como guia de automação por meio de Business Process Management Suite(BPMS). Palavras-chave: BPM, Gerenciamento de projeto, BPMS, pesquisa-ação
115

Híbridização de Algoritmos Genéticos e Procura Tabu para o problema de Job-Shop Scheduling

Cameirão, Aurora da Conceição João 10 February 2009 (has links)
Análise de Dados e Sistemas de Apoio à Decisão / Master in Data Analysis and Decision Support Systems
116

Modelização da influência dos ciclos económicos na tomada de decisão em sistemas de produção flexíveis através de Cadeias de Markov encadeadas.

Leite, Cláudia Teixeira 23 March 2010 (has links)
Análise de Dados e Sistemas de Apoio à Decisão / Master in Data Analysis and Decision Support Systems
117

Antecedentes da Fidelização de Clientes: Um Estudo no Sector das Telecomunicações Móveis.

Bacalhau, Lara Sofia Mendes 07 April 2010 (has links)
Análise de Dados e Sistemas de Apoio à Decisão / Master in Data Analysis and Decision Support Systems
118

Treino On Line de Redes Neuronais com Critérios de Informação Aplicado à Previsão Eólica

Bessa, Ricardo Jorge Gomes de Sousa Bento 29 July 2008 (has links)
Análise de Dados e Sistemas de Apoio à Decisão / Master in Data Analysis and Decision Support Systems / Nesta tese são estudadas redes neuronais MLP (Multilayer Perceptron) para previsão de produção eólica com treino on line para um horizonte temporal de 72 horas. O principal objectivo consiste em aplicar à previsão de produção eólica critérios de treino on line da rede neuronal, baseados na teoria da informação (ITL - Information Theoretic Learning). O principal motivo para a aplicação dos critérios ITL fundamenta-se no facto de a distribuição dos erros de previsão eólica não ser Gaussiana. Mesmo que as previsões de vento exibissem erros Gaussianos, a não linearidade da curva característica dos grupos eólicos produz erros não-Gaussianos, sendo as distribuições dos erros de previsão de potência eólica assimétricas positivas e mais achatadas que as Gaussianas. Quando se tratam distribuições de erros como se fossem Gaussianas desperdiça-se informação contida nos momentos de ordem superior. Quando se utiliza um critério de mínimos quadrados ou de variância (MSE) o processo de treino apenas passa uma parte da informação dos dados para os parâmetros do sistema, deixando na distribuição dos erros uma parte da informação. Com base no critério ITL foram estudados três critérios de treino da rede neuronal: minimização da entropia do erro (MEE), maximização da correntropia (MCC) e minimização da entropia do erro com pontos de referência (MEEF). Estes critérios de treino procuram conduzir a uma distribuição dos erros de previsão com entropia (informação) mínima, implicando maior frequência de erros próximos de zero. Os critérios combinam a definição de Renyi de Entropia com a técnica das janelas de Parzen, construindo uma medida do conteúdo de informação da distribuição dos erros. Tratando-se de um problema com um fluxo contínuo de dados não-estacionários foram desenvolvidas metodologias de treino on line da rede neuronal. O Treino on line permite incorporar nova informação proveniente do sistema de aquisição de dados do parque eólico, permitindo também processar um fluxo contínuo de dados sem necessidade de armazenar informação numa base de dados. Duas estratégias de treino on line foram desenvolvidas utilizando critérios de treino ITL: 1) retropropagação da correntropia do erro de um novo valor medido; 2) estimação recursiva da entropia do erro sobre uma janela temporal de tamanho pré-definido. Os testes dos diferentes critérios e modos de treino foram realizados sobre três parques eólicos situados em locais distintos de Portugal Continental e com diferente complexidade de terreno. Dos resultados obtidos foi possível apurar a superioridade da qualidade das previsões obtidas com os critérios ITL, quando comparadas com as obtidas com o MSE. O treino on line da rede neuronal quando comparado com o treino offline permitiu obter melhores previsões nos três parques e num caso especial em que ocorre uma mudança de conceito. Para o treino offline foi elaborada uma metodologia de estandardização dos parâmetros da rede de forma a tornar o treino da rede neuronal independente da complexidade do terreno e localização do parque eólico. No caso do treino on line é avaliado o impacto dos diferentes parâmetros no erro e exploradas algumas técnicas adaptativas dos parâmetros. Verificou-se que valores fixos dos parâmetros levavam a melhores resultados, no entanto, a utilização de abordagens adaptativas não deverá ser abandonada. As redes neuronais desenvolvidas nesta tese são uma ferramenta que se revela bastante importante e útil quando integrada em sistemas de previsão mais sofisticados.
119

Collaborative Filtering para recomendação de produtos on-line.

Fortuna, Filipe André Cancela 11 February 2010 (has links)
Análise de Dados e Sistemas de Apoio à Decisão / Master in Data Analysis and Decision Support Systems
120

Filtragem Colaborativa Incremental para recomendações automáticas na Web

Miranda, Ana Catarina de Pinho 12 May 2009 (has links)
Análise de Dados e Sistemas de Apoio à Decisão / Master in Data Analysis and Decision Support Systems / O uso de Sistemas de Recomendação por Filtragem Colaborativa na Web é normalmente feito em ambientes onde os dados estão constantemente a alterar-se e a surgirem novos clientes e produtos. Neste trabalho, propõe-se uma versão incremental dos Sistemas de Recomendação por Filtragem Colaborativa baseados nos itens para dados implícitos (binários). Esta é comparada com uma versão não-incremental, bem como com uma abordagem incremental mas baseada nos utilizadores. Pretende-se também estudar o uso de técnicas de trabalho com matrizes esparsas nestes algoritmos. Todas as versões são implementadas em R e são avaliadas empiricamente em cinco conjuntos de dados diferentes onde se faz variar o número de utilizadores e/ou itens. Observa-se que a medida de Recall estudada tende a melhorar quando se adiciona continuamente informação ao modelo de recomendação e que o tempo gasto para a recomendação não se degrada. O tempo gasto na actualização da matriz de semelhança (necessária à recomendação) é relativamente baixo e motiva a utilização da abordagem incremental baseada nos itens. / The use of collaborative filtering recommenders on the Web is typically done in environments where data is constantly flowing and new customers and products are emerging. In this work, it is proposed an incremental version of item-based Collaborative Filtering for implicit binary ratings. It is compared with a non-incremental one, as well as with an incremental user-based approach. It is also study the use of techniques for working with sparse matrices on these algorithms. All the versions are implemented in R and are empirically evaluated on five different datasets with various number of users and/or items. It is observed that the measure of Recall used tend to improve when we continuously add information to the recommender model and that the time spent for recommendation does not degrade. Time for updating the similarity matrix (necessary to the recommendation) is relatively low and motivates the use of the item-based incremental approach.

Page generated in 0.1032 seconds