• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2208
  • 1063
  • 460
  • 5
  • 5
  • 1
  • Tagged with
  • 3743
  • 3261
  • 3234
  • 3233
  • 3233
  • 3232
  • 3230
  • 3230
  • 3229
  • 3229
  • 3229
  • 141
  • 122
  • 113
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Data Mining 4 Dummies: A Web application for automatic selection of data mining algorithms for new problems

Tiago Miguel Moreira Pereira 18 March 2014 (has links)
O interesse na área de classificação e previsão está a crescer rapidamente na indústria e no comércio e uma série de ferramentas de data mining já estão disponíveis. No entanto essas ferramentas ainda são de utilidade limitada para os utilizadores finais que não sejam especialistas. Isto é devido ao facto de os sistemas de aprendizagem não serem triviais. Como resultado, utilizadores de machine learning/data mining são confrontados com dois desafios: escolher qual o algoritmo mais adequado para usar num determinado conjunto de dados, e combiná-los com transformações úteis e eficazes aos dados. Tradicionalmente, este tipo de problemas é resolvido através de tentativa-e-erro ou consultando especialistas. A primeira solução é demorada e pouco fiável; enquanto que a segunda é dispendiosa e depende das preferências do perito. Claramente, nenhuma das soluções é completamente satisfatória para utilizadores finais não-especialistas. Portanto, é necessária uma orientação automática e sistemática é necessária.Ao analisar o estado da arte, podemos ver como foram desenvolvidas diversas tentativas para abordar este problema e, apesar de algumas dessas tentativas já demonstrarem resultados muito interessantes, as mesmas ainda são dependentes de ferramentas específicas e apresentam alguma falta de orientação, simplicidade e transparência no processo. O foco desta dissertação é trazer uma nova abordagem para os utilizadores finais, através da criação de um novo sistema que permitirá a recomendação e o uso dos modelos/algoritmos mais promissores de uma forma distribuída e colaborativa. / The interest in the area of classification and prediction is growing rapidly in industry and commerce. A large number of data mining tools are already available. However, such tools are still of limited use to end-users who are not experts. This is due to the fact that machine learning systems are non-trivial. As a result, users of machine learning/data mining systems are faced with two major problems: selecting the most suitable algorithm to use on a given dataset, and combining this algorithm with useful and effective transformations of the data. Traditionally, these problems are solved by trial-and-error or consulting experts. The first solution is time consuming and unreliable, while the second is expensive and based on preferences of the experts. Clearly, neither solution is completely satisfactory for the non-expert end-users. Therefore automatic and systematic guidance is required.By analysing the state of the art we can see how different attempts have been made to address this problem, and although some of them have shown very interesting results, they are still tool restricted and present a lack of satisfactory user guidance, simplicity and process transparency. The focus of this dissertation is to improve support to machine learning/data mining end-users, by creating a new system that will allow the recommendation and use of the most promising algorithms in a distributed and collaborative way.
362

Documentação colaborativa de software através de anotações contextuais.

Nuno Miguel Leite Pereira de Sousa 19 March 2015 (has links)
A documentação de software, apesar de nos dias de hoje ainda ser considerada secundária em relação a outros artefactos resultantes do processo de desenvolvimento, desempenha um papel fundamental no uso eficaz e na compreensão do software. O processo de desenvolvimento de software tem sofrido evolução ao longo dos tempos, sendo hoje em dia geralmente uma atividade cada vez mais social, nomeadamente quando se olha para frameworks populares na web. Contudo, os mesmos princípios são aplicáveis a equipas mais pequenas e ágeis. Neste contexto, uma documentação minimalista, onde apenas se cria o conteúdo mínimo necessário e que vai evoluindo de acordo com as necessidades dos utilizadores, tem vindo a ser prática cada vez mais utilizada. A interação e comunicação entre leitores e autores, com o intuito de debater que alterações se devem fazer à documentação, é fulcral para essa evolução.O principal objetivo desta dissertação é mostrar que essa comunicação pode ser melhorada, nomeadamente com o uso de anotações contextuais na documentação. Para o alcançar, foi desenvolvida uma wiki, que irá servir de plataforma para a documentação colaborativa de software.A essa wiki foi adicionada a possibilidade de adicionar comentários a uma página e anotações a secções específicas, criando um ambiente propício à discussão entre leitores e autores.Finalmente, de modo a comprovar que a ferramenta desenvolvida cumpre o seu objetivo de melhorar a comunicação entre os vários intervenientes, esta será testada numa pequena equipa de desenvolvimento de software. / Software documentation, despite still being considered secondary in relation to other artifacts that result from the development process, is fundamental in order to use and understand software in an efficient way. The software development process has been evolving over time, and is now an increasingly social activity, namely compared to other popular frameworks on the web. However, the same principles can be applied to small agile development teams. In this context, minimalist documentation, where only the bare minimum content is created, which will evolve according to the specific needs of the users, has been rising in popularity. The interaction and communication between both readers and authors, with the goal of debating what changes must be made to the documentation, is key to this evolution.The main goal of this work is to demonstrate that this communication can be the subject of improvement, namely with the use of contextual annotations in the documentation. In order to achieve this goal, a wiki has been developed, which will serve as platform for collaborative software documentation. Then, the possibility to add comments to a certain page and annotations to specific portions of that page was added to the wiki, thus creating a friendly environment to discussion between readers and authors.Finally, in order to verify that the developed tool fulfills its goal of improving communication and interaction between the various interveners, it will be tested in a small software development team.
363

Sistema de comunicações óticas sem fios para estação de acostagem submarina

José Pedro Ferreira Perdiz 26 February 2016 (has links)
No description available.
364

Optimização Energética de Equipamentos Domésticos no Sector Residencial em Portugal através do Modelo de Controlo Preditivo

Jorge Marcelo Fernandes da Silva 17 July 2017 (has links)
Nas últimas décadas tem-se assistido à automatização generalizada da maioria dos sistemas e equipamentos que nos rodeiam no dia-a-dia, desde os sistemas industriais, de transporte, até aos pequenos electrodomésticos. A automatização dos sistemas torna-os mais inteligentes, no sentido de maior capacidade de adaptação operacional e maior eficácia, facilitando e simplificando a sua utilização.O modelo de controlo preditivo é uma estrutura de controlo que utiliza a predição do sinal de saída do sistema para calcular o sinal de controlo. A ideia básica é calcular uma sequência de amostras futuras dos sinais de controlo de modo a minimizar uma função de custo definida num horizonte de controlo. O cálculo das amostras futuras dos sinais de controlo, num determinado horizonte, é baseado no modelo directo do sistema e na sequência futura do sinal de referência.Esta proposta tem como objectivo principal implementar a técnica de controlo preditivo em cargas residenciais para que se possa alcançar um melhor aproveitamento da energia e uma consequente redução da conta da electricidade. Uma vez que o sector residencial tem um grande impacte percentual ao nível do consumo energético mundial, uma redução da energia consumida neste sector é algo cada vez mais necessário para reduzir as emissões nocivas que advêm da produção de electricidade.Para tal efeito, serão efectuadas múltiplas simulações com a duração de 24 horas, em cargas residenciais como o ar condicionado, o termo-acumulador e o frigorífico. A introdução de geração local de energia, especificamente painéis fotovoltaicos será também considerada para esta proposta. Cada simulação será modelada em tempo discreto, e para tal serão sempre utilizados parâmetros reais com o objectivo de aproximar os resultados o mais próximo possível da realidade.
365

RTL Guidelines for Static Power Reduction

Ciro de Moura Monteiro 28 July 2016 (has links)
This work consists on implementing power gating on a sub-system IP, in hopes to reduce static power consumption in chips implemented on low geometry technology. From the results obtained, conclusions are to be made on some lines to guide future low power implementations. This guidelines are to be tested on another component in order to observe their impact on power consumption.
366

Gamification as a means to promote user physical activity

Nuno Correia Duarte 25 July 2018 (has links)
No description available.
367

Planeamento integrado da logística de inbound e outbound

Rúben Gonçalo Pereira Brito 26 July 2016 (has links)
Esta tese tem como objetivo aplicar técnicas de investigação operacional para o planeamento integrado da logística de inbound e outbound nas fábricas da empresa de derivados de madeira, com expressão Ibérica. Em particular, será desenvolvido um modelo matemático para definir as rotas diárias de inbound-outbound, que minimizam os custos de transportes associados às entregas de produtos aos clientes e, sempre que possível, à recolha de matéria-prima no retorno às fábricas. Trata-se, portanto, de um modelo para o problema de planeamento de rotas de veículos (VRP) com determinadas particularidades: janelas temporais, viagens de retorno com matéria prima e múltiplos armazéns. Esta tese irá também desenvolver um método de resolução adequado a este problema, nomeadamente um método iterativo com capacidade de determinar bons resultados para o problema em estudo.
368

Ferramenta de registo de doenças respiratórias em cuidados de saúde primários

Gonçalo Carvalho Sousa Ferreira Silva 23 February 2017 (has links)
Na área da saúde, o uso de ferramentas auxiliares à atividade profissional é cada vez usual. Assim, com a necessidade dessas ferramentas e de que sejam de fácil acesso, de baixa complexidade e de fácil manutenção, surgem ferramentas que facilitam o trabalho dos profissionais de saúde e também que criem benefícios no tratamento dos doentes. Com base nesta ideia, houve a necessidade criar um sistema de apoio ao diagnóstico e prescrição de medicação para doentes com problemas cardiorrespiratórios, nomeadamente Asma e DPOC (Doença Pulmonar Obstrutiva Crónica), para ser, posteriormente, utilizado pelas unidades de saúde familiar, de forma a complementar os sistemas já existentes nas unidades de saúde familiar (USF) que, embora contenham e suportem informação relativa a doenças cardiorrespiratórias, não têm módulos dedicados para as doenças acima referidas. Com isto, cria-se condições para melhor acompanhamento dos doentes e possibilitando assim uma maior qualidade de vida aos mesmos.
369

Deep Learning for genomic data analysis

Vítor Filipe Oliveira Teixeira 01 September 2017 (has links)
Desde o Human Genome Project que os dados genómicos se tornam de fácil acesso. Com os inúmeros investimentos na área, as tecnologias de sequenciação de genomas tornam-se mais avançadas e sofisticadas, permitindo assim uma sequenciação mais fácil e mais rápida. Tal quantidade de dados permite uma melhor e mais avançada pesquisa, o que leva a avanços na área. No entanto, este processo de sequenciação produz dados quer de elevada dimensionalidade, quer de elevado volume e para isso são necessários um bom poder computação e algoritmos eficientes de maneira a extrair informação útil num tempo aceitável, o que representa uma barreira no que diz respeito à extração e interpretação da informação.Neste trabalho focamo-nos principalmente nos aspectos biológicos do RNA-Seq e na sua análise usando os métodos mais comuns de Machine learning, e Deep Learning. O trabalho foi dividido em duas vertentes. Na primeira construímos e comparamos a precisão de classificadores que foram capazes de distinguir amostras de RNA-Seq de pacientes com cancro de amostras de pessoas saudáveis. Em segundo lugar foi investigada a possibilidade de construir boas descrições dos dados a partir das diferenças nos dados de expressão genética usando Denoising Autoencoders e Stacked Autoencoders como classificadores base, e depois fazer o pós-processamento dos dados extraídos dos modelos de maneira a conseguir extrair informação importante. / Since the Human Genome Project, the availability of genomic data has largely increased. In the last years, genome sequencing technologies and techniques have been improving at a fast rate, resulting in a cheaper and faster genome sequencing. Such amount of data enables both more complex analysis and advances in research. However, a sequencing process quite often produces a huge amount of data that is highly complex. A considerable computational power and efficient algorithms are mandatory in order to extract useful information and perform it in reasonable time, which can represent a constraint on the extraction and comprehension of such information.In this work, we focus on the biological aspects of RNA-Seq and its analysis using traditional Machine Learning and Deep learning methods. We divided our study into two branches. First, we built and compared the accuracy of classifiers that were able distinguish the RNA-seq samples of thyroid cancer patients from samples of healthy persons. Secondly, we have investigated the possibility of building comprehensible descriptions for the differences in the RNA-Seq data by using Denoising Autoencoders and Stacked Denoising Autoencoders as base classifiers and then devising post-processing techniques to extract comprehensible and biologically meaningful descriptions out of the constructed models.
370

A Trading Agent Framework Using Plain Strategies & Machine Learning

João Pedro Araújo Santos 21 July 2014 (has links)
O mundo das mercados de apostas desportivas (trading) está em constante crescimento e com isso as pessoas estão a tentar melhorar os resultados do seu trading usando agentes automáticos de trading. Em analogia com os mercados financeiros, as operações de compra e venda são substituídas por apostas a favor e contra (Back and Lay respetivamente).Esta tese descreve uma framework para ser usada no desenvolvimento de agentes automáticos de trading nos mercados da Betfair, utilizando uma interface de programação escrita em Java. A Betfair processa mais de cinco milhões de transações diárias (como fazer uma aposta) que representa mais do que todas as trocas feitas nas bolsas de ações Europeias combinadas. A Betfair está disponível 24 horas por dia, 7 dias por semana. Neste trabalho foram desenvolvidos dois agentes de trading, DealerAgent e HorseLayAgent, de acordo com a framework supra mencionada.Os agentes mencionados atuam nos mercados "Para Ganhar" em corridas de cavalos do Reino Unido. Usam estratégias planas em conjunto com métodos de machine learning para melhorar os seus resultados de lucro/perda. Os agentes desenvolvidos foram submetidos a testes de viabilidade usando dados dos mercados "Para Ganhar" de corridas de cavalos do mercado de apostas Betfair, de Janeiro, Fevereiro e Maço de 2014. / The world of online sports betting exchange (trading) is growing every day and with that people are trying to improve their trading by using automated trading. In analogy to the financial markets the buy and sell operations are replaced by betting for and against (Back and Lay).This thesis describes a framework to be used to develop automated trading agents at Betfair sports markets using a Java programming interface. Betfair processes more than five million transactions (such as placing a bet) every day which is more than all European stock exchanges combined. Betfair is available 24 hours a day 7 days a week. For this thesis were developed two trading agents, DealerAgent and HorseLayAgent, accordingly with the presented framework. The agents mentioned above act on To Win horse racing markets in United Kingdom. They use plain strategies together with machine learning methods to improve the profit/loss results. The developed agents were submitted to viability tests using data from Betfair To Win horse racing markets from January, February and March of 2014.

Page generated in 0.038 seconds