• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2841
  • 572
  • 241
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3717
  • 1131
  • 945
  • 591
  • 587
  • 577
  • 525
  • 495
  • 465
  • 348
  • 308
  • 286
  • 279
  • 259
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Ajustamento de pesos para ratings de múltiplos critérios em recomendação de itens

Jesus, Felipe Born de January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017 / Made available in DSpace on 2017-09-26T04:19:59Z (GMT). No. of bitstreams: 1 348077.pdf: 1624164 bytes, checksum: d2d159741b88a6b531e03ba8d6c5b126 (MD5) Previous issue date: 2017 / A recomendação de itens para usuários é uma tarefa comum no cotidiano. Tal recomendação existe desde um vendedor de uma loja, quando sugere roupas ao cliente, até aplicativos como o Netflix, que sugere filmes para os usuários. Em sistemas de recomendação, é necessário cada vez mais levar em consideração diversos fatores para que sejam recomendados itens aos usuários. No contexto deste trabalho, tais fatores são os critérios, sendo que diversos deles devem ser levados em consideração na recomendação. Além disso, alguns desses critérios podem ser mais importantes que os demais e essa importância pode variar de usuário para usuário. Na literatura, é comum encontrar abordagens que, considerando avaliações prévias de usuários para determinados itens e os critérios desses itens, infere quais avaliações o usuário forneceria para outros itens e critérios de itens. Contudo, sabe-se que as bases de dados de avaliações de um sistema de recomendação costumam ser esparsas, ou seja, apenas uma pequena parcela das avaliações são conhecidas. Esse problema, conhecido como esparsidade de dados, faz com que seja lenta a predição de todas as avaliações possíveis. Neste trabalho, é proposto que se trabalhe com dois conceitos distintos de avaliações de itens: \textit{ratings} explícitos, fornecidos explicitamente pelos usuários, e \textit{ratings} implícitos, inferidos pelo sistema. Cada \textit{rating} está relacionado a um critério e, para que seja possível identificar quais critérios são mais importantes, cada um dos critérios é relacionado a um peso. Para se ajustar os pesos dos critérios, é proposto um problema de otimização que é solucionado via algoritmo genético. Ao se utilizar ajuste de pesos, combinado com o uso de \textit{ratings} implícitos e explícitos, é possível reduzir consideravelmente o tempo de ajuste do sistema de recomendação, bem como aumentar a precisão das recomendações em cenários mais esparsos. Em cenários menos esparsos, ainda é possível reduzir consideravelmente o tempo de ajuste do sistema, mantendo-se a precisão das recomendações com valores próximos à precisão de outros trabalhos da literatura. / Abstract: From a seller to applications like Netflix we can witness a recommendation. So, everyday there is examples of recommendation for a user. However, for a precise recommendation, a set of features are needed to be taken into account. Features like geographical localization, price of items, who acquired those items and so on. So, for a user, multiple criteria must be used in a recommendation. Moreover, some of those criteria may be more important than others. In order to identify which criteria are more important the others, we propose that each criterion is related to a weight. We propose, to identify those wheights, to adjust the weight of the criterion, by proposing an optimization problem that is solved by a genetic algorithm. Another problem we propose to mitigate is the data sparsity problem. In ratings database, usually there are only a few ratings, comparing to the total of possible ratings. In literature, an approach to mitigate this problem is, considering previous evaluations for items and items criteria from users, we can estimate which evaluation the users would provide to the items or the items criteria. Once there are a lot of ratings to estimate, the data sparsity problem makes the prediction for all possible evaluations to be slow. So, we propose the use of two different domains of ratings: explicit rating, explicitly provided by the user, and implicit rating, inferred by the system. Each rating is related with a criterion. Combining the weight adjustment with the use of implicit and explicit rating, it is possible to decrease the time needed for the recommender system adjustment, as well as increase the precision of recommendation in a sparse scenario. In a sparser scenario, when we remove evaluations maded by the users, it is still possible to decrease the time of adjustment, keeping the precision of our approach close to other baselines approaches.
122

Algoritmo de detección de eventos epilépticos basado en medidas de energía y entropía enfocado en pacientes críticos

Morales Pérez, Cristóbal Sebastián January 2017 (has links)
Ingeniero Civil Eléctrico / El objetivo de esta memoria es implementar un algoritmo de detección de crisis epilépticas que funcione en tiempo real. El trabajo se realiza como una cooperación entre el Laboratorio de Ingeniería Biomédica del DIE de la Universidad de Chile y el Departamento de Neurología y la Unidad de Paciente Crítico Pediátrica de la Facultad de Medicina de la Pontificia Universidad Católica de Chile. El estudio se basa en la memoria realizada por Eliseo Araya [1], que utiliza medidas de energía para detectar crisis epilépticas y se suman nuevas herramientas de análisis de señales, criterios expertos y medidas que caracterizan a las crisis epilépticas. La base de datos está constituida de 15 registros, que sumados tienen una duración de 219,3 [Hrs]. Además, los registros contienen 469 crisis epilépticas, donde 277 son de duración mayor a 10 [s] y 192 de duración menor a 10 [s]. Se utilizan 11 registros para entrenar el algoritmo con 232 crisis marcadas y 4 registros para probarlo, con 45 crisis marcadas. De todos los registros solo uno contiene crisis menores a 10 [s], y se utiliza para entrenar. El algoritmo está constituido de 5 módulos: 1) Extracción de características; 2) Filtrado de características; 3) Eliminación de artefactos; 4) Toma de decisiones; 5) Combinación de algoritmos. En el primero se obtienen las características del registro usadas en el algoritmo, en el segundo se aplican filtro sobre las características extraídas, en el tercer módulo se depuran las características de ruido y artefactos, el cuarto módulo se divide en 2 algoritmos que trabajan de forma paralela y utilizan el método de Gotman, uno se encarga de pesquisar las crisis epilépticas mayores a 10 [s] y el otro de pesquisar las crisis epilépticas menores a 10 [s]. El quinto módulo combina los algoritmos usados en el módulo 4 para generar una salida única. Como resultado se tiene que para el conjunto de prueba se detectan 41 crisis y se generan 36 falsas detecciones, lo que se traduce en una tasa de verdaderos positivos de 91,1% y una tasa de falsos positivos por hora de 0,6 [1/Hrs]. Para el caso de las crisis menores a 10 [s], para el conjunto de prueba no hay marcas realizadas, pero se generan 96 falsos positivos, lo que significa una tasa de falsos positivos por hora de 1,61 [1/Hrs]. Como conclusión, se destaca que la memoria posee avances con respecto a la realizada por Araya. En la presente memoria se programan nuevos algoritmos de análisis de señales y métodos para caracterizar las crisis epilépticas. Además, se aumenta la cantidad de registros en la base de datos, se aumenta la cantidad de crisis epilépticas marcadas y se logra obtener un algoritmo con una mejor tasa de falsos positivos y verdaderos positivos.
123

Desenvolvimento de um sistema integrado de auditoria e compressão de dados para placas de baixo custo

Barbutti Filho, Wilson Roberto January 2014 (has links)
Um dos problemas para a realização de produções descentralizadas está nos equipamentos necessários para as plantas. Grandes sistemas necessitam um investimento muito alto além de pessoal especializado para operá-los. Com a finalidade de facilitar o uso de sistemas de pequeno porte, os algoritmos devem ser modificados para possibilitar a operação dos mesmos com poder de processamento limitado. Outro fator é a transmissão de dados, como ha possibilidade de sistemas em locais afastados, a compressão dos dados se torna muito importante. O objetivo deste trabalho é o de desenvolver um sistema integrado de compressão e auditoria para a utilização em uma placa processadora de baixo custo. O algoritmo tem base no Swinging Door Trending, o qual gera os parâmetros para a auditoria. Para teste de desempenho foi utilizado um Computador PC e o algoritmo em uma placa Raspberry Pi. A avaliação foi feita com dados históricos de planta e simulados, contando com compactação, auditoria, estabilidade do algoritmo e outliers. Os dados históricos compreendem diversos tipos de sensores com diversas dinâmicas. / One of the problems to the realization of decentralized productions lies on the required plant equipment. Large systems need a very high investment beyond having specialized personnel to operate them. With the aim of facilitating usage on small scale systems, the algorithms must be modified to enable the operations of them on limited processing power. Another important issue is data transfer, since there is the possibility of systems on remote locations, data compression becomes very important. The objective of this work is the development of a joint compression and audition to usage on a low cost processor board. The algorithm is based on the Swinging Door Trending, which generates the parameters to the audition. To the performance test a PC Computer was used and the algorithm was implemented in a Raspberry Pi board. The evaluation was made with historical and simulated plant data, comprising compression, auditing, and outliers. The historical data comprises diverse sensor types and multiple dynamics.
124

Programação da produção : uma abordagem utilizando algoritmos geneticos

Gauthier, Fernando Alvaro Ostuni January 1993 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T18:30:31Z (GMT). No. of bitstreams: 1 94310.pdf: 3339599 bytes, checksum: 074a01dac57a6944daae0b9d7317326a (MD5) Previous issue date: 1993 / O controle e gerênciamento da produção estão entre os principais fatores que influênciam a produtividade industrial. As empresas devem se adaptar às condições de mercado, que mudam constantemente, afetando o tempo disponível para a tomada de decisões. Um algoritmo para solucionar problemas de programação da produção em diferentes ambientes "flow shop", podendo levar em consideração diferentes critérios, apresenta-se como uma contribuição para essa área. Neste trabalho é apresentada uma abordagem baseada em algoritmos genéticos que dadas as suas características de paralelismo implícito e robustez, mostra resultados promissores. O algoritmo proposto separa a função objetivo da sua rotina principal, o que proporciona vantagens sobre as soluções heurísticas que são desenvolvidas para funções objetivo específicas. Essa separação permite rápida adaptação do algoritmo a qualquer ambiente do tipo "flow shop". O sistema computacional desenvolvido foi utilizado para resolver problemas gerados aleatoriamente, através de três diferentes critérios de programação. Dadas as suas características híbridas o algoritmo obtém soluções iguais ou melhores que as das regras de programação heurísticas. Os resultados dos testes mostraram a viabilidade do algoritmo.
125

Um mecanismo seguidor baseado em um controlador difuso dedicado

Silva, David Daniel e January 1995 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T19:40:39Z (GMT). No. of bitstreams: 1 103495.pdf: 1820443 bytes, checksum: 4224ec0b86d5f8b3f1623aac847408ce (MD5) Previous issue date: 1995 / Este trabalho descreve um mecanismo seguidor de superfícies com a utilização de um sensor eletro-mecânico e uma placa, "mc-FUZZYLAB" [Klein-91], que faz uso do processador FC110, específico para processar lógica difusa [Togai-91]. A placa está acoplada a um equipamento anfitrião, PC-AT, e o processador "fuzzy" (FC110) controlará uma máquina que manterá o dispositivo seguidor em uma distância constante ao contornar objetos. Os dados de entrada para o controle do traçado de superfícies são fornecidos pelo dispositivo sensor eletro-mecânico. O controle é feito em duas dimensões, ou seja, no plano.
126

Evolução interativa e a aplicação de algoritmos geneticos no design de produtos

Bezerra, Charles Deywisson January 1996 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T21:04:56Z (GMT). No. of bitstreams: 1 104395.pdf: 2328670 bytes, checksum: 709ceeced19c2911f5724c8b05aa5df1 (MD5) Previous issue date: 1996 / Este trabalho explora a aplicação dos algoritmos genéticos no design de produtos. A base teórica que sustenta as especulações deste tema, é formada por conhecimentos nas áreas do design, psicologia cognitiva, inteligência artificial e geometria, entre outras. Um processo evolucionário trabalha sobre uma população de indivíduos; operações genéticas são um ponto crucial deste método, que permite simular um competitivo mecanismo que controla a sobrevivência das formas. Diferente dos algoritmos genéticos tradicionais, a evolução interativa fornece uma nova e poderosa técnica de solução de problemas em design; baseada na colaboração homem-computador. Resultados preliminares obtidos em nosso programa, desenvolvido com base nestas idéias, serão apresentados.
127

A hybrid genetic approach to solve real make-to-order job shop scheduling problems

Candido, Marco Antonio Barbosa January 1997 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T22:12:41Z (GMT). No. of bitstreams: 1 107336.pdf: 3622415 bytes, checksum: 953f1623eaa5c472c4fa60df73f7c69d (MD5) Previous issue date: 1997 / Procedimentos de busca local (ex. busca tabu) e algoritmos genéticos têm apresentado excelentes resultados em problemas clássicos de programação da produção em ambientes job shop. No entanto, estas abordagens apresentam pobres habilidades de modelamento e poucas aplicações com restrições de ambientes reais de produção têm sido publicadas. Além disto, os espaços de busca considerados nestas aplicações são nomlalmente incompletos e as restrições reais são poucas e dependentes do problema em questão. Este trabalho apresenta uma abordagem genética híbrida para resolver problemas de programação em ambientes job shop com grande número de restrições reais, tais como produtos com vários níveis de submontagem, planos de processamento altemativos para componentes e recursos alternativos para operações, exigência de vários recursos para executar uma operação (ex., máquina, ferramentas, operadores), calendários para todos os recursos, sobreposição de operações, restrições de disponibilidade de matéria-prima e componentes comprados de terceiros, e tempo de setup dependente da sequência de operações. A abordagem também considera funções de avaliação multiobjetivas. O sistema usa algoritmos modificados de geração de programação, que incorporam várias heurísticas de apoio à decisão, para obter um conjunto de soluções iniciais. Cada solução inicial é melhorada por um algoritmo de subida de encosta. Então, um algoritmo genético híbrido com procedimentos de busca local é aplicado ao conjunto inicial de soluções localmente ótimas. Ao utilizar técnicas de programação de alta perfomlance (heurísticas construtivas, procedimentos de busca local e algoritmos genéticos) em problemas reais de programação da produção, este trabalho reduziu o abismo existente entre a teoria e a prática da programação da produção.
128

Algoritmo não monótono para minimização em domínios arbitrários e aplicações

Martini, Tiara January 2012 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas. Programa de Pós-Graduação em Matemática e Computação Científica / Made available in DSpace on 2012-10-26T10:43:24Z (GMT). No. of bitstreams: 1 303507.pdf: 8639199 bytes, checksum: 73deac2a52193faa04d13c998715f1a5 (MD5) / Apresentamos e analisamos um método globalmente convergente e não monótono para minimização em conjuntos fechados. Desenvolvido recentemente por Francisco e Viloche Bazán [17] esse método está baseado nas ideias dos métodos de região de confiança e Levenberg-Marquardt. Dessa maneira, os subproblemas consistem em minimizar um modelo quadrático da função objetivo sujeito ao conjunto de restrições. Incorporamos conceitos de bidiagonalização e de cálculo da SVD de maneira "inexata" buscando melhorar o desempenho do algoritmo, visto que a solução do subproblema por técnicas tradicionais, necessária em cada iteração, é computacionalmente muito cara. Outros métodos viáveis são citados, entre eles um método de busca curvilinear e um de minimização ao longo de geodésicas. O desempenho dos métodos quando aplicados a problemas conhecidos é ilustrado numericamente. / We present and analyze a nonmonotone globally convergent method for minimization on closed sets. Recently developed by Francisco e Viloche Bazán [17] this method is based on the ideas from trust-region and Levenberg-Marquardt methods. Thus, the subproblems consist on minimize a quadratic model of the objective function subject to the constraint set. We incorporate concepts of bidiagonalization and calculation of the SVD "with inaccuracy" to improve the performance of the algorithm, since the solution of the subproblem by traditional techniques, which is required in each iteration, is computationally very expensive. Other feasible methods are mentioned, including a curvilinear search algorithm and a minimization along geodesics algorithm. The performance of methods when applied to known problems is illustrated numerically.
129

Algoritmos de pre-processamento de impressões digitais para sistemas de identificação datiloscopica automatizados

Soares, Flavio Augusto Penna January 1995 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Florianópolis, 1995. / Made available in DSpace on 2013-12-05T20:25:08Z (GMT). No. of bitstreams: 1 104162.pdf: 5288408 bytes, checksum: 12d50d51e1f23f36a687437a013cf75e (MD5) Previous issue date: 1995 / Estudo de um sistema de identificação datiloscópica automatizado. Análise e avaliação de várias abordagens desenvolvidas para cada uma das etapas de um sistema automatizado. Um algoritmo específico para realizar a binarização de impressões digitais através de um limiar variável para cada região da imagem foi proposto. Devido a falhas nos processos de aquisição e de binarização, desenvolveu-se três algoritmos de correção de imagens binarizadas. Além destes, desenvolveu-se um novo algoritmo para a extração do mapa de direções de impressões digitais binarizadas. O objetivo do mapa de direções é a redução do volume de informações visando a classificação das impressões digitais. Todos os algoritmos são avaliados e o algoritmo de binarização tem seus resultados confrontados com os obtidos por outros métodos clássicos. Avaliações quantitativas e qualitativas demonstram que, na maioria dos casos, as abordagens escolhidas para manipulação das impressões digitais implicam numa imagem binarizada de alta qualidade.
130

Contribuições à técnica de conformação de feixe de posto reduzido baseada no critério MVDR

Zilli, Guilherme Martignago January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016 / Made available in DSpace on 2016-09-20T05:04:16Z (GMT). No. of bitstreams: 1 339931.pdf: 1867752 bytes, checksum: d0e5b7cae37388d2084432ced6832e57 (MD5) Previous issue date: 2016 / Esta dissertação apresenta o desenvolvimento de um novo algoritmo adaptativo para conformação de feixe em arranjos de antenas com redução de posto. O novo algoritmo é baseado na estratégia de redução de posto proposta para o algoritmo JIO-CMV-SG (joint and iterative optimization - constrained minimum variance - stochastic gradient), que utiliza otimização conjunta e iterativa entre a matriz de redução de posto e os coeficientes do filtro de conformação de feixe. O algoritmo JIO-CMV-SG, conforme demonstrado neste trabalho, não é capaz de garantir, sob certas situações, ganho unitário na direção do SOI (signal-of-interest), como determinado pelo critério MVDR (minimum variance distortionless response). O algoritmo proposto foi formulado de modo que essa restrição seja sempre atendida, independente do cenário de operação considerado. Este trabalho apresenta também uma análise estocástica visando obter o modelo de primeira ordem do algoritmo proposto. Comparações entre o algoritmo proposto e os algoritmos JIO-CMV-SG e CLMS (constrained least-mean-square) em termos de complexidade computacional e de desempenho são também apresentadas. Resultados de simulações numéricas são mostrados a fim de comprovar a eficácia do algoritmo proposto.<br> / Abstract: This work presents a novel reduced-rank adaptive beamforming algorithm for antenna arrays. The new algorithm is based on the rank-reducing strategy proposed for the JIO-CMV-SG (joint and iterative optimization - constrained minimum variance - stochastic gradient) algorithm, which considers a joint-iterative optimization process to update both the rank-reducing matrix and the beamforming coefficients. The JIO-CMV-SG algorithm, as demonstrated in this document, is unable to ensure, under some circumstances, the unit gain constraint of the original MVDR (minimum variance distortionless response) criterion. The proposed algorithm was formulated in such a way that the unit gain constraint is always met, irrespective of the operating scenario. This dissertation also presents a first order stochastic model of the proposed algorithm as well as compares such an algorithm with the JIO-CMV-SG and the CLMS (constrained least-mean-square) in terms of computational burden and performance. The performance of these algorithms are assessed through numerical simulations, which confirm the effectiveness of the proposed algorithm.

Page generated in 0.0418 seconds