• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 483
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7621
  • 2223
  • 1814
  • 1759
  • 1273
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Innovative hybrid MOEA/AD variants for solving multi-objective combinatorial optimization problems

Souza, Murilo Zangari de January 2017 (has links)
Orientador : Aurora Trinidad Ramirez Pozo / Coorientador : Roberto Santana / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 16/12/2016 / Inclui referências : f. 103-116 / Resumo: Muitos problemas do mundo real podem ser representados como um problema de otimização combinatória. Muitas vezes, estes problemas são caracterizados pelo grande número de variáveis e pela presença de múltiplos objetivos a serem otimizados ao mesmo tempo. Muitas vezes estes problemas são difíceis de serem resolvidos de forma ótima. Suas resoluções tem sido considerada um desafio nas últimas décadas. Os algoritimos metaheurísticos visam encontrar uma aproximação aceitável do ótimo em um tempo computacional razoável. Os algoritmos metaheurísticos continuam sendo um foco de pesquisa científica, recebendo uma atenção crescente pela comunidade. Uma das têndencias neste cenário é a arbordagem híbrida, na qual diferentes métodos e conceitos são combinados objetivando propor metaheurísticas mais eficientes. Nesta tese, nós propomos algoritmos metaheurísticos híbridos para a solução de problemas combinatoriais multiobjetivo. Os principais ingredientes das nossas propostas são: (i) o algoritmo evolutivo multiobjetivo baseado em decomposição (MOEA/D framework), (ii) a otimização por colônias de formigas e (iii) e os algoritmos de estimação de distribuição. Em nossos frameworks, além dos operadores genéticos tradicionais, podemos instanciar diferentes modelos como mecanismo de reprodução dos algoritmos. Além disso, nós introduzimos alguns componentes nos frameworks objetivando balancear a convergência e a diversidade durante a busca. Nossos esforços foram direcionados para a resolução de problemas considerados difíceis na literatura. São eles: a programação quadrática binária sem restrições multiobjetivo, o problema de programação flow-shop permutacional multiobjetivo, e também os problemas caracterizados como deceptivos. Por meio de estudos experimentais, mostramos que as abordagens propostas são capazes de superar os resultados do estado-da-arte em grande parte dos casos considerados. Mostramos que as diretrizes do MOEA/D hibridizadas com outras metaheurísticas é uma estratégia promissora para a solução de problemas combinatoriais multiobjetivo. Palavras-chave: metaheuristicas, otimização multiobjetivo, problemas combinatoriais, MOEA/D, otimização por colônia de formigas, algoritmos de estimação de distribuição, programação quadrática binária sem restrições multiobjetivo, problema de programação flow-shop permutacional multiobjetivo, abordagens híbridas. / Abstract: Several real-world problems can be stated as a combinatorial optimization problem. Very often, they are characterized by the large number of variables and the presence of multiple conflicting objectives to be optimized at the same time. These kind of problems are, usually, hard to be solved optimally, and their solutions have been considered a challenge for a long time. Metaheuristic algorithms aim at finding an acceptable approximation to the optimal solution in a reasonable computational time. The research on metaheuristics remains an attractive area and receives growing attention. One of the trends in this scenario are the hybrid approaches, in which different methods and concepts are combined aiming to propose more efficient approaches. In this thesis, we have proposed hybrid metaheuristic algorithms for solving multi-objective combinatorial optimization problems. Our proposals are based on (i) the multi-objective evolutionary algorithm based on decomposition (MOEA/D framework), (ii) the bio-inspired metaheuristic ant colony optimization, and (iii) the probabilistic models from the estimation of distribution algorithms. Our algorithms are considered MOEA/D variants. In our MOEA/D variants, besides the traditional genetic operators, we can instantiate different models as the variation step (reproduction). Moreover, we include some design modifications into the frameworks to control the convergence and the diversity during their search (evolution). We have addressed some important problems from the literature, e.g., the multi-objective unconstrained binary quadratic programming, the multiobjective permutation flowshop scheduling problem, and the problems characterized by deception. As a result, we show that our proposed frameworks are able to solve these problems efficiently by outperforming the state-of-the-art approaches in most of the cases considered. We show that the MOEA/D guidelines hybridized to other metaheuristic components and concepts is a powerful strategy for solving multi-objective combinatorial optimization problems. Keywords: meta-heuristics, multi-objective optimization, combinatorial problems, MOEA/D, ant colony optimization, estimation of distribution algorithms, unconstrained binary quadratic programming, permutation flowshop scheduling problem, hybrid approaches.
42

Reduzindo colisões em redes locais sem fio através do alargamento das janelas de contenção por encurtamento dos slots e da divisão de tempo

Silva, Rafael Araújo da January 2017 (has links)
Orientadora: Profa. Dra. Michele Nogueira Lima / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 28/03/2017 / Inclui referências : p. 79-86 / Resumo: As Redes Locais Sem Fio (RLSF) são uma das principais formas de acesso à rede mundial de computadores na atualidade, presentes em praticamente todos os grandes centros urbanos. Contudo, a próxima geração de RLSF terá que prover protocolos de acesso ao meio escaláveis o suficiente para suportar a grande quantidade de dispositivos Wi-Fi esperada para os próximos cinco anos. Isto, porém, tem se mostrado um grande desafio, pois resultados de pesquisas indicam que o mecanismo atual de acesso ao meio destes dispositivos utiliza um processo de contenção ineficaz em ambientes com muitos usuários, tais como estádios e locais de eventos (redes densas). Este processo de contenção visa impedir que transmissões simultâneas, provenientes de diferentes terminais, causem interferências entre si, retendo-as em uma janela de tempo e liberando-as de forma controlada. Com isto, pretende-se aliviar a degradação do desempenho da rede causada por estas interferências. No entanto, os estudos publicados sobre o tema mostram que isto tem sido pouco eficaz à medida que a quantidade de transmissores concorrentes aumenta. Buscando uma solução para tal problema, este trabalho analisa e explora a proposta de alargamento das janelas de contenção através da redução da duração dos slots, a ser implementada pela futura emenda 802.11ax. Esta proposta tem o objetivo de mitigar as falhas de acesso ao meio, existentes no padrão atual, quando aplicado em redes densas. A mudança deve melhorar o desempenho da próxima geração de RLSF nestes cenários densos, o que é um dos objetivos da nova emenda. A análise aqui apresentada considera as diferentes classes de tráfego, ponderando as categorias de acesso para priorização de dados e suas respectivas janelas. O modelo matemático desenvolvido permite estimar as taxas de colisões de acordo com a densidade da rede. Os resultados de simulação indicam que a proposta atenua o problema das colisões inerentes ao processo de contenção e diminui a probabilidade de descartes de quadros. O estudo demostra os benefícios que a mudança alcança em termos de aumento da taxa de transferência e redução das retransmissões e também alerta para o seu possível impacto no processo de verificação do canal. Além do mais, a pesquisa aponta formas de melhorar a proposta em estudo para o 802.11ax, através de mecanismos de divisão de tempo que potencializam os seus ganhos em desempenho. Os resultados apresentam formas de aperfeiçoamento da solução, contribuindo com a literatura e assistindo no avanço da próxima geração de RLSF. Palavras-chave: 802.11ax, Protocolos MAC, Acesso ao Meio, Janela de Contenção. / Abstract: Wireless Local Area Networks (WLAN) are one of the main means of Internet access, present in virtually all major urban centers. However, the next generation of WLAN will have to provide medium access protocols scalable enough to support the large number of Wi-Fi devices expected over the next five years. But, this has been proven to be a major challenge. As research results state, the current medium access mechanism of these devices uses an inefficient contention process when applied in environments with many users, such as stadiums and event locations (dense networks). This process aims to prevent simultaneous transmissions from different terminals to avoid interference among them. It holds transmissions in a time window and releases them in a controlled way. Thus, this has intended to reduce the network performance degradation caused by these interferences. However, published studies on the subject show that this has been ineffective as increases the number of concurrent transmitters. Looking for a solution to this problem, this research analyzes and explores the proposal of contention windows enlargement through time slots reduction, to be implemented in the future 802.11ax amendment. The purpose of this proposal is to mitigate medium access failures, present in the current standard when it is applied in dense networks. This change must improve the performance of the next generation WLAN in these dense scenarios, which is one of the goals on the new amendment. Our analysis considers the different classes of traffic, reflecting on the access categories for data prioritization and their respective windows. A mathematical model was developed to estimate the collision rates accordingly to the network density. Simulation results indicate that the proposal reduces collisions issues inherent to the backoff procedure, and it decreases the frame loss. Our study shows the improvements achieved by this proposal as increased throughput and reduced retransmissions and also it warns to the impact on the clear channel assessment process. Further, the research points out how to improve the proposal, through time division mechanisms that potentiate their gains in performance. The results present ways of improving the solution, contributing to the literature and assisting in the advance of the next generation WLAN. Keywords: 802.11ax, MAC Protocols, Backoff, Contention Window.
43

Proteção de dados de autenticação em um sistema operacional usando enclaves SGX

Condé, Rafael Campra Reis January 2017 (has links)
Orientador : Carlos Alberto Maziero / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/12/2017 / Inclui referências : p. 91-95 / Resumo: Quando se trata sobre segurança computacional alguns aspectos devem ser observados. Um principio importante e manter a base de computação confiável (TCB) a menor possível. Desta forma a superfície de ataque fica reduzida, o que restringe as possibilidades de ataque do adversário e aumenta a segurança do sistema. Mesmo mantendo uma TCB pequena, não existe técnica de segurança que ofereça garantia de proteção contra qualquer tipo de adversário. Por este motivo, aplicações que requerem alto nível de sigilo devem dispor de um esquema de proteção projetado em diversas de camadas de segurança, de forma que o conteúdo sensível não seja comprometido mesmo considerando o caso do adversário explorar vulnerabilidades e violar uma das camadas de proteção. Em 2015 a Intel lançou em seus processadores a tecnologia Software Guard Extensions (SGX), que introduz um novo conjunto de instruções de CPU que permite que a aplicação utilize uma região encriptada de memoria, denominada enclave, que e protegida inclusive de códigos com alto nível de privilegio como do kernel e do sistema operacional. Junto ao SGX, a Intel prove, ainda, um mecanismo de criptografia de dados, denominado selagem, onde operações de cifragem ou decifragem são possíveis somente dentro dos enclaves. Em geral aplicações comuns tem em sua TCB além do próprio código, partes do sistema operacional, kernel e/ou hipervisor. O SGX proporciona a possibilidade de reduzir a TCB apenas a CPU e a fração sensível da aplicação, que será colocada dentro da região segura do enclave. Ainda, o SGX torna possível, através do processo de selagem, a adição de uma camada extra de segurança no armazenamento de informações sensíveis. Este trabalho propõe uma arquitetura de proteção de arquivos de senha valendo-se das possibilidades trazidas pela tecnologia Intel SGX e implementa, na forma de uma prova de conceito, um modulo de autenticação para o framework PAM do sistema operacional Linux, baseado no modulo pam_unix.so, que utiliza como referencia de autenticação um arquivo de credenciais protegido. Neste esquema o arquivo de senhas e armazenado selado através do SGX e todo o processo de validação de usuário e senha para autenticação e realizado seguramente dentro do enclave. E senso comum que segurança e desempenho em geral caminham em direções opostas, assim já era esperado custo para se trabalhar com regiões de memoria e arquivos encriptados. No entanto, o hardware SGX foi projetado para realizar operações criptográficas de maneira otimizada de forma a reduzir os impactos de desempenho. Usando um arquivo de credenciais de 500KB o tempo esperado para realização da autenticação aumentou de 1.4ms, no modulo original, para 27.1ms no protótipo implementado. O impacto no desempenho não e suficientemente grande para ser percebido pelo usuário, o que mostra que a solução e adequada para a finalidade proposta. A arquitetura apresentada neste trabalho também pode ser aplicada em outros sistemas de autenticação. Palavras-chave: Autenticação, Pluggable Authentication Module, PAM, Software Guard Extensions, SGX, Enclave, Criptografia, Proteção de credenciais. / Abstract: When it comes to computational security, some aspects must be observed. An important principle is to maintain the trusted computing base (TCB) as small as possible. With a reduced attack surface, attack possibilities are restricted and an improvement in the system security is achieved. Even keeping the TCB small, there is no security technique that guarantees protection against any type of adversary. For this reason, when it comes to applications that require high level of security, it is desirable that the protection scheme be designed with several layers of security. Thus, sensitive content will not be compromised, even considering that an adversary might find a vulnerability and violate some of the protection layers. In 2015, Intel released the Software Guard Extensions (SGX) technology in its processors, which introduces of a new set of CPU instructions that allows the application to allocate a private memory region, called enclave, that is protected even from high-level privileged kernel and operating system processes. Along with SGX, Intel also provided a mechanism of data encryption, called sealing, where encryption and decryption operations are possible only within enclaves. Usually, non-SGX applications include in its TCB not only the application code itself, but and also parts of the operating system, kernel and hypervisor. Thus SGX provides the possibility of reducing the TCB to just the CPU and to the sensitive fraction of the application, which is safely placed inside the enclave. In addition, SGX makes it possible to add an extra layer of security to sensitive information storage through the sealing process. This document presents a novel passwords file protection architecture leveraging IntelR SGX deliveries and implements, as a proof of concept, an authentication module for the Linux PAM framework based on pam_unix.so module. In this scheme, an extra layer of security is applied to the password file, by storing it sealed by the SGX mechanism. All user and password checking for authentication is securely done within the enclave. It is common sense that safety and performance in general walk in opposite directions. Obviously a cost was expected to work with memory regions and encrypted files. SGX hardware is designed to perform cryptographic operations efficiently to reduce performance impacts. Using a 500KB credential file the expected time to perform the authentication increased from 1.4ms in the original module to 27.1ms in the prototype. Despite the overhead the result is perfectly suitable for the proposed application. Finally, performance impacts were quantified due to the use of SGX. The architecture presented in this scheme is also worthy to many other authentication system. Keywords: Authentication, Pluggable Authentication Module, PAM, Software Guard Extensions, SGX, Enclave, Credencial file protection.
44

Análise de desempenho de composição de redes em redes de ambiente / Performance analisys of network composition on ambient networks

Spínola, Maurício Suhet 05 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2008. / Submitted by Luana Patrícia de Oliveira Porto (luana_porto_23@hotmail.com) on 2010-03-10T18:40:00Z No. of bitstreams: 1 2008_MauricioSuhettSpinola_orig.pdf: 2485719 bytes, checksum: 81c320a50db2161e03ff48015c983207 (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-04-07T22:05:13Z (GMT) No. of bitstreams: 1 2008_MauricioSuhettSpinola_orig.pdf: 2485719 bytes, checksum: 81c320a50db2161e03ff48015c983207 (MD5) / Made available in DSpace on 2010-04-07T22:05:13Z (GMT). No. of bitstreams: 1 2008_MauricioSuhettSpinola_orig.pdf: 2485719 bytes, checksum: 81c320a50db2161e03ff48015c983207 (MD5) Previous issue date: 2008-05 / Na medida em que o cenário de telecomunicações se torna altamente diverso, por exemplo, devido ao surgimento de tecnologias de acesso heterogêneas (WLAN, WiMAX, UMTS, etc) e novos tipos de rede, surge a necessidade de um procedimento uniforme para a cooperação entre estas redes. A Composição de Redes consiste justamente neste procedimento uniforme e dinâmico para se alcançar a cooperação entre redes. Este procedimento criará novas oportunidades de negócio na medida em que facilita uma cooperação flexível e mais dinâmica entre redes heterogêneas no plano de controle. O conceito de Composição de Redes é parte integrante do conceito maior de Redes de Ambiente (Ambient Networks) que foi desenvolvido para facilitar a cooperação entre redes heterogêneas. A Composição de Redes permite que serviços sejam aprovisionados e recursos sejam compartilhados através de um acordo de composição (Composition Agreement). O desempenho do procedimento de composição é um fator crítico na determinação da viabilidade das Redes de Ambiente uma vez que se espera que este procedimento seja realizado extensivamente durante uma interação típica entre um usuário e a rede. Avaliar sua estabilidade e escalabilidade se torna uma questão importante, já que estas composições envolvem um custo adicional em termos de tempo e processamento para sua realização. Uma vez que não estão disponíveis atualmente implementações reais de Redes de Ambiente, optou-se, neste trabalho, por utilizar um simulador, denominado ANCSim (Ambient Networks Composition Simulator). Para as simulações, o comportamento estatístico das demandas de serviço foi extraído de medidas realizadas na rede GPRS da Brasil Telecom. _________________________________________________________________________________________ ABSTRACT / Since the telecommunications scenario become highly diverse, for instance, because of the development of heterogeneous access technologies (like WLAN, WiMAX and UMTS) and new types of networks, it is necessary a uniform procedure for cooperation between these networks. A network composition consists exactly of this uniform and dynamic procedure to achieve cooperation between networks. New business opportunities could be created with this procedure since it has the potential to facilitate a more dynamic and flexible cooperation between heterogeneous networks on the control plane. The concept of network composition is part of the broader concept of Ambient Networks that was developed to facilitate cooperation between heterogeneous networks. The network composition permit that services be provisioned and resources are shared through composition agreements. The performance of the composition procedure is a critical factor in determine a feasibility of Ambient Networks model since it is expected that this procedure will be executed extensively during a typical interaction between a user and the network. To evaluate its stability and scalability is an important issue because these compositions involve an additional cost in terms of time and power processing to execute it. Since there is no real implementation of Ambient Networks available currently, we have decided in this work to use a simulator, called ANCSim (Ambient Networks Composition Simulator). For the simulations I used statistical behavior for service demands measured on GPRS network of Brasil Telecom.
45

Um sistema de modelamento de objetos funcionais

Duarte, Glaucius Decio January 1990 (has links)
Este trabalho apresenta uma metodologia computacional para a geração, manipulação e visualização de elementos tridimensionais cuja forma geométrica básica e o paralelepípedo. Os entes geométricos são agrupados em classes funcionais de objetos e suas ocorrências são representadas em uma estrutura de dados funcional, criando-se uma representação relacional dos atributos funcionais das respectivas entidades. Além disso, também são consideradas as relações funcionais que podem ser produzidas entre os objetos modelados, estabelecendo-se uma linguagem de ações que permite levar em consideração as conseqüências funcionais produzidas por uma determinada ação de projeto aplicada em um determinado estágio de projeto. / This work presents a computational methodology for generating, handling and rendering tridimensional elements using parallelopipedous as their basic geometric form. The entities geometric are grouped in functional classes of objects and their occurrences are represented in a functional data structure where functional attributes for every entity are included using relational representations. Furthermore, functional relations among modelled objects are also considered and an action language is established in order to consider the functional consequences triggered by design actions during the different stages of the design process.
46

Desenvolvimento de uma plataforma para aquisição de dados e monitoramento do processo produtivo de uma indústria de estamparia mecânica

OLIVEIRA, Marcelo Monteiro Mateus de 22 December 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-11T20:26:29Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Marcelo Monteiro Mateus de Oliveira.pdf: 6830711 bytes, checksum: 02c8781a0b10d8d2cf13039d5c98f1bd (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-17T21:22:28Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Marcelo Monteiro Mateus de Oliveira.pdf: 6830711 bytes, checksum: 02c8781a0b10d8d2cf13039d5c98f1bd (MD5) / Made available in DSpace on 2018-07-17T21:22:28Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Marcelo Monteiro Mateus de Oliveira.pdf: 6830711 bytes, checksum: 02c8781a0b10d8d2cf13039d5c98f1bd (MD5) Previous issue date: 2016-12-22 / FAPEAM / As indústrias, para serem competitivas no mercado atual, necessitam aumentar a velocidade de processamento das suas informações, para tomarem decisões mais rápidas e eficientes, aumentando assim o nível de produtividade e de qualidade nos produtos, e reduzindo os custos de produção dos mesmos. Atualmente muitas industrias, principalmente às de médio e pequeno porte, continuam trabalhando com processos de produção sem supervisão automatizada, causando muitos problemas no apontamento dos eventos de produção, como por exemplo: preenchimento manual de tabelas, informações resumidas pelo fato da grande carga de trabalho dos operadores, não confiança nos dados coletados e disponibilizados, controles paralelos e individuais e tempo de acesso as informações gerencias muito longo. Esta pesquisa tem como objetivo o desenvolvimento de uma plataforma, para a aquisição de dados e monitoramento do processo produtivo em uma indústria de Estamparia Mecânica. Esta plataforma visa a redução das operações manuais de apontamento, a melhoria na qualidade, aumento da velocidade na captura das informações de produção, e supervisão em tempo real da situação dos recursos da produção. Neste projeto foram utilizados dispositivos baseados em software livres e tecnologias não proprietárias. / The industries, to become competitive in the actual market, need to improve their process information speed in order to take more efficient and faster decisions, improving their productivity and quality in their products and reducing their production costs. Nowadays many industries, mainly medium and small companies, keep working with production process without an automated monitoring, causing many issues during production events and process steps, like, manual forming filling , resumed information due to high operators workload in their daily activities, collected data with unreliable information, parallel and individual controls and a very exceed time to get management information. This research has as objective the development of a platform, to get data and monitoring of productive process into a Mechanical Press Shop industry. This platform aims at reducing manual operations, improvement on quality, speeding up the capture of production information, and real time showing the status of production resources. In this project we used devices based on free software and non-proprietary technologies.
47

Técnicas de extração de características para cenários com multimodalidade intraclasse / Metodologia de extração de características para cenários com multimodalidade intraclasse

SILVA JÚNIOR, Elias Rodrigues da 23 February 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-03T18:43:16Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elias Rodrigues da Silva Júnior.pdf: 8422560 bytes, checksum: c5e4839cea4403e06669bc36217494c9 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-09T17:19:08Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elias Rodrigues da Silva Júnior.pdf: 8422560 bytes, checksum: c5e4839cea4403e06669bc36217494c9 (MD5) / Made available in DSpace on 2018-08-09T17:19:08Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elias Rodrigues da Silva Júnior.pdf: 8422560 bytes, checksum: c5e4839cea4403e06669bc36217494c9 (MD5) Previous issue date: 2016-02-23 / CAPES / Técnicas de Extração de Características (TECs) clássicas não consideram a possibilidade dos padrões se dispersarem segundo distribuição multimodal. A falta de percepção quanto a esse tipo de comportamento frequentemente conduz a reduções de dimensionalidade para espaços que não preservam a multimodalidade. A não preservação da estrutura multimodal intraclasse implica na sobreposição entre suas modas, o que pode degradar o desempenho de classificação sobre essa classe. Encontra-se na literatura TECs que buscam por reduções dimensionais que minimizam as alterações nas relações métricas entre os padrões nesse novo espaço. Contudo, a realização desse objetivo não é suficiente para garantir a preservação da multimodalidade. Além disso, não foi encontrada na literatura TEC que avalie a dispersão dos padrões da classe e, em caso de multimodalidade, obtenha redução que preserve ao máximo esse comportamento. Uma possível razão para essa ausência é a complexidade associada a determinação da ocorrência de multimodalidade, principalmente em espaços multidimensionais. Estimar a multimodalidade em uma dispersão de padrões envolve questões como determinar: o número de modas na dispersão, a função de distribuição que cada moda segue, se a mistura dessas funções apresenta comportamento multimodal e quão evidente é esse comportamento. Na literatura, vários autores estimam multimodalidade através de reduções no escopo dessa tarefa, como restrições a: cenários bimodais e distribuições Normais. Adicionalmente, a restrição a espaços unidimensionais é comum a todas as técnicas de estimativa de multimodalidade encontradas. Desse modo, este trabalho apresenta uma metodologia para o desenvolvimento de TECs que buscam preservar o comportamento multimodal da dispersão dos padrões intraclasse. Para isso, são encontradas as direções ortogonais com maiores evidências de preservar o comportamento multimodal original. Essas direções são utilizadas como os vetores de base de espaços de redução dimensional que preservam ao máximo esse comportamento. Através dessa metodologia são propostas três TECs: Class-dependent Multimodal Decomposition (CdMD), Class-dependent Conditional Multimodal Decomposition (CdCMD) e Class-dependent Conditional Detachment of Modes (CdCDM). Essas TECs estendem Multimodal Decomposition (MD), que é uma TEC proposta para realizar a decomposição espacial orientada pela multimodalidade. Essas decomposições estão associadas a valores de estimativa de multimodalidade, os quais são obtidos com a métrica proposta, denominada Index of Area-based Normal Intersection (IANI). Os resultados experimentais mostram que IANI obteve sucesso em estimar a multimodalidade mesmo em cenários com acentuado desbalanceamento entre as modas. Isso contribuiu para MD obter desempenho superior ao PCA e LPP. Além disso, os maiores valores médios de desempenho em cenários de classificação foram alcançados com CdMD, CdCMD e CdCDM. / Classical Feature Extraction Techniques (FETs) do not consider the possibility of patterns scattered following multimodal distribution. No perception about this kind of behavior often leads to dimensionality reductions spaces that do not preserve multimodality. Do not preserve within-class multimodal structure implies overlap between classes modes, which can degrade performance classification over the class. There is in literature FETs that seek for dimensionality reductions which minimize the changes in metric relations between the patterns inside the new space. However, perform this goal is not enough to ensure preservation of multimodality. Besides that, there was not found in literature FET that evaluates scattering of class patterns and, in case of multimodality, it reaches reduction that preserve this behavior at most. A possible reason for this absence is related with the complexity to determine the occurrence of multimodality, mainly in multidimensional spaces. Estimate multimodality in a patterns scattering involves questions like determine: the number of modes in the scattering, the distribution function that each mode follows, if the mixture of these functions present multimodal behavior and how evident is this behavior. In literatura, many authors estimate multimodality through scope reductions of this task, like restrictions to: bimodal scenarios and Normal distributions. Additionally, the restriction to unidimensional spaces is common to all multimodal estimation techniques that were found. Thereby, this work presents a methodology to develop FETs that aim to preserve the multimodal behavior of within-class scattering of patterns. For this, the orthogonal directions with more evidence to preserve the original multimodal behavior are found. These directions are used as basis vectors of dimensional reduction spaces that preserve this behavior at most. Using this methodology, three FETs are proposed: TECs: Class-dependent Multimodal Decomposition, Class-dependent Conditional Multimodal Decomposition and Class-dependent Conditional Detachment of Modes. These FETs extend Multimodal Decomposition, an FET proposed to perform the spatial decomposition driven by multimodality. These decompositions are associated with multimodal estimation values, which are achieved with a proposed metric, called Index of Area-based Normal Intersection. Experimental results show IANI was well succeed in estimating multimodality even at scenarios with large unbalance between modes. This contributed to MD reach superior performances than PCA and LPP. Furthermore, the largest average values of performance for classification scenarios were achieved with CdMD, CdCMD e CdCDM.
48

SADAM : um sistema para aquisição de dados meteorologicos

Centoducatte, Paulo Cesar, 1957- 08 July 1992 (has links)
Orientador: Nelson Castro Machado / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-15T20:37:48Z (GMT). No. of bitstreams: 1 Centoducatte_PauloCesar_M.pdf: 2056798 bytes, checksum: a703ced264ddeb7d5a0c92470d695aff (MD5) Previous issue date: 1992 / Resumo: o presente trabalho descreve o projeto e implementação do hardware e do monitor de um sistema para aquisição de dados meteorológicos. O sistema consiste de uma estação base e de uma estação de campo. Na estação base o meteorologista utiliza um microcomputador convencional e dispõe de uma linguagem apropriada para programar seus experimentos. A estação de campo é um sistema dedicado à coleta de dados através de 16 portas para sensores analógicos e/ou digitais. A interface entre as estações base e de campo é realizada por meio de um cartucho de memória RAM CMOS com sistema de "back-up" de bateria, constituindo um sistema não volátil. Inicialmente o cartucho contém o programa do experimento, gravado na estação base. O cartucho é então levado à estação de campo que possui um interpretador e um monitor capazes de executar o experimento programado na estação base, gravando os dados coletados no próprio, cartucho. Após encerrada a coleta dos dados o cartucho é novamente levado à estação base onde os dados são processados e são emitidos relatórios / Abstract: The present work describes the project and implementation of the hardware and monitor for a Meteorological Data Acquisition System. The system consists of a base station and a remote station. In the base station, the meteorologist uses a conventional personal computer with a special purpose language to program his experiments. The remote station is a system dedicated to data collection through 16 ports for analogical and for digital sensors. The interface between the base station and the remote station is accomplished with a RAM CMOS cartridge with a battery back-up system, which constitutes a non-volatile system. Initially the cartridge contains the experiment's program, written at the base station. The cartridge is then brought to the remote station, which has an interpreter and a monitor, able to carry out the experiment programmed in the base station, and to record the collected data in the same cartridge. At the end of the data collection, the cartridge is brought back to the base station, where the data are, processed and reports are generated / Mestrado / Mestre em Ciência da Computação
49

GeoLab : um ambiente para desenvolvimento de algoritmos em geometria computacional

Jacometti, Welson Regis 18 December 1992 (has links)
Orientador : Pedro Jussieu de Rezende / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-17T11:16:35Z (GMT). No. of bitstreams: 1 Jacometti_WelsonRegis_M.pdf: 4160475 bytes, checksum: 914752317c391c2d889ba8be86393cd4 (MD5) Previous issue date: 1992 / Resumo: Esta tese discute o projeto e a implementação de um ambiente de programação voltado para o desenvolvimento de algoritmos e estruturas de dados em Geometria Computacional chamado Geolab. Este ambiente provê o suporte necessário para a implementação de algoritmos geométricos através de uma biblioteca de objetos geométricos básicós e de um conjunto significativo de algoritmos fundamentais como algoritmos para construção de envoltórias convexas, diagramas de Voronoi, árvores espalhadas mínimas, etc. Tanto o conjunto de objetos básicos como o de algoritmos fundamentais podem ser ampliados através de mecanismos do ambiente que permitem que novas construções sejam incorporadas dinamicamente. O ambiente dispõe ainda de ferramentas que permitem a inclusão dinâmica de novos modos de operação junto à sua interface, complementando a gama de facilidades para o desenho de novos objetos (ou variações para os objetos já existentes) e a implementação de algoritmos geométricos dinâmicos ou que realizam preprocessamento. Objetos e algoritmos geométricos são mapeados em classes em C++ que especificam protocolos para sua manipulação pelo ambiente. Novas entidades interagem homogeneamente com o ambiente satisfazendo estes protocolos. Algoritmos geométricos podem ser animados. Animação per se é conseguida graças à introdução de código adicional no corpo dos algoritmos, através do qual o ambiente permite controla.ra velocidade e o nível de detalhes de uma animação. Existe também um outro tipo de animação, chamado dynamic move, conseguida através de um dos modos funcionais do Geolab e que consiste na execução repetitiva de um algoritmo enquanto sua entrada sofre modificações / Abstract: Not informed / Mestrado / Mestre em Ciência da Computação
50

Calculo distribuido do fator de forma do método radiosidade em ambiente fracamente acoplado

Liliann Veloso Rocha Mameluque 01 November 1993 (has links)
A síntese de imagens e o ramo da computação gráfica que se propõe a produzir por computador, cenas imaginarias comfoto-realismo, através da simulação dos efeitos gerados pela interação da luz no ambiente. Neste sentido, o método para síntese de imagens denominado Radiosidade foi apresentado, em 1984,propondo-se modelar a iluminação em ambientes difusos. O método Radiosidade consegue gerar bons resultados, embora a um elevado custo computacional tanto em termos de espaço de armazenamento quanto em tempo de processamento. Este trabalho propoe-se a discutir algumas maneiras de implementar o método Radiosidade num ambiente distribuído fracamente acoplado, buscando paralelizar a computação pelo uso dos diversos nos conectados via rede, de modo a reduzir o tempo total de processamento na geração de imagens. Um dos esquemas de distribuição e implementado, testado e seus resultados apresentados, demonstrando o ganho na performance do sistema com a distribuição. A implementação distribuída do método foi realizada a partir de um sistema Radiosidade desenvolvido para um ambiente centralizado. Uma ferramenta de suporte a distribuição de aplicações DPSK+P, foi utilizada como plataforma de desenvolvimento.

Page generated in 0.059 seconds