• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 169
  • 5
  • 5
  • 5
  • 5
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 174
  • 174
  • 107
  • 58
  • 47
  • 36
  • 35
  • 34
  • 31
  • 30
  • 24
  • 19
  • 18
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Filtro de difusão anisotrópico orientado por evidência de borda

Coser, Leandro January 2009 (has links)
Dissertação (mestrado) - Uiversidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2012-10-24T07:56:13Z (GMT). No. of bitstreams: 1 266022.pdf: 3927783 bytes, checksum: 7c1f37b777bfc8ec527041f1e2d0a5eb (MD5) / Filtro de Difusão Anisotrópico é uma técnica bem estabelecida para melhoria de imagens que pode ser empregada para suavização de imagens ainda preservando alguma informação de borda. Entretanto, quando é necessário aplicar muitas iterações do filtro, gradualmente as bordas desaparecerão e serão esmaecidas pelo processo. Este trabalho propôs a adoção de mapa de gradientes coloridos para guiar o processo de suavização que claramente define quais bordas serão preservadas depois de muitas iterações. Como característica adicional, o método proposto emprega informações estatísticas para variar o parâmetro de lambda dinamicamente durante a filtragem, permitindo uma suavização adaptativa mais sensível. Os resultados alcançados demonstram-se superiores quando comparados com o filtro tradicional. Anisotropic diffusion filter is a well-established technique for image enhancement that can be employed to smooth images while preserving some degree of edge information. However, when it becomes necessary to apply a large number of filtering iterations, edges gradually fade away and are ultimately smoothed by the process. We propose the adoption of a color gradient map to guide the smoothing so that clearly-defined edges are preserved even after many iterations. As an additional feature, our method employs the statistical information to vary the lambda parameter dynamically during filtering, allowing for a more sensitive adaptive smoothing. The results achievied show good results when compared with traditional filter.
62

Chronus : um novo suplemento para a redução de dados U-Pb obtidos por LA-MC-ICPMS

Oliveira, Felipe Valença de 29 June 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Geociências, Pós-Graduação em Geologia, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-02-25T11:38:58Z No. of bitstreams: 1 2015_FelipeValençadeOliveira.pdf: 5245176 bytes, checksum: 5a982ddd156db28d4bed918c900158db (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2016-02-25T11:51:36Z (GMT) No. of bitstreams: 1 2015_FelipeValençadeOliveira.pdf: 5245176 bytes, checksum: 5a982ddd156db28d4bed918c900158db (MD5) / Made available in DSpace on 2016-02-25T11:51:36Z (GMT). No. of bitstreams: 1 2015_FelipeValençadeOliveira.pdf: 5245176 bytes, checksum: 5a982ddd156db28d4bed918c900158db (MD5) / A análise de isótopos de U-Pb por Laser Ablation Inductively Coupled Plasma Mass Spectrometry (LA-ICPMS) se popularizou nas geociências em função do seu custo relativamente baixo, da razoável precisão obtida e da velocidade com que os dados podem ser gerados. Para estudos que requerem grande quantidade de idades, como na análise de proveniência de bacias sedimentares, esse método mostra-se muito vantajoso. Entretanto, essa mesma velocidade de análise é acompanhada por um grande volume de dados a serem reduzidos. O projeto aqui descrito teve como objetivo o emprego de métodos computacionais na automação do processo de redução de dados. Utilizando a linguagem Visual Basic for Applications (VBA), intrinsecamente relacionada ao Microsoft Excel, todo as etapas de redução foram incluídas em único programa: Chronus. Por meio desse programa é possível escolher os parâmetros pertinentes à redução (tipo de detectores, padrões analisados, método de propagação de incertezas, etc.), importar os dados brutos automaticamente, corrigir o branco do método, corrigir as razões das amostras usando os padrões e finalmente calcular as incertezas. O Chronus cria um arquivo no formato excel com diferentes planilhas, nas quais são guardadas as confingurações escolhidas, as informações de cada etapa da redução e os resultados. A capacidade do Chronus para redução de dados U-Pb por LA-ICPMS foi testada usando análises dos padrões de zircão 91500 (1065 Ma, Wiedenbeck et al., 1995) e Plešovice (337 Ma, Sláma et al., 2008), tomando o zircão GJ-1 (608 Ma, Jackson et al., 2004) como padrão primário. A propagação das incertezas do GJ-1 nas análises foi feita de duas maneiras: considerando as incertezas das análises antes e depois das amostras ou usando o Mean Square of the Weighted Deviates (MSWD) das razões de interesse do padrão. A redução de um grande número de amostras permitiu a observação de intensidades não esperadas da massa 202. Esse fenômeno foi observado também especificamente nas análises dos padrões citados anteriormente. Há uma aparente relação entre o conteúdo de Elementos Terras Raras (ETR) dos zircões com as intensidades da massa 202, talvez devido à formação de óxidos de ETR durante o carreamento do material proveniente da câmara de ablação para os detectores. / The U-Pb analysis by Laser Ablation Inductively Coupled Plasma Mass Spectrometry (LA-ICPMS) became popular in geosciences due to its low cost, reasonable precision and rapid analysis. For studies that require a large number of ages, like in sediment provenance studies, this method is advantageous. Although, the high analysis speed is also followed by a big volume of data to be reduced. The project described in this dissertation had the objective to use computational methods to automatize the data reduction process. Using the Visual Basic for Applications programming language, which is intrinsically related to Microsoft Excel, all data reducing steps were included in a single program: Chronus. By using this program it is possible to choose the analyses’ settings (the type of collectors, the analyzed standards, the error propagation method, etc.), automatically import the raw data, subtract the signal of the blank from the samples, correct the samples’ ratios based on the standards’ analyses and calculate the uncertainties. Chronus creates a Excel spreadsheet with many sheets where the settings, the information of each step of data reduction and the results are stored. The capacity of Chronus to reduce U-Pb data obtained by LA-ICPMS was tested using analyses of the 91500 (1065 Ma, Wiedenbeck et al., 1995) and Plešovice (337 Ma, Sláma et al., 2008) zircon standards, using the GJ-1 standard (608 Ma, Jackson et al., 2004) as primary standard. Propagation of the GJ-1’s uncertainties into analyses was done by two different ways: taking into account the uncertainties of GJ-1’s analyses before and after the sample or using the Mean Square of the Weighted Deviates (MSWD) of the standard’s ratios. Reducing a large number of samples allowed the observation of unexpected 202 mass signal. This phenomenon was observed also in the zircon standards discussed previously. It seems to have a relationship between the zircon grains’ Rare Earth Elements (REE) contents and the 200 mass intensity. It might be due to the REE oxide formation during the material transport from the ablation chamber to the detectors.
63

Prototipo de uma ferramenta para criação de sistemas especialistas baseados em regras de produção

Heinzle, Roberto January 1995 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina. Centro Tecnologico / Made available in DSpace on 2016-01-08T19:59:46Z (GMT). No. of bitstreams: 1 100877.pdf: 3307133 bytes, checksum: 67ea44703f91d48f3c1de551a83c2863 (MD5) Previous issue date: 1995 / Análise dos aspectos relacionados a construção e utilização de sistemas especialistas. Mostra os principais conceitos, o histórico da evolução destes sistemas e as funções e características dos elementos que os compõem. As formas de representação e armazenamento do conhecimento, as técnicas de raciocínio ou inferência e as ferramentas utilizadas no desenvolvimento são abordados detalhadamente. É especificado, e implementado em PROLOG, um protótipo de uma ferramenta para a construção de sistemas especialistas baseados em regras de produção. Com o protótipo é realizada uma aplicação experimental sobre uma base de conhecimentos na área médica. A aplicação experimental permite o diagnóstico de algumas doenças comuns do aparellho digestivo e respiratório.
64

Um ambiente integrado de desenvolvimento e aprendizagem de aplicações WEB

Melgarejo, Luiz Fernando Bier January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-21T01:43:48Z (GMT). No. of bitstreams: 0
65

Uma implementação distribuída para o interpretador da linguagem superpascal

Roos, Fabrícia Carneiro January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-21T05:54:15Z (GMT). No. of bitstreams: 0 / O objetivo maior deste trabalho foi realizar alterações no interpretador da linguagem paralela Superpascal. Este foi desenvolvido por Brinch Hansen no sistema operacional SunOS da SUN MicroSystems. As alterações tinham como objetivo modificar o comportamento do interpretador cuja implementação original apresenta uma simulação do paralelismo.
66

Construção de um ambiente de programação visual orientada por comportamentos

Medina, Daniela Mônego January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-21T16:47:03Z (GMT). No. of bitstreams: 1 210017.pdf: 2966118 bytes, checksum: 90709ce019a2e72ecba1ca8950d3fd05 (MD5) / Na linguagem de programação de computadores deve-se obedecer a uma sintaxe textual durante o processo de programação e, em muitos casos, uma lógica imperativa, criando, desta forma, uma certa barreira para a construção de programas, principalmente por pessoas não especializadas, devido às dificuldades encontradas em aprender uma linguagem bem como as dificuldades em utilizá-la. O presente trabalho explora uma opção para amenizar os problemas enfrentados no processo de aprendizagem de programação buscando uma definição de um ambiente de programação visual baseado na noção de "comportamentos". Uma linguagem baseada em comportamentos é declarativa, o que a diferencia da maioria das linguagens visuais encontradas na literatura, que são do tipo imperativas, as quais possuem uma seqüência de instruções. Com isso, aqui foi abordado o tipo de linguagem de programação visual declarativa, onde se encontra uma relação entre os dados ou uma lista de declarações. Com as linguagens de programação visuais, não se elimina totalmente o texto, porém, por ser gráfica, este tipo de linguagem acaba proporcionando um maior conforto aos programadores em programar, tornando-se uma alternativa atrativa de programação. A definição proposta disponibiliza aos programadores um conjunto de comportamentos que podem ser atribuídos aos objetos para que estes exerçam suas funções no ambiente. Este ambiente tem sua construção feita sobre o Mundo dos Atores, uma ferramenta indicada para ser utilizada em disciplinas introdutórias de programação.
67

A cross-domain multi-armed bandit hyper-heuristic

Ferreira, Alexandre Silvestre January 2016 (has links)
Orientadora : Profª. Drª. Aurora Pozo / Co-orientador : Prof. Dr. Richard Aderbal Gonçalves / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 26/02/2016 / Inclui referências : f. 64-70 / Resumo: Muitos problemas de otimização do mundo real são complexos e possuem muitas variáveis e restrições. Por esta causa, o uso de meta-heurísticas tornou-se a principal maneira de resolver problemas com essas características. Uma das principais desvantagens do uso de meta-heurísticas e que são geralmente desenvolvidas utilizando características do domínio fazendo com que sejam atreladas a ele dificultando sua utilização em outros problemas. Em buscas de algoritmos mais adaptáveis o conceito de hiper-heurísticas surgiu. Hiper- heurísticas são métodos de busca que visam solucionar problemas de otimização selecionando ou gerando heurísticas. Hiper-heurísticas de seleção escolhem uma boa heurística para ser aplicada a partir de um conjunto de heurísticas. O método de seleção e a principal peca de uma hiper-heurística de seleção tendo impacto fundamental em sua performance. Apesar de existirem vários trabalhos sobre hiper-heurísticas de seleção, ainda não existe consenso sobre como uma boa estratégia de seleção deve ser definida. Em busca de uma estratégia de seleção, algoritmos inspirados nos conceitos do problema Multi-Armed Bandit (MAB) serão estudados. Estes algoritmos foram aplicados ao contexto da Seleção Adaptativa de Operadores obtendo resultados promissores. Entretanto, ainda existem poucas abordagens para o contexto de hiper-heurísticas. Nesta dissertação propomos uma hiper-heurística que utiliza algoritmos MAB como sua estratégia de seleção. A abordagem proposta e desenvolvida utilizando o framework HyFlex, que foi proposto para facilitar a implementação e comparação de novas Hiper- heurísticas. Os parâmetros foram configurados através de um estudo empírico, e a melhor configuração encontrada foi comparada com os 10 primeiros colocados da competição CHeSC 2011. Os resultados obtidos foram bons e comparáveis com os das melhores abordagens da literatura. O algoritmo proposto alcançou a quarta colocação. Apesar dos bons resultados, os experimentos demonstram que a abordagem proposta sofre grande influencia dos parâmetros. Trabalhos futuros irão investigar formas de amenizar esta influência. / Abstract: Many real word optimization problems are very complex with many variables and constraints, and cannot be solved by exact methods in a reasonable computational time. As an alternative, meta-heuristics emerged as an efficient way to solve this type of problems even though they cannot ensure optimal values. The main issue of meta-heuristics is that they are built using domain-specific knowledge, therefore they require a great effort to be used in a new domain. In order to solve this problem, the concept of Hyper-heuristics were proposed. Hyper-heuristics are search methods that aim to solve optimization problems by selecting or generating heuristics. Selection hyper-heuristics choose from a pool of heuristics a good one to be applied at the current stage of the optimization process. The selection mechanism is the main part of a selection hyper-heuristic and has a great impact on its performance. Although there are several works focused on selection hyperheuristics, there is no unanimity about which is the best way to define a selection strategy. In this dissertation, a deterministic selection strategy based on the concepts of the MultiArmed Bandit (MAB) problem is proposed to cross-domain optimization. Multi-armed bandit approaches define a selection function with two components, the first is based on the performance of an operator and the second based on the number of times that the operator was used. These approaches had showed a promising performance over the Adaptive Operator Selection context. However, there are few works on literature that aim the hyper-heuristic context, as proposed here. The proposed approach is integrated into the HyFlex framework, that was developed to facilitate the implementation and comparison of hyper-heuristics. An empirical parameter configuration was performed and the best setup was compared to the top ten CHeSC 2011 algorithms using the same methodology adopted during the competition. The results obtained were good comparable to those attained by the literature. Moreover, it was concluded that the behavior of MAB selection is heavily affected by its parameters. As this is not a desirable behavior to hyper-heuristics, future research will investigate ways to better deal with the parameter setting.
68

Especificação formal e implementação de um protótipo para a linguagem paralog

Ferreira, Simone Nasser Matos 25 October 2010 (has links)
No description available.
69

Análise e extração de características estruturais e comportamentais para perfis de malware / Analysis and extraction of structural and behavioural features for malware profiling

Caldas, Daniel Mendes 05 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-03-03T15:17:54Z No. of bitstreams: 1 2016_DanielMendesCaldas.pdf: 1619130 bytes, checksum: e84e0f38f31262e273d74ef772c95c79 (MD5) / Approved for entry into archive by Ruthléa Nascimento(ruthleanascimento@bce.unb.br) on 2017-03-28T13:45:07Z (GMT) No. of bitstreams: 1 2016_DanielMendesCaldas.pdf: 1619130 bytes, checksum: e84e0f38f31262e273d74ef772c95c79 (MD5) / Made available in DSpace on 2017-03-28T13:45:07Z (GMT). No. of bitstreams: 1 2016_DanielMendesCaldas.pdf: 1619130 bytes, checksum: e84e0f38f31262e273d74ef772c95c79 (MD5) / Grande parte das ações criminosas na rede são praticadas com uso de softwares maliciosos, comumente denominados malwares. Malwares são programas desenvolvidos com o intuito de se infiltrar em um sistema de computador alheio de forma ilícita, para causar danos, alterações ou roubo de informações (confidenciais ou não). Uma resposta eficiente do Estado para um crime cibernético requer o entendimento do meio utilizado para o cometimento da ação criminosa. No ambiente jurídico, a análise de malware deve prover evidências necessárias para a materialização do fato e a determinação da autoria, visando a condenação do agente malicioso, e a fornecer meios para inocentar os erroneamente acusados. Existem duas abordagens fundamentais para o problema da análise de malware, a análise estática, que envolve examinar o malware sem executá-lo observando suas características estruturais, e a análise dinâmica, que envolve analisar o malware durante sua execução, observando suas características comportamentais. A maior parte da pesquisa feita hoje na área de análise de malware tem seu foco na detecção, como forma de prevenção e de evitar ataques. A pesquisa na área de classificação de malware ainda se encontra em estágios iniciais, e as técnicas desenvolvidas até então demonstram serventia limitada no dia a dia do investigador forense. O objetivo deste trabalho é realizar uma contribuição na área de classificação de malware. Tal contribuição é feita na forma de um estudo do panorama atual da área, na indústria de antivírus e na literatura. O estudo apresenta as principais classificações existentes até então, e suas limitações. É apresentada uma nova proposta de classificação, definida como profiling de malware, baseada no profiling criminal. Além da definição de perfis, este trabalho sugere características, comportamentais e estruturais, que podem representar comportamentos que reflitam os perfis, e apresenta uma estratégia eficiente para extração das características, utilizando a ferramenta Cuckoo Sandbox. Por fim faz-se uma análise das características extraídas, que revela que sete das onze características extraídas se mostraram promissoras para o profiling de malware. / Most of the criminal actions in the network are practiced with the use of malicious software, commonly denominated malwares. Malwares are programs designed to infiltrate a computer system unlawfully, to cause damage, alteration or theft of information (confidential or not). An efficient response of the state to a cyber crime requires understanding the means used to commit the criminal action. In the legal environment, malware analysis should provide evidence necessary for the materialization of the fact and the determination of authorship, aiming at condemning the malicious agent, and providing means to clear the wrongly accused. There are two fundamental approaches to the problem of malware analysis, the static analysis, that involves examining the malware without executing it, observing its structural features, and the dynamic analysis, that involves analyzing the malware during its execution, observing its behavioral features. Most of the research done today in the area of malware analysis has its focus on malware detection, as a way of preventing attacks. The research in the area of malware classification is still in the early stages, and the techniques developed until then show limited use in the day-to-day of the forensic investigator. The goal of this work is to make a contribution in the area of malware classification. This contribution is made with a study of the current panorama of malware classification, in the antivirus industry and in the literature. The study presents the main classes definitions until now, and their limitations. A new classification strategy based on criminal profiling is presented, named as malware profiling. In addition to the definition of profiles, this work suggests features, behavioral and structural, that represent behaviors of the profiles, and presents an efficient strategy to extract these features from malware samples, using the Cuckoo Sandbox tool. Finally, an analysis of the extracted features is performed, which reveals that seven of the eleven extracted features have shown promise for malware profiling.
70

Análise do impacto de cenários implícitos na confiabilidade de sistemas computacionais

Roriz, Alexandre Vaz 06 April 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2015-12-04T12:07:33Z No. of bitstreams: 1 2015_AlexandreVazRoriz.pdf: 1671166 bytes, checksum: c58f23212854280f05a5a7aba50ad0f9 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-05-19T21:55:04Z (GMT) No. of bitstreams: 1 2015_AlexandreVazRoriz.pdf: 1671166 bytes, checksum: c58f23212854280f05a5a7aba50ad0f9 (MD5) / Made available in DSpace on 2016-05-19T21:55:04Z (GMT). No. of bitstreams: 1 2015_AlexandreVazRoriz.pdf: 1671166 bytes, checksum: c58f23212854280f05a5a7aba50ad0f9 (MD5) / O aumento da complexidade dos sistemas computacionais é uma tendência que precisa ser acompanhada pela busca por técnicas de desenvolvimento orientadas em garantir o nível de confiabilidade exigido, desde os estágios iniciais do ciclo de desenvolvimento de software. Nesse contexto, passa a ser requisito essencial que a modelagem seja feita de forma confiável, refletindo da melhor maneira possível o comportamento esperado para o sistema. A modelagem em cenários possibilita, ainda nas fases iniciais do desenvolvimento, a realização de análises de dependabilidade para verificar o atendimento a requisitos não funcionais do sistema. Configurando então uma técnica interessante para a construção de sistemas confiáveis. Entretanto, a modelagem em cenários traz a possibilidade da ocorrência de cenários implícitos, que são cenários que não estavam previstos inicialmente mas surgem da integração entre os diversos cenários especificados. Esses novos cenários podem ser desejados, quando não comprometem o sistema, ou indesejados, quando levam o sistema a um estado de erro. Nesse último caso, é exigida a tomada de ações corretivas para o modelo visando a eliminação ou atenuação desses efeitos negativos. Sendo assim, para a construção de um modelo confiável, faz-se necessário não somente identificar os eventuais cenários implícitos, mas avaliar o impacto desses sobre o sistema a ser modelado, de modo a fundamentar e direcionar as ações para se alcançar o nível de dependabilidade adequado. Esse trabalho apresenta uma metodologia para a avaliação quantitativa e qualitativa do impacto dos cenários implícitos sobre a confiabilidade de um sistema que está sendo modelado. Um estudo de caso é apresentado mostrando o emprego da metodologia para a definição de uma configuração mais confiável em um sistema de rede de câmeras inteligentes. Os resultados mostram que a metodologia é útil para a compreensão de como os cenários implícitos impactam a confiabilidade do modelo, fornecendo subsídios para a tomada de decisões que resultem em um sistema mais confiável. _______________________________________________________________________________________________ ABSTRACT / The increasing of the complexity in computing systems is a trend that needs be accompanied by the search for development techniques oriented to ensure the required reliability level, since the early stages of the software development cycle. In this context, it becomes a essential requirement that the modeling be done in a reliable way, reflecting the expected behavior for system. The scenario-based specification allows, even at early stages of the development, the realization of dependability analysis to verify the compliance with no-functional requirements of the system. Being considered an interesting technique for constructing reliable systems. However, the scenarios modeled brings the possibility of the occurrence of implied scenarios, which are scenarios that were not initially foreseen but arise from interaction between the others specified scenarios. These new scenarios can be allowed, when they do not compromise the system, or unwanted, when they take the system to an error state. In the latter case, it is required to take corrective action in order to eliminate or reduce these negative effects. Therefore, to construct a reliable model, it is necessary not only identify any implied scenarios, but also to assess the impact of these on the system to be modeled in order to ground and direct the actions in order to achieve the appropriate dependability level. This work presents a methodology for quantitative and qualitative analysis of the impact of implied scenarios on the reliability of a system being modeled. A case study is presented showing the use of the methodology for defining a more reliable configuration in a network system of smart cameras. The results show that the method is useful for understanding how the implied scenarios impact the reliability of the model, providing support for decisions that result in a more reliable system.

Page generated in 0.0699 seconds