• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Definição e avaliação de métodos para determinação de similaridade entre tabelas na web

Silva, Filipe Roberto January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015 / Made available in DSpace on 2016-04-15T13:16:45Z (GMT). No. of bitstreams: 1 337788.pdf: 1542322 bytes, checksum: fcadb9653b330c2c852a929a0bbbc352 (MD5) Previous issue date: 2015 / A Web e uma grande fonte de dados. Grandes quantidades de dados são inseridos diariamente e muitos desses dados estão na forma de tabelas HTML. Alguns trabalhos têm proposto formas de extrair e integrar o conteúdo dessas tabelas para torna-los mais acessíveis para o consumo humano. Porem, essa e uma tarefa complexa e um problema ainda em aberto visto que tabelas Web n~ao possuem um padrão de representação. Alem disso, o uso de sinônimos e abreviações torna difícil a comparação dos conteúdos dessas tabelas. Assim sendo, este trabalho propõe uma nova abordagem para determinar a similaridade entre tabelas Web capaz de lidar com suas diferentes estruturas e termos sinônimos. Trabalhos relacionados não lidam, ao mesmo tempo,com essas duas problemáticas. Experimentos realizados mostram que a abordagem e promissora.<br> / Abstract : The Web is a huge information source. Large amounts of data are publisheddaily and great part of them is available as HTML tables. Someworks have proposed approaches to extract and integrate Web tables'content in order to make it more accessible for human consumption.However, this is a complex task and still an open issue given that Webtables do not have a unique representation pattern. Besides, the useof synonyms and abbreviations become hard the comparison of tables'content. Given that, we propose a new approach to determine similaritybetween Web tables which is able to deal with distinct structuresand synonym terms. Related works do not deal, at the same time,with both problematics. Experimental evaluations had shown that theapproach is promising.
522

Otimização multimodal para domínio contínuo com heurísticas de agrupamento adaptativo

Pereira, Márcio Valério Weck January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2016-04-19T04:09:08Z (GMT). No. of bitstreams: 1 338164.pdf: 1346468 bytes, checksum: 24ccc222ada67efe9680ca7e8fb9287e (MD5) Previous issue date: 2015 / O crescente interesse nos métodos de otimização multimodal se deve a uma característica, quase que geral, dos problemas reais - a multimodalidade. Essa característica implica que o problema possui mais de uma solução ótima. Encontrar um conjunto de soluções ótimas é o objetivo dos métodos de otimização multimodal. O método apresentado neste trabalho, Estratégia de Evolução Multimodal baseada em Multi-população, ou NMESIS como será chamado devido a sua tradução para a língua inglesa Niching Multi-population Evolution Strategy with Improved Search, é um algoritmo de niching paralelo e explícito que utiliza como base a Adaptação da Matriz de Covariância. O método representa cada população como uma distribuição normal, o que permite utilizar técnicas destinadas à modelos de misturas gaussianas. Essa escolha ajuda a simplificar a parametrização, enquanto facilita o desenvolvimento de operadores robustos para troca de informação entre os nichos. O NMESIS foi avaliado através de um benchmark, utilizado em competições de algoritmos de niching, que contêm 20 problemas de teste, especialmente concebidos para avaliação de métodos de otimização multimodal, e seu desempenho foi comparado a outros métodos no estado da arte como NMMSO, dADE e NEA2 (último vencedor do CEC 2013). Os resultados apresentados mostram que o NMESIS conseguiu encontrar mais soluções que os concorrentes. Outro fator positivo foi a consistência dos resultados, mesmo com o aumento da precisão.<br> / Abstract : The growing interest in multimodal optimization methods is motivated by an characteristic commonly found in real problems --- multimodality. Find a set of optimal solutions is the target of multimodal optimization research. The method presented in this work, called Niching Multi-population Evolution Strategy with Improved Search (NMESIS), is a parallel niching method which is also explicit. Each niche is maintained by a CMA-ES instance. NMESIS abstracts the niche population as a Gaussian Mixture Model, allowing to use methods that are developed for classification and clustering. This helps to create robust operators to detect overlaps. Also, the abstraction allows a better communication mechanism between niches (migration). We apply a benchmark of 20 test functions, specially designed for multimodal optimization evaluation, and compare the performance with state-of- the-art methods. Finally we discuss the results and show that the proposed approach can reach better and stable results even in high-dimensional spaces.
523

Uma proposta de utilização de sistemas holônicos em documentos eletrônicos

Romão, Luiz Melo January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-07-15T22:47:27Z (GMT). No. of bitstreams: 1 224775.pdf: 1183136 bytes, checksum: 370f80271b45490d241f1e22ecfd155e (MD5) / A grande quantidade de informações trocadas diariamente via Internet, tem exigido dos Sistemas de Gerenciamento Eletrônicos de Documentos novos requisitos que até pouco tempo não eram essenciais. A necessidade da disponibilidade e confiabilidade das informações contidas nos documentos eletrônicos faz com que os usuários que utilizam esta tecnologia tenham a extrema garantia do seu correto funcionamento. Uma forma de garantir estes requisitos de maneira otimizada seria fazer com que cada documento eletrônico fosse responsável pelo gerenciamento de suas próprias informações. Assim, cada ação de gerência que fosse tomada, deveria partir do próprio documento, fazendo com que, os usuários interessados em suas informações tivessem rápido acesso a elas. Desta forma, o documento eletrônico deixa de ser estático e passa a reagir dinamicamente a cada mudança que ocorrer em seu ambiente. Nesta Dissertação é proposta uma nova abordagem para o controle de informações em sistemas de Gerenciamento Eletrônico de Documentos. A contribuição vem através do desenvolvimento e implementação de documentos eletrônicos inteligentes e auto gerenciáveis. Esta nova proposta denominada de documento holônico, devido às suas características autônomas, será responsável pelo seu próprio gerenciamento e terá de atuar conforme as necessidades administrativas do usuário. A colaboração desenvolvida nesta Dissertação é caracterizada por um sistema fundamentado em experiências empíricas no uso dos documentos holônicos. Através de pesquisas e com exemplos da utilização dos documentos holônicos, pôde-se comprovar o sucesso da abordagem, tornando um ramo de pesquisas nesta área.
524

Modelo de anotação de documentos para codificação do conteúdo semântico no processo de autoria

Glonvezynski, Régis Alessandro January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-15T22:55:56Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T19:49:00Z : No. of bitstreams: 1 222482.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Com o contínuo crescimento da Web, a grande quantidade de informação
525

Aplicação do modelo UCON abc em sistemas de comércio eletrônico B2B

Camy, Alexandre Rosa January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduaçõa em Ciência da Computação. / Made available in DSpace on 2013-07-16T00:58:32Z (GMT). No. of bitstreams: 1 220823.pdf: 1700842 bytes, checksum: 339544c3cbf00d6d06566d73e3518766 (MD5) / Recentemente foi proposto um modelo de controle de acesso, denominado UCONABC, que além de unir alguns dos principais conceitos de controle de acesso ainda propõe novos conceitos como: obrigações, condições, continuidade e mutabilidade. Apesar de abrangente, o UCONABC possui limitações e existem ainda muitas melhorias a serem pesquisadas, como por exemplo, a definição de uma forma adequada da aplicação deste modelo em Sistemas de Comércio Eletrônico (CE) Business-to-Business (B2B). Publicações científicas nesta área afirmam que são necessárias pesquisas na especificação, validação e execução de políticas de controle de acesso para sistemas B2B. Esta dissertação possui como principal contribuição científica a proposta de uma forma de aplicação do UCONABC em sistemas de CE B2B que interajam entre si. Além disso, é proposto o Agrupamento Implícito Parcial, uma técnica que facilita o gerenciamento de permissões neste tipo de sistema. A aplicabilidade da proposta desta dissertação é apresentada através de uma descrição detalhada da implementação de um sistema de CE B2B onde o controle de acesso segue as especificações desta proposta. Por fim, é apresentado um estudo de caso em que é possível visualizar, através de um exemplo do mundo real, a aplicação da proposta desta dissertação neste tipo de sistema.
526

Metamodelagem MOF e sua aplicação para modelagem de sistemas imunológicos artificiais

Zanchett, Carla Adriana Barvinski January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:03:12Z (GMT). No. of bitstreams: 1 222362.pdf: 675746 bytes, checksum: 6d17ef35efeb106e6f34b60c569a14e6 (MD5) / Este trabalho versa sobre metamodelagem com o Meta-Object Facility (MOF), linguagem padrão para metamodelagem proposta pelo Object Management Group (OMG), e sua aplicação na concepção de um metamodelo para um Sistema Imunológico Artificial (SIA). O MOF é uma linguagem abstrata, tecnologicamente neutra, utilizada para a criação de metamodelos expansíveis, portáveis, interoperáveis e independentes de plataforma. Seus metamodelos viabilizam à transformação automática de modelos para diferentes plataformas de desenvolvimento, o que acelera o processo de desenvolvimento de softwares ao mesmo tempo em que reduz custos. Seus conceitos foram aplicados na criação de um metamodelo para um Sistema Imunológico Artificial, abordagem freqüentemente utilizada em pesquisas em segurança computacional em redes de computadores. O metamodelo gerado é genérico, o que torna-o aplicável não somente na concepção de sistemas de detecção de intrusão em redes de computadores mas, também, em outros nos quais os princípios definidos para um sistema imunológico artificial se faça adequada.
527

Expert-Coop : um ambiente para desenvolvimento de sistemas multiagentes cognitivos

Costa, Augusto Cesar Pinto Loureiro da January 1997 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2013-12-05T20:36:22Z (GMT). No. of bitstreams: 0 Previous issue date: 1997Bitstream added on 2016-01-08T22:11:44Z : No. of bitstreams: 1 108182.pdf: 4339593 bytes, checksum: dae07a9c4ba592a29499d08d7583205b (MD5) / Expert-Coop, um ambiente Orientado a Objeto, modular, concebido para auxiliar a implementação de Sistemas Multi-Agentes Cognitivos, Abertos e heterogêneos é apresentado neste trabalho. Construído a partir de um conjunto de bibliotecas de classes as quais permitem a criação de agentes, segundo um modelo de arquitetura predefinido. A arquitetura do agente suportada pelo Expert-Coop consiste em um modelo concorrente composto por seis processos, mail box, expert box, coordenador, sistema especialista expert e uma interface, que interagem utilizando troca de mensagens. Os processos mail box e expert box implementam um mail box privado. O processo Coordenador é responsável pelo gerenciamento de todas as mensagens trocadas pelo processos, mensagens internas, bem como pelas mensagens trocadas pelos Agentes, mensagens externas. Cabe ainda ao Coordenador o gerenciamento da cooperação entre os agentes da comunidade. O processo Expert provem capacidade cognitiva do Agente, esse processo inclui um completo Arcabouço de Sistemas Especialistas chamado FASE. O processo Interface propicia a comunicação entre o Agente e o usuário. Este processo consiste em um display para visualização das mensagens e um terminal para envio destas. Entretanto é possfvel a utilização de módulos gráficos baseados nas bibliotecas do Motif customizadas a aplicação em questão. É apresentado ainda um protótipo de Sistema Multi-Agentes destinado a auxiliar o processo de recomposição da rede de transmissão de energia elétrica da região sul do Brasil, implementado a partir do Expert Coop.
528

Protocolo flexível de autenticação multi-fator

Spagnuelo, Dayana Pierina Brustolin January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:25:59Z (GMT). No. of bitstreams: 1 324632.pdf: 2203014 bytes, checksum: 0b739de1d743377925f3658bc13ef316 (MD5) Previous issue date: 2013 / Sistemas de telemedicina e telessaúde necessitam de serviços de autenticação fortes para garantir a identidade e a privacidade dos dados e, ao mesmo tempo, flexíveis para atender as necessidade de profissionais e pacientes. O foco deste trabalho é o processo de autenticação. Nós propomos um protocolo de autenticação multi-fator flexível e uma implementação do mesmo baseada em tecnologias de web services voltado ao ambiente de telessaúde. Este serviço faz uso de métodos escaláveis em um processo de autenticação de dois fatores. No novo modelo o usuário se autentica da mesma forma que fazia anteriormente e, em um segundo passo, informa algum dado que prove que ele tem a posse de determinado dispositivo único (token). Suas principais características são a flexibilidade de configuração dos mecanismos de autenticação, assim como o uso de um sistema robusto para o registro de eventos. Neste trabalho são tratados a engenharia de requisitos de segurança, e os detalhes da sua implementação. Também são discutidos sua adequação no ambiente de telemedicina e telessaúde e a integração do uso de diferentes métodos de autenticação.<br> / Abstract: Telemedicine and telehealth systems require authentication services that are strong enough to ensure identification and privacy, and flexible to meet the needs of health professionals and patients. The focus of this work is the authentication process. We propose a multi-factor authentication protocol and an implementation based on web service technology for telemedicine environment. This service makes use of scalable authentication methods based on two-factor authentication mechanisms. In the new model users authenticate exactly the same way they use to do and, in a second step, they have to provide some information that proves that they possess some specific device (token). Its main characteristics are: flexibility of configuration for the authentication mechanisms, as well as the use of a robust system for recording events. In this dissertation we deal with the engineering requirements of the security system and the details of its implementation. We also discuss the efficacy and ease of use of different authentication methods.
529

Using combinatorial group testing to solve integrity issues

Idalino, Thaís Bardini January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015 / Made available in DSpace on 2016-10-19T13:20:16Z (GMT). No. of bitstreams: 1 336415.pdf: 822253 bytes, checksum: 9704a2d81140ede18af8530f9cbebddd (MD5) Previous issue date: 2015 / O uso de documentos eletrônicos para compartilhar informações é de fundamental importância, assim como a garantia de integridade e autenticidade dos mesmos. Para provar que alguém é dono ou concorda com o conteúdo de um documento em papel, essa pessoa precisa assiná-lo. Se o documento foi modificado após a assinatura, geralmente é possível localizar essas modificações através de rasuras. Existem técnicas similares em documentos digitais, conhecidas como assinaturas digitais, porém, propriedades como as de identificar as modificações são perdidas.Ao determinar quais partes de um documento foram modificadas, o receptor da mensagem seria capaz de verificar se essas modificações ocorreram em partes importantes, irrelevantes ou até esperadas do documento. Em algumas aplicações, uma quantidade limitada de modificações são permitidas mas é necessário manter o controle do local em que elas ocorreram, como em formulários eletrônicos. Em outras aplicações modificações não são permitidas, mas é importante poder acessar partes das informações que tem integridade garantida ou até mesmo utilizar a localização das modificações para investigação.Neste trabalho é considerado o problema de garantia parcial de integridade e autenticidade de dados assinados. Dois cenários são estudados: o primeiro está relacionado com a localização de modificações em um documento assinado e o segundo está relacionado com a localização de assinaturas inválidas em um conjunto de dados assinados individualmente. No primeiro cenário é proposto um esquema de assinatura digital capaz de detectar e localizar modificações num documento. O documento a ser assinado é primeiramente dividido em n blocos, tendo em conta um limite d para a quantidade máxima de blocos modificados que o esquema de assinatura consegue localizar. São propostos algoritmos eficientes para as etapas de assinatura e verificação, resultando em uma assinatura de tamanho razoavelmente compacto. Por exemplo, para d fixo, são adicionados O(log n) hashes ao tamanho de uma assinatura tradicional, ao mesmo tempo permitindo a identificação de até d blocos modificados.No cenário de localização de assinaturas inválidas em um conjunto de dados assinados individualmente é introduzido o conceito de níveis de agregação de assinatura. Com esse método o verificador pode distinguir os dados válidos dos inválidos, em contraste com a agregação de assinaturas tradicional, na qual até mesmo um único dado modificado invalidaria todo o conjunto de dados. Além disso, o número de assinaturas transmitidas é muito menor que num método de verificação em lotes, que requer o envio de todas as assinaturas individualmente. Nesse cenário é estudada uma aplicação em bancos de dados terceirizados, onde cada tupla armazenada é individualmente assinada. Como resultado de uma consulta ao banco de dados, são retornadas n tuplas e um conjunto de t assinaturas agregadas pelo servidor (com t muito menor que n). Quem realizou a consulta executa até t verificações de assinatura de maneira a verificar a integridade das n tuplas. Mesmo que algumas dessas tuplas sejam inválidas, pode-se identificar exatamente quais são as tuplas válidas. São propostos algoritmos eficientes para agregar, verificar as assinaturas e identificar as tuplas modificadas.Os dois esquemas propostos são baseados em testes combinatórios de grupo e matrizes cover-free. Nesse contexto são apresentadas construções detalhadas de matrizes cover-free presentes na literatura e a aplicação das mesmas nos esquemas propostos. Finalmente, são apresentadas análises de complexidade e resultados experimentais desses esquemas, comprovando a sua eficiência. <br> / Abstract : We consider the problem of partially ensuring the integrity and authenticity of signed data. Two scenarios are considered: the first is related to locating modifications in a signed document, and the second is related to locating invalid signatures in a set of individually signed data. In the first scenario we propose a digital signature scheme capable of locating modifications in a document. We divide the document to be signed into n blocks and assume a threshold d for the maximum amount of modified blocks that the signature scheme can locate. We propose efficient algorithms for signature and verification steps which provide a reasonably compact signature size. For instance, for fixed d we increase the size of a traditional signature by adding a factor of O(log n) hashes, while providing the identification of up to d modified blocks. In the scenario of locating invalid signatures in a set of individually signed data we introduce the concept of levels of signature aggregation. With this method the verifier can distinguish the valid data from the invalid ones, in contrast to traditional aggregation, where even a single invalid piece of data would invalidate the whole set. Moreover, the number of signatures transmitted is much smaller than in a batch verification method, which requires sending all the signatures individually. We consider an application in outsourced databases in which every tuple stored is individually signed. As a result from a query in the database, we return n tuples and a set of t signatures aggregated by the database server (with t much smaller than n). The querier performs t signature verifications in order to verify the integrity of all n tuples. Even if some of the tuples were modified, we can identify exactly which ones are valid. We provide efficient algorithms to aggregate, verify and identify the modified tuples. Both schemes are based on nonadaptive combinatorial group testing and cover-free matrices.
530

Modelo de identificação do conhecimento procedimental de alto desempenho para atividade de modelagem digital 3D

Ledo, Rafael Zanelato January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2016. / Made available in DSpace on 2017-01-03T03:14:59Z (GMT). No. of bitstreams: 1 343182.pdf: 10298635 bytes, checksum: 1be7042f5cccb869c487a0cb838de9e9 (MD5) Previous issue date: 2016 / O avanço da informática nas últimas décadas trouxe mudançassignificativas para as aplicações em computação gráfica. Uma destasaplicações é o desenvolvimento de modelos digitais tridimensionais quesão utilizadas como ferramenta para desenvolvimento de projetos nasáreas de Arquitetura, Design e Engenharia. O modelo digital 3D,desenvolvido em softwares CAD, é central no desenvolvimento doprojeto contemporâneo pois a partir dele diversas outras ações sãorealizadas como a análise bioclimática e a fabricação digital. Com baseneste contexto, é fundamental produzir modelos 3D com eficácia eeficiência. O modelo deve ser correto nas suas dimensões (eficácia) eproduzido no menor tempo possível (eficiência). Para conseguir produzirmodelos eficazes e eficientes é necessário atingir a expertise na tarefa demodelagem em softwares CAD. Porém, na atividade de modelagem, osprofissionais apresentam diferentes desempenhos, cujas razões aindacarecem de respostas acadêmicas. Em revisão sistemática realizada, foiverificado três lacunas nas pesquisas direcionadas à expertise em CAD.A primeira é a ausência de uma pesquisa que identificasse as ações quemais impactam o tempo total da tarefa. A segunda é a falta de umaclassificação da expertise. A terceira é a ausência da identificação dopadrão de comportamento do usuário de CAD que o conduz a perda ouganho de tempo na tarefa. Através da análise de um teste de modelagemaplicado à 82 estudantes, foi possível identificar, sistematizar e organizaras informações necessárias para responder às lacunas identificadas naliteratura. Foi identificado que são três ações que mais impactam o tempototal da tarefa: o número de comandos dados, o tempo parado semmodelar e a velocidade de execução dos comandos. Foi identificadotambém os padrões de comportamento entre os usuários de CAD queconduzem a melhor produtividade e proposto um sistema de classificaçãoda expertise com base nas informações obtidas na pesquisa.<br> / Abstract : The advancement of information technology in recent decades hasbrought significant changes to the applications in computer graphics. Oneof these applications is the development of three-dimensional digitalmodels that used as a tool for development projects in the areas ofArchitecture, Design and Engineering. The 3D digital model developedin CAD software, is central in the development of contemporary designbecause from it a number of other actions performed as bioclimaticanalysis and digital manufacturing. Based on this background, it isessential to produce 3D models effectively and efficiently. The modelmust be correct in its dimensions (effectiveness) and produced in theshortest possible time (efficiency). To produce effective and efficientmodels is necessary to achieve expertise in the modeling task in CADsoftware. However, in the modeling activity, professionals have differentperformances, whose reasons still lack academic answers. In systematicreview, it was found three gaps in research directed towards expertise inCAD. The first is the absence of a survey to identify the actions that mostaffect the total task time. The second is the lack of an expertiseclassification. The third is the identification of common behaviors thatleads the CAD user to loss or gain time on task. Through the analysis ofa modeling test applied to 82 students, it was possible to identify, classifyand organize the information needed to respond the shortcomingsidentified in the literature. It was identified that there are three actions thatmost affect the total task time: the number of data commands, timestopped without action and the speed of command execution. It was alsoidentified what common behavior among CAD users leading to betterproductivity and was proposed a classification system based on theinformation obtained in the research.

Page generated in 0.0762 seconds