• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Aprimoramento da privacidade em infraestruturas de chaves públicas centradas no usuário e baseadas em notários

Nogueira, Hendri January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2014-08-06T17:53:35Z (GMT). No. of bitstreams: 1 327278.pdf: 2009944 bytes, checksum: 9bbdb7809e03c0b3bbe317c6f993c065 (MD5) Previous issue date: 2014 / Este trabalho tem como objetivo propor novas alternativas de Infraestrutura de Chaves Públicas (ICP) para prover um melhor gerenciamento das identidades, dos atributos e da privacidade dos usuários finais no âmbito de uma Infraestrutura de Autenticação e Autorização (IAA). Neste trabalho são descritas três alternativas: ICP Baseada em Atributos, ICP Centrada no Usuário e ICP Centrada no Usuário com Autenticação Anônima. A partir de uma visão crítica apresentada ao modelo de uma ICP X.509 e também com o uso de certificados de atributos, foram levantadas as limitações de suas adoções e utilizações, bem como a falta de suporte e o fornecimento na privacidade do usuário. Baseadas em Autoridades Notariais para fornecer a confiabilidade dos dados, as propostas utilizam-se do paradigma centrado no usuário para prover um maior controle para o usuário gerenciar e apresentar seus atributos, facilitando nos procedimentos de emissão e verificação das credenciais. As principais diferenças entre as propostas estão no fornecimento de diferentes níveis de privacidade para o usuário final e por meio da utilização de diferentes mecanismos criptográficos, tais como a Criptografia Baseada em Identidades (CBI) e provas de autenticação zero-knowledge. As propostas são analisadas e comparadas entre si e entre cinco outros sistemas, protocolos ou tecnologias utilizadas em uma IAA: ICP X.509 com certificados de atributos, OpenID, framework Shibboleth, U-Prove e Idemix. As suas escolhas se dão pela ampla utilização ou pelos resultados de projetos e pesquisas no meio acadêmico e privado, destacando ou não na privacidade do usuário. Mostra-se que as alternativas de ICP permitem uma simplificação na emissão de credenciais com chaves criptográficas, na verificação destas credenciais, no suporte a diferentes níveis de privacidade para o usuário, com uma alternativa em definir um justo modelo de negócio e a possibilidade de utilização em procedimentos de assinatura de documentos eletrônicos.<br> / Abstract : This work aims to propose new alternatives for Public Key Infrastructure (PKI) to improve the management of identities, attributes and privacy of end users within an Authentication and Authorization Infrastructure (AAI). In this work three alternatives are described: PKI Based on Attributes, User-Centric PKI and User-Centric PKI with Anonymous Authentication. From a critical view introduced to the X.509 PKI model and also with the use of attributes certificates, was raised the limitations of their adoption and uses, as well as the lack of the support and the supply of the user's privacy. Based on Notary Authorities to provide data reliability, the proposed alternatives use of user-centric paradigm to provide more control for the user to manage and to present their attributes, making it easier procedures for issuing and verificating credentials. The main differences between the proposals are in providing different levels of end-user's privacy and through the use of different cryptographic mechanisms, such as Identity-Based Cryptography (IBC) and zero-knowledge authentication proofs. The proposals are analyzed and compared with each other and with five other systems, protocols or technologies used in an IAA: X.509 PKI with attribute certificates, OpenID, Shibboleth framework, U-Prove and Idemix. The choices are given by the widespread use or the results from academic and private's research and projects, focusing or not on user's privacy. It is shown that the PKI's alternatives allow a simplification in the issuance of credentials with cryptographic keys, the verification of that credentials, in supporting different levels of user's privacy, an alternative to defining a fair business model and the possibility of using in procedures for signing electronic documents.
92

Algoritmo não supervisionado para segmentação e remoção de ruído de páginas web utilizando tag paths

Velloso, Roberto Panerai January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:44:43Z (GMT). No. of bitstreams: 1 329914.pdf: 1331548 bytes, checksum: 83651130b0ac80ced63647347769e15a (MD5) Previous issue date: 2014 / Segmentação e remoção de ruído de páginas web são etapas essenciais no processo de extração de dados estruturados. Identificar a região principal da página, eliminando o que não é importante (menus, anúncios,etc.), pode melhorar significativamente o desempenho do processo de extração. Para essa tarefa e proposto um novo algoritmo, totalmente automático, que utiliza uma sequência de tag paths (TPS) como representação da página web. A TPS é composta por uma sequência de símbolos (string), cada um representando um tag path diferente. O algoritmo proposto procura por posições na TPS onde é possível dividi-la em duas regiões de tal forma que seus alfabetos não se intersectem, o que significa que as regiões têm conjuntos de tag paths completamente distintos e, portanto, são regiões diferentes da página. Os resultados mostram que o algoritmo é muito efetivo em identificar o conteúdo principal de vários sites, e melhora a precisão da extração, removendo resultados irrelevantes.<br> / Abstract: Web page segmentation and data cleaning are essential steps in structured web data extraction. Identifying a web page main content region, removing what is not important (menus, ads, etc.), can greatly improve the performance of the extraction process. We propose, for this task, a novel and fully automatic algorithm that uses a tag path sequence (TPS) representation of the web page. The TPS consists of a sequence of symbols (string), each one representing a diferent tag path. The proposed technique searches for positions in the TPS where it is possible to split it in two regions where each region's alphabet do not intersect, which means that they have completely dierent sets of tag paths and, thus, are diferent regions. The results show that the algorithm is very effective in identifying the main content block of several major web sites, and improves the precision of the extraction step by removing irrelevant results.
93

Verificação de consistência e coerência de memória compartilhada para multiprocessamento em chip

Henschel, Olav Philipp January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T21:02:33Z (GMT). No. of bitstreams: 1 330255.pdf: 3149547 bytes, checksum: 67161f66dc891b9dd0fe6599ef298d40 (MD5) Previous issue date: 2014 / O multiprocessamento em chip sob a crescente demanda por desempenho leva a um número crescente de núcleos de processamento, que interagem através de uma complexa hierarquia de memória compartilhada, a qual deve obedecer a requisitos de coerência e consistência, capturados na interface hardware-software na forma de um modelo de memória. Dada uma execução de um programa paralelo, verificar se a hierarquia obedece aqueles requisitos é um problema intratável quando a observabilidade do sistema restringe-se a um trace de memória para cada processador, tal como ocorre em um checker dinâmico pós-silício. Esses checkers (baseados em inferências sobre traces) requerem o uso de backtracking para excluir falsos negativos. Por outro lado, checkers pré-silício podem se beneficiar da observabilidade ilimitada de representações de projeto para induzir um problema de verificação que pode ser resolvido em tempo polinomial (sem o uso de backtracking) e com plenas garantias de verificação (sem falsos negativos nem falsos positivos). Esta dissertação faz uma avaliação experimental comparativa de checkers dinâmicos baseados em diferentes mecanismos (inferências, emparelhamento em grafo bipartido, scoreboard única e múltiplas scoreboards). Os checkers são comparados para exatamente o mesmo conjunto de casos de teste: 200 programas paralelos não sincronizados, gerados de forma pseudo-aleatória, obtidos variando a frequência de ocorrência de instruções (4 mixes), o número de endereços compartilhados (entre 2 e 32) e o número total de operações de memória (entre 250 e 64K). A partir de uma mesma representação pré-validada do sistema, foram construídas oito representações derivadas, cada uma contendo um erro de projeto distinto. Para reproduzir condições compatíveis com as tendências arquiteturais, os checkers foram comparados ao verificar um modelo com máxima relaxação de ordem de programa (bastante similar ao usado, por exemplo, nas arquiteturas Alpha e ARMv7) para sistemas contendo de 2 a 32 núcleos de processamento. Não é do conhecimento do autor a existência na literatura de uma avaliação experimental tão ampla. Os resultados mostram a inviabilidade do uso de checkers baseados em inferências em tempo de projeto: têm o mais alto esforço computacional e a maior taxa de crescimento com o aumento do número de processadores. A avaliação indica que a forma mais eficiente de construir um checker pré-silício corresponde a uma observabilidade de três pontos de monitoramento por processador, ao uso de verificação on-the-fly (ao invés de análise post-mortem) e à utilização de múltiplos mecanismos para verificar separadamente e em paralelo os subespaços de verificação definidos pelo escopo individual de cada processador, enquanto os subespaços entre processadores são verificados globalmente. Como um desdobramento da avaliação experimental, a dissertação identifica uma deficiência comum a todos os checkers analisados: sua inadequação para verificar modelos de memória com fraca atomicidade de escrita, exatamente aqueles apontados como tendência e já presentes em arquiteturas recentes (e.g. ARMv8). Diante disso, a dissertação propõe algoritmos generalizados capazes de verificar tais modelos.<br> / Abstract: Chip multiprocessing under the growing demand for performance leads to agrowing number of processing cores, which interact through a complex shared memory hierarchy that must satisfy coherence and consistency requirements captured as a memory model in the hardware-software interface. Given an execution of a parallel program, verifying if the hierarchy complies to those requirements is an intractable problem when the system observability is limited to a memory trace per processor, as in dynamic post-silicon checkers.Those checkers (based on inferences over traces) require the use of backtracking to avoid false negatives. On the other hand, pre-silicon checkers may benefit from the unlimited observability of design representations to induce a verification problem that may be solved in polynomial time (without the use of backtracking) with full verification guarantees (i.e. neither false negatives nor false positives). This dissertation provides an experimental evaluation of dynamic checkers based on different mechanisms (inferences, bipartite graph matching, single scoreboard and multiple scoreboards). The checkers are compared under exactly the same set of test cases: 200 non-synchronized parallel programs, generated pseudo-randomly, obtained by varying the frequency of instructions (4 mixes), the number of shared addresses (between 2 and 32) and the total number of memory operations (between 250 and 64K). From the same pre-validated system representation, eight distinct representations were built, each one containing a single and unique design error. To reproduce conditions compatible with architectural trends, the checkers were compared while verifying a memory model with maximal relaxation of program order (similar, for example, to those used in Alpha and ARMv7 architectures) and systems containing 2 to 32 processing cores. To the author's best knowledge, no broader experimental evaluation is available in the literature. The results show that the use of inference-based checkers at design time is impractical: they have the highest computational effort and the highest rate of growth with the number of cores. The evaluation shows that the most efficient way of building a pre-silicon checker corresponds to three observable points per core, the use of on-the-fly analysis (instead of post-mortem) and the usage of multiple engines to check the verification subspaces defined by the scope of each processor independently and in parallel, while checking globally the inter-processor subspaces. As a spin-off from the experimental evaluation, the dissertation identifies a deficiency common to all analyzed checkers: their unsuitability to handle memory models with weak write atomicity, which are precisely those pointed out as the trend and are present in architectures already in the market (e.g. ARMv8). In face of this, the dissertation proposes generic algorithms capable of verifying such models.
94

Controle de disseminação de dados sensíveis em ambientes federados

Weingärtner, Rafael January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-04-29T21:07:04Z (GMT). No. of bitstreams: 1 333104.pdf: 3170624 bytes, checksum: eb7a5e0980500c6dcb0f3d7c3fc2de58 (MD5) Previous issue date: 2014 / Computação em nuvem é amplamente utilizada para fornecer serviços sob demanda, frente aos seus benefícios, como redução de custos, flexibilidade e agilidade no provisionamento de recursos. No entanto, ainda existem organizações e usuários que não estão confortáveis em enviar seus dados sensíveis para a nuvem, em especial dados de identificação, também conhecidos como personally identifiable information (PII). Estes dados podem ser utilizados para identificar um usuário em ambientes externos aos sistemas em que são utilizados. Além disso, existem casos de vazamentos de dados que resultaram em roubos de identidade, sendo consequência de agentes internos (administradores de sistema maliciosos) ou externos. Este trabalho apresenta uma abordagem para tratar as questões que envolvem privacidade em torno dos PIIs armazenados em provedores de identidade (IdP). O modelo proposto busca reduzir os riscos envolvidos no momento da disseminação dos dados dos usuários ao mesmo tempo em que provê um controle mais apurado dos PIIs armazenados em IdPs. Deste modo, dificulta-se o vazamento de PIIs e apropriação indevida de dados de identificação dos usuários.<br> / Abstract : Cloud computing is widely used to provide on demand services, mainly, because of its benefits such as reduced costs, structure exibility and agility on resource provisioning. However, there are still companies and users that are not comfortable in sending their sensitive data to the cloud, especially the personally identifiable information (PII) that could be used to identify someone outside of the system in which they are used. Moreover, there have been cases of data leaks which resulted in identity thefts that were either consequence of internal agents (malicious system administrators) or external ones. We present a model that addresses the privacy issues within the PII that is stored in identity providers. In one hand, our proposal lowers risks when disseminating PII data and increases awareness of the process. In other hand, it gives control of PII data that is stored in identity providers directly to users' hands.
95

Método fuzzy para a sumarização automática de texto com base em um modelo extrativo (FSumm)

Goularte, Fábio Bif January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-05-12T04:08:08Z (GMT). No. of bitstreams: 1 333183.pdf: 2374355 bytes, checksum: 5f9767cf299ef07fe986ed50487dfcd7 (MD5) Previous issue date: 2015 / A sumarização automática de texto procura condensar o conteúdo do documento, extraindo as informações mais relevantes. Esse processo normalmente é executado através de métodos computacionais que incorporam o método estatístico e o linguístico. O rápido desenvolvimento das tecnologias emergentes e a crescente quantidade de informação disponível inserem novos desafios para esta área de pesquisa. Um desses desafios está na identificação das sentenças mais informativas no momento da geração do sumário. Como a tarefa de sumarizar informações de texto traz consigo a incerteza inerente à linguagem natural, a lógica fuzzy pode ser aplicada nessa tarefa para contribuir nos resultados gerados. Portanto, esta dissertação propõe um método de sumarização automática de texto utilizando a lógica fuzzy para a classificação das sentenças. O método foi desenvolvido por meio da técnica de sumarização extrativa ao qual se associam tarefas de Recuperação de Informação (RI) e de Processamento de Linguagem Natural (PLN). Para a avaliação deste método, considerou-se um corpus de textos em língua portuguesa e uma ferramenta que automatiza o processo. A ferramenta de avaliação analisa a sobreposição das unidades textuais entre os sumários automáticos e o modelo humano, dadas pelas medidas de precisão, cobertura e medida-f. Foram realizados experimentos que demonstram a efetividade do método na classificação da informatividade das sentenças.<br> / Abstract : Automatic text summarization attempts to condense the document content, extracting the most relevant information. This process is usually performed by computational methods such as statistical and linguistic. The rapid development of emerging technologies and the increasing amount of information available insert new research challenges. One of these challenges is to identify the most informative sentences at the time of the summary generation. The textual information summarization task brings with it the uncertainty inherent in natural language where fuzzy logic can be applied and contribute to the results. Therefore, this dissertation proposes a method of automatic text summarization using fuzzy logic to the classification of sentences. The method was developed by extractive summarization techniques which are associated with information retrieval tasks (IR) and natural language processing (NLP). The evaluation method considers a corpus of Brazilian Portuguese news texts and a tool for evaluation of summaries. The assessment tool analyzes the text units overlaps between automatic summaries and human model producing measures (precision, recall, F-measure) that express the informativeness of the summaries. We also present experiments showing the effectiveness of our method in the informativeness sentences classification.
96

SYSSU-DTS: um sistema de suporte à computação ubíqua baseado em espaço de tuplas distribuído / SYSSU-DTS: a support system for ubiquitous computing based on distributed tuple spaces

Almeida Neto, Benedito José de January 2013 (has links)
ALMEIDA NETO, B. J. SYSSU-DTS: um sistema de suporte à computação ubíqua baseado em espaço de tuplas distribuído. 2013. 83 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T19:51:02Z No. of bitstreams: 1 2013_dis_bjaneto.pdf: 23799710 bytes, checksum: 8649b169ae778f22423da95bed56eeeb (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-02-09T15:41:19Z (GMT) No. of bitstreams: 1 2013_dis_bjaneto.pdf: 23799710 bytes, checksum: 8649b169ae778f22423da95bed56eeeb (MD5) / Made available in DSpace on 2015-02-09T15:41:19Z (GMT). No. of bitstreams: 1 2013_dis_bjaneto.pdf: 23799710 bytes, checksum: 8649b169ae778f22423da95bed56eeeb (MD5) Previous issue date: 2013 / The evolution of mobile technologies allows the emerging of ubiquitous systems, able to anticipate user’s needs and to seamlessly adapt to context changes. These systems present the problem of dynamic adaptation in a highly distributed, heterogeneous and volatile environment, since it may be difficult to collect and process context information from distributed unknown sources. The problem faced is the management of contextual data in scenarios with mobility and intermittent connections between mobile devices and servers. In order to facilitate the development of such systems, this work extends an existing support system based on centralized tuple spaces, called SysSU (LIMA et al., 2011), aiming at the management of distributed information. Hence, a decentralized tuple space approach is adopted, offering to ubiquitous systems components the capability of interaction and cooperation in scenarios of total decentralization. Thus, this work introduces SysSU-DTS (System Support for Ubiquity - Distribute Tuple Space), a system support that provides functionality for coordinating ubiquitous systems in open environments, where no assumptions about available resources should be made. It focuses on ubiquitous systems based on mobile devices such as smartphones, tablets and ultrabooks, which can communicate through a Mobile Ad hoc Network (MANET). SysSU-DTS represents context information by tuples and allows a transparent access to spread context, as follows: (i)local access, which accesses an internal device tuple space; (ii) infrastructured access, tuple spaces located on a server accessed using an infrastructured network; or (iii) Ad hoc access, interacting directly with tuple spaces located in nearby devices via the formation of an Ad hoc network. From the access to different context providers, ubiquitous and context-aware applications, using SysSU-DTSs support, can have an insight of global context related to the system entities. In addition, SysSU-DTS implements a scope mechanism that allows the formation of available contextual information subsets. This mechanism restricts access to contextual tuples only to members of the same scope, avoiding unnecessary information management. This dissertation reports some experimental results obtained in a performance evaluation using a testbed of smartphones and tablets. The evaluation shows the practical feasibility of our approach and point out how SysSU-DTS can grant context data distribution with dynamically adapting to local, infrastructured and distributed over Ad hoc networks context providers. / A evolução das tecnologias móveis favorece o surgimento de sistemas capazes de antever as necessidades do usuário e se adaptar às variações de seu contexto de forma imperceptível. Tais sistemas, denominados sistemas ubíquos, enfrentam o desafio da adaptação dinâmica em um cenário altamente distribuído, heterogêneo e volátil, uma vez que pode se tornar difícil coletar e processar informações contextuais oriundas de fontes desconhecidas e distribuídas. O problema em questão é o gerenciamento de dados contextuais em cenários sujeitos a mobilidade e conexões intermitentes entre dispositivos móveis e servidores. A fim de facilitar o desenvolvimento de sistemas ubíquos, este trabalho estende um sistema de suporte existente, chamado SysSU (LIMA et al., 2011), que foi baseado em espaços de tuplas centralizado. Com o objetivo de gerenciar informações de contexto distribuídas, é adotada uma abordagem de espaço de tuplas descentralizada, oferecendo aos componentes dos sistemas ubíquos a capacidade de interação e cooperação em situações de total descentralização. Sendo assim, esta dissertação propõe o SysSU-DTS (System Support for Ubiquity - Distribute Tuple Space), um sistema de suporte que fornece a funcionalidade de coordenação de sistemas ubíquos em ambientes abertos, onde nenhuma suposição sobre os recursos disponíveis deve ser feita. O SysSU-DTS é focado em sistemas ubíquos baseado em dispositivos móveis, como smartphones, tablets e ultrabooks, que podem se comunicar através de redes móveis Ad hoc (MANET - Mobile Ad hoc Network). O SysSU-DTS representa informações contextuais por meio de tuplas e permite o acesso transparente a informações de contexto disponíveis, estejam elas localizadas dentro do dispositivo móvel, em um servidor ou em outro dispositivo móvel próximo. A partir do acesso a informações de contexto oriundas de diferentes provedores, as aplicações ubíquas e sensíveis ao contexto que adotem o suporte do SysSU-DTS podem ter uma visão do contexto global das entidades envolvidas no sistema. Além disso, o SysSU-DTS implementa um mecanismo de escopo que permite a formação de subconjuntos de informações contextuais disponíveis, evitando gerenciamento de informações desnecessárias. São apresentados resultados experimentais obtidos em uma avaliação de desempenho realizada em um testbed composto por smartphones e tablets. Esta avaliação demonstra a viabilidade prática da abordagem proposta e como o SysSU-DTS promove a distribuição de informações de contexto adaptando-se dinamicamente a provedores de contexto locais, infra-estruturados e distribuídos em redes Ad hoc.
97

Extração automática de modelos CSP a partir de casos de uso

ARAÚJO, Renata Bezerra e Silva de January 2014 (has links)
Submitted by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2014-05-05T18:18:39Z No. of bitstreams: 1 dissertacao_rbsa_final.pdf: 3125474 bytes, checksum: 127a694ac384496fa8a37d473ede57da (MD5) / Approved for entry into archive by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2014-05-05T18:18:52Z (GMT) No. of bitstreams: 1 dissertacao_rbsa_final.pdf: 3125474 bytes, checksum: 127a694ac384496fa8a37d473ede57da (MD5) / Approved for entry into archive by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2014-05-05T18:19:00Z (GMT) No. of bitstreams: 1 dissertacao_rbsa_final.pdf: 3125474 bytes, checksum: 127a694ac384496fa8a37d473ede57da (MD5) / Made available in DSpace on 2014-05-05T18:19:09Z (GMT). No. of bitstreams: 1 dissertacao_rbsa_final.pdf: 3125474 bytes, checksum: 127a694ac384496fa8a37d473ede57da (MD5) / No ciclo de vida de desenvolvimento de software, especificação de requisitos é uma atividade muito propensa a definições incorretas. Isto geralmente acontece porque esses documentos são normalmente escritos em linguagem natural, tornando muito alta a possibilidade de introduzir ambiguidades e interpretações errôneas. Por outro lado, a utilização de linguagem natural traz simplicidade e flexibilidade ao se especificar requisitos, considerando que esta é uma notação que pode ser compreendida tanto pelo cliente quanto pelo desenvolvedor. Uma vez que projetos de software possuem documentos precisos, engenheiros de software que tenham bom conhecimento em linguagens formais podem criar manualmente uma especificação formal com o propósito de validar as propriedades do sistema. No entanto, esta criação manual pode não cobrir todos os requisitos ou podem conter inconsistências. Desta forma, a geração automática de modelos formais a partir de documento de requisitos parece ser uma boa solução para este problema. Para alcançar este objetivo, os documentos de requisitos devem ser simples, diretos, uniformes e sem ambuiguidades. Para que isto aconteça, Linguagens Naturais Controladas (Controlled Natural Languages - CNL) são comumente utilizadas. Este trabalho faz parte do projeto de Pesquisa e Desenvolvimento do CIn Brazil Test Center (CInBTCRD), que é uma cooperação entre a Motorola e o Centro de Informática da Universidade Federal de Pernambuco (CIn-UFPE). Em primeiro lugar, este trabalho propõe uma linguagem restrita (CNL) para definir casos de uso contendo uma noção de estado, os quais consideram dados de entrada, saída, guarda e atualização de variáveis, como um complemento para a descrição textual. Depois disso, uma tradução automática dessa linguagem para a algebra de processos CSP foi proposta, a fim de permitir a análise formal de requisitos e geração de casos de teste. Finalmente, foi realizada a implementação e integração desta linguagem e sua tradução para CSP em uma ferramenta conhecida como TaRGeT, cujo propósito é a geração de casos de teste a partir de documentos de casos de uso que seguem um template padrão e são escritos utilizando uma CNL. A TaRGeT original não era capaz de lidar com definições de dados e as manipulações destes dados, e utiliza sistemas rotulados por transição (labelled transition systems) em vez de CSP, como formalismo. Para ilustrar as técnicas propostas neste trabalho, um estudo de caso foi realizado no ambiente da Motorola, adaptando um exemplo de caso de uso real da indústria de modo a encaixá-lo no nosso template. O documento de caso de uso considera situações de envio e recebimento de SMS/MMS, contendo uma feature com 7 casos de uso, incluindo definições e manipulações de dados, relacionamentos entre casos de uso e 6 fluxos alternativos. O CSP gerado contém 570 linhas de código e a verificação de suas propriedades foi checada com sucesso utilizando-se a ferramenta FDR, um verificador de modelo para CSP
98

Descoberta de padrões de perseguição em trajetórias de objetos móveis

Siqueira, Fernando de Lucca 04 March 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2013-03-04T18:14:18Z (GMT). No. of bitstreams: 1 305188.pdf: 4197506 bytes, checksum: 1eb0b6f76914bc6894c05f5cec429b4e (MD5) / Tecnologias como celulares, GPS e redes de sensores estão ficando cada vez mais populares. Estes dispositivos geram uma grande quantidade de dados chamados de Trajetórias de Objetos Móveis. Uma trajetória é um conjunto de pontos localizados no espaço e no tempo. Estes dados são normalmente volumosos e confusos, sendo necessário criar métodos e algoritmos para extrair informações interessantes destes dados. Vários estudos tem focado na descoberta de padrões em trajetórias como flocks, desvios, recorrência, liderança, etc. Neste trabalho é proposto um novo tipo de padrão: comportamento de perseguição em trajetórias. Mais especificamente, são apresentadas definições formais do comportamento e são definidos diferentes tipos de perseguição, bem como um algoritmo para identificar o padrão. As principais características consideradas são o tempo, a distância e a velocidade, que são utilizadas de forma diferente em relação a trabalhos existentes. O trabalho é validado com experimentos sobre dados sintéticos e dados reais, demonstrando que o método encontra padrões não identificados por outras abordagens.
99

Federação de identidades e computação em nuvem

Leandro, Marcos Aurélio Pedroso January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-06-25T20:57:05Z (GMT). No. of bitstreams: 1 308830.pdf: 4009040 bytes, checksum: b23ed6384d71dc2626aaff3407792189 (MD5) / Os serviços disponibilizados em nuvens podem representar um aumento na eficiência e eficácia na operação dos negócios empresariais, melhorando o custo-benefício em relação ao consumo de recursos e serviços. Os sistemas de computação em nuvem possuem muitas vantagens se comparados aos serviços prestados tradicionalmente, como investimento inicial reduzido, alta disponibilidade, escalabilidade infinita, grande capacidade de tolerância a falhas, entre outros benefícios. Entretanto, existe uma preocupação em relação à privacidade dos dados, uma vez que esses dados encontram-se fora do domínio do cliente. Para que esses serviços sejam efetivamente usados pelas organizações é necessário prover controle de acesso. Questões de segurança devem ser consideradas para prover a autenticidade, confidencialidade e integridade do ambiente como um todo. A implantação de um modelo de gerenciamento seguro e confiável se faz necessária. Neste sentido, o gerenciamento de identidades, bem como os mecanismos de federação de identidades, são fundamentais para alcançar os objetivos de segurança na nuvem. Um sistema de gerenciamento de identidades é composto de protocolos e componentes de software que tratam as identidades dos indivíduos durante todo o ciclo de vida de suas identidades. Estes sistemas possibilitam a criação de federações. Uma federação é uma forma de associação de parceiros de uma rede colaborativa que possibilita a cooperação entre os membros da federação. O gerenciamento de identidades federadas permite que as organizações de uma federação interajam com base na gestão da identidade compartilhada, permitindo, dessa forma, a autenticação única (Single Sign-On, SSO). O objetivo deste trabalho é apresentar um estudo de caso do uso da ferramenta Shibboleth, destacando o conceito de gerenciamento de identidades federadas em um ambiente de nuvem computacional. Esta ferramenta dá apoio às tarefas de gerenciamento de identidades e permite a criação de federações. Entretanto, neste trabalho será abordado seu uso especificamente em um ambiente de nuvem. Como resultado foi obtido a implementação de uma parte do cenário proposto e posteriormente testado em dois casos de uso, o primeiro para acesso público e o segundo para acesso privado. Os testes tiveram os resultados esperados. / The services provided in clouds may represent an increase in efficiency and effectiveness in the operation of the enterprise business, improving the cost-effective related to services and resources consumption. The cloud computing systems have many advantages compared to traditional services, such as reduced upfront investment, expected performance, high availability, infinite scalability, tremendous fault-tolerance capability, and other benefits. However, there is concern about privacy of data, since these data are outside of the client domain. For these services to be effectively enjoyed by organizations is necessary to provide access control. Security issues should be considered to provide authenticity, confidentiality and integrity of the environment as a whole. The implementation of a management model safe and reliable is needed. In this sense, identity management, as well as mechanisms for identity federation, are critical to achieving the objectives of security in the cloud. An identity management system is composed of protocols and software components that handle the identities of individuals throughout the life cycle of their identities. These systems allow the creation of federations. A federation is a form of association of partners in a collaborative network that allows the cooperation between members of the federation. The federated identity management allows organizations in a federation to interact based on the management of shared identity, allowing thus the Single Sign-On. The purpose of this work is to present a case study using the tool Shibboleth highlighting the concept of federated identity management in a cloud computing environment. This tool supports the tasks of identity management and allows the creation of federations. However, this work will be specifically addressed its use in a cloud environment. The result was the implementation of a part of the scenario proposed and then tested in two cases of use, the first for public access and the second for private access. The tests had the expected results.
100

SPINS - um simulador neural para visualização de aspectos de aprendizado utilizando neurônios spiking

Sousa, Giseli de January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T00:31:46Z (GMT). No. of bitstreams: 1 225403.pdf: 1654671 bytes, checksum: 17da86263d7f39d14a2d312da973f03e (MD5) / Os artefatos inteligentes podem ser considerados mecanismos inspirados biologicamente. Estes artefatos possuem a capacidade de simular características e comportamentos semelhantes ao dos seres vivos, através da modelagem biológica de seus sistemas neurais. Para obter um maior grau de fidelidade, o sistema nervoso destes artefatos deve implementar modelos neurais que se assemelhem ao modelo de neurônio biológico. Assim, acredita-se que a utilização de neurônios artificiais do tipo spiking - que são definidos como neurônios que apresentam como saída potenciais de ação - são os modelos mais recomendados para simular os neurônios biológicos. Para a visualização do sistema nervoso, que na área de Inteligência Artificial é representada pela rede neural do artefato, foi proposto neste trabalho um simulador neural chamado SPINS (Spiking Neurons Simulator). Este simulador foi desenvolvido para fins didáticos, possibilitando a visualização da rede neural como um todo, na qual são mostradas as ativações de cada neurônio e os estados em que o mesmo se apresenta, sendo que o estado é definido pelo seu potencial de membrana atual. Biologicamente, o aprendizado ocorre através de mudanças estruturais nas sinapses. Assim, através da organização de conexões sinápticas específicas, o simulador proposto permite visualizar aspectos de aprendizado, tais como habituação, sensibilização e condicionamento clássico. A teoria biológica que fundamenta este trabalho, bem como as estruturas computacionais que representam os modelos biológicos, é apresentada para dar um maior embasamento teórico. Por fim, o simulador proposto é validado através de um caso de uso o qual é implementada uma rede neural de um robô inspirado biologicamente.

Page generated in 0.0804 seconds