• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Novos métodos e ferramentas para a educação tecnológica no ensino básico

LIMA, Sofia Galvão 28 August 2015 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-05T22:35:49Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Sofia Galvão Lima.pdf: 2956848 bytes, checksum: ca215395dceb8093bb633c0fdf25dc95 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-14T21:35:34Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Sofia Galvão Lima.pdf: 2956848 bytes, checksum: ca215395dceb8093bb633c0fdf25dc95 (MD5) / Made available in DSpace on 2018-09-14T21:35:34Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Sofia Galvão Lima.pdf: 2956848 bytes, checksum: ca215395dceb8093bb633c0fdf25dc95 (MD5) Previous issue date: 2015-08-28 / FACEPE / A demanda crescente por profissionais na área de tecnologia faz aumentar a necessidade de uma educação tecnológica ainda no ensino básico. Para além disso, a fluência tecnológica – capacidade não apenas de usar tecnologia, mas de criar novas coisas usando a tecnologia como ferramenta – defendida por Papert e Resnick é extremamente importante tanto para profissionais das mais diversas áreas, quanto para as pessoas de uma maneira geral, visto que a tecnologia cada vez mais faz parte do cotidiano. Então a questão central a ser colocada está relacionada a como gerar motivação para a educação tecnológica, alcançando mais indivíduos do que os que já potencialmente se interessam por tecnologia. A robótica educacional faz um excelente trabalho sob essa perspectiva, inserindo ludicidade, tangibilidade e o aprender fazendo – a sala de aula como laboratório. Apesar disso, ainda não é capaz de atingir a todos, pois provavelmente nenhuma proposta pedagógica será capaz de fazê-lo. A educação musical, por sua vez, tem crescido bastante no Brasil nos últimos anos, numa retomada após passar décadas restrita aos conservatórios. Assim, surge a pergunta principal deste trabalho: de que maneira a educação musical poderia contribuir com a educação tecnológica? Esta pesquisa, portanto, propõe ferramentas, conceitos e processos para integrar música e tecnologia numa abordagem interativa e transdisciplinar, bem como testar a sua aceitação entre professores e alunos da escola básica. / The growing demand for professionals in technology increases the need for technology education even in primary education. Moreover, technological fluency – the ability not only to use technology but to create new things using technology as a tool – defended by Papert and Resnick is extremely important both for professionals from various fields, as for people in general, since technology is increasingly becoming part of the everyday life. The central question of technology education today is related to how to generate motivation, reaching more people than those who are potentially interested in technology. Educational robotics does an excellent job by inserting playfulness, tangibility and learning by doing – the classroom as a laboratory. Nevertheless, it is still not able to reach everyone, because probably no educational proposal will be able to do so. Music education has grown considerably in Brazil in recent years, a recovery after spending decades confined to conservatories. So the main question of this work arises: how could music education contribute to technology education? This research therefore proposes tools, concepts and processes to integrate music and technology in an interactive and transdisciplinary approach and test its acceptance among teachers and students from elementary school.
62

Log de Eventos: aplicação de um modelo de análise de logs para auditoria de registro de eventos

SILVA, Luiz Hamilton Roberto da 14 July 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-10-05T22:32:21Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Luiz Hamilton Roberto da Silva.pdf: 3143342 bytes, checksum: 6d46e7ef9675c038bf4955aafdad3f5d (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-14T21:49:58Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Luiz Hamilton Roberto da Silva.pdf: 3143342 bytes, checksum: 6d46e7ef9675c038bf4955aafdad3f5d (MD5) / Made available in DSpace on 2018-11-14T21:49:58Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Luiz Hamilton Roberto da Silva.pdf: 3143342 bytes, checksum: 6d46e7ef9675c038bf4955aafdad3f5d (MD5) Previous issue date: 2017-07-14 / SETEC / A análise do registro de eventos – conhecido como logs – em equipamentos e sistemas computacionais é útil para a identificação de atacantes, para delinear o modo de ataque e, também, para identificar quais são as falhas que foram exploradas. Há alguns trabalhos e pesquisas que demonstram a vantagem para uma política de segurança da informação em manter os logs de comunicação em redes e sistemas computacionais, focando nas trilhas para auditoria, que é um conjunto de ações onde se inclui: a coleta, o armazenamento e o tratamento dos logs de equipamentos, de aplicações e de sistemas operacionais, dentro de um sistema de computação. A auditoria de eventos atua na coleta de elementos que possam individualizar comportamentos perigosos de usuários, internos ou externos, ou eventos de sistema que possam vir a comprometer o uso aceitável dos recursos computacionais ou a quebra da tríade da segurança da informação: a confidencialidade, a integridade e a disponibilidade. Percebe-se que, dentro do modelo de política de segurança adotado nos centros de operação (datacenters) dos Institutos Federais de Educação, em sua imensa maioria, não utilizam o recurso de servidor de logs, ou tão somente atêm-se ao registro de eventos em seus sistemas e hosts, de forma individual e, sem o contexto da centralização e do tratamento dos registros dos eventos. A coleta dos logs, na modalidade loghost centralizado guarda, em um único repositório, os registros de eventos de diversos sistemas, equipamentos e serviços de rede, o que possibilitará uma análise do montante de logs adquiridos e a possibilidade de gerar trilhas de comportamento de usuários, além de permitir o cruzamento de informações conexas à autenticação de usuários. O recurso que permite a comunicação entre as aplicações, os sistemas operacionais e os equipamentos de rede, informando os eventos a serem registrados é o protocolo Syslog (system log), que é um padrão criado pela IETF para a transmissão de mensagens de log em redes IP. O objetivo maior deste trabalho é estabelecer um modelo para a análise e auditoria de logs, com o fim de identificar ações de usuários em uma rede com servidor de autenticação, aplicando a extração de informações úteis para o Gerenciamento da Segurança, elemento este levado a execução via o uso de scripts no formato PS1 (Windows PowerShell), atuando sobre os arquivos de logs dos Eventos de Segurança (Security.evtx) e gerando relatórios dos eventos relativos ao serviço de autenticação (Active Directory). Ressaltando que as funções implementadas pelos scripts não são disponibilizadas nativamente pelos sistemas Windows e, que o ferramental desenvolvido é de grande valor às atividades diárias do Administrador de Redes, concluindo-se que esta pesquisa apresenta um modelo de análise de logs para auditoria de registro de eventos. / The analysis of the events log - known as logs - in equipment and computer systems, is useful for the attackers’ identification, to delineate the attack way and also to identify which faults have been exploited. There are some papers and researches that demonstrate the advantage of an information security policy in maintaining communication logs in networks and computer systems, focusing on the audit trails, which is a set of actions, which includes: collection, storage and the treatment of equipment logs, applications, operating systems, within a computer system. The audit of events, acts in the collection of elements that can individualize users dangerous behaviors, internal or external, or system events that may compromise the acceptable use of computing resources or the breakdown of the triad of information security: confidentiality, integrity and availability. It´s noticed that, in the security policy model, adopted in the operation centers (datacenters) at the Federal Institutes of Education, in their vast majority, they do not use the log server resource, or only they attend the record of events, in their systems and hosts, individually and without the context of centralization and processing of event logs. The collection of logs, in the host-based mode, stores in a single repository, the event logs of various systems, equipment and network services, which will allow an analysis of the amount of logs acquired, the possibility of generating user behavior trails and, the crossing of information related to user authentication. The resource for communication between applications, operating systems and network equipment, informing the events to be registered is the Syslog protocol (system log), it’s a standard created by the IETF, for the transmission of log messages in IP networks. The main goal of this work is to establish a model for the analysis and audit of logs, in order to identify actions of users in a network with authentication server, applying the extraction of useful information to the Security Management, element this led to execution through the use of scripts in the PS1 (Windows PowerShell) format, by acting on the Security Event log files (Security.evtx) and generating reports of events related to the authentication service (Active Directory). Note that the functions implemented by the scripts are not made available natively by Windows systems, and that the tooling developed is of great value to the daily activities of the Network Manager, and it is concluded that this research presents a log analysis model for event log audit.
63

Detecção da utilização do mecanismo de Canvas Fingerprinting

STELLO JUNIOR, Edgar José 25 April 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-14T21:47:07Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Edgar José Stello Junior.pdf: 5209414 bytes, checksum: 90e4ceb8fa4aeaac570f9af91addab87 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-18T15:57:44Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Edgar José Stello Junior.pdf: 5209414 bytes, checksum: 90e4ceb8fa4aeaac570f9af91addab87 (MD5) / Made available in DSpace on 2018-09-18T15:57:44Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Edgar José Stello Junior.pdf: 5209414 bytes, checksum: 90e4ceb8fa4aeaac570f9af91addab87 (MD5) Previous issue date: 2017-04-25 / Vários sites coletam informações sobre os usuários/dispositivos, quando são acessados ou mesmo durante a navegação, muitas vezes sem o seu consentimento. Dentre as várias técnicas existentes, a que está em foco no trabalho utiliza o método de Canvas Fingerprinting para gerar uma identificação única do usuário/dispositivo, através da coleta de algumas informações e fazendo alguns processamentos disponibilizados através da linguagem HTML5. Desta forma, o usuário/dispositivo pode ser identificado nos próximos acessos e até mesmo informações sobre ele podem ser recuperadas se já foram coletadas anteriormente. Com isso, a pesquisa foi desenvolvida com o intuito de abordar uma forma de identificar e avisar ao usuário, que acessa um determinado site, se o mesmo está fazendo sua identificação utilizando o método de Canvas Fingerprinting. Nesta busca, o estudo identificou a existência da extensão para Firefox denominada Canvas Blocker que identifica e bloqueia a utilização do mecanismo de Canvas do HTML5. Devido à existência desta extensão, o trabalho a modificou para detectar a utilização específica do mecanismo de Canvas Fingerprinting e alertar o usuário sobre essa utilização. Para isso, foi utilizada uma metodologia de detectar Canvas Fingerprinting já presente na literatura e agregado a isso algumas sugestões para reduzir os falsos negativos e os falsos positivos encontrados durante os experimentos. Então, o algoritmo proposto foi aplicado em um conjunto de sites determinado, alguns dados foram coletados dessas visitas, posteriormente estes dados foram analisados e, por fim, apresentadas medições que comprovaram a eficiência da solução apresentada. / Several sites collect information about users/devices, when they are accessed or even while browsing, often without consent. Among the several techniques, one that is in focus in this work uses the Canvas Fingerprinting method to generate a unique identification of the user/device, through the collection of some information and making some processing available through the HTML5 language. In this way, the user/device can be identified in the next accesses and even information about him/it can be recovered if previously collected. Thereby, the research was developed with the intention of approaching a way to identify and warn the user, who accesses a certain site, if the site is making his identification using the method of Canvas Fingerprinting. In this search, the study identified the existence of a Firefox extension called Canvas Blocker that identifies and blocks the use of the HTML5 Canvas mechanism. Because of the existence of this extension, the work modified it to detect the specific use of Canvas Fingerprinting mechanism and to alert the user about this use. For this, a methodology already present in the literature was used to detect Canvas Fingerprinting and added some suggestions to reduce the false negatives and the false positives found during the experiments. Then, the proposed algorithm was applied in a given set of sites, some data were collected from these visits, later these data were analyzed and, finally, measurements were presented that proved the efficiency of the presented solution.
64

Experiências com variações prequential para avaliação da aprendizagem em fluxo de dados

HIDALGO, Juan Isidro González 04 August 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-14T22:46:46Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Juan Isidoro González Hidalgo.pdf: 962222 bytes, checksum: 65dbf92348fb2a3088992c3fe5c897f1 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-18T16:19:06Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Juan Isidoro González Hidalgo.pdf: 962222 bytes, checksum: 65dbf92348fb2a3088992c3fe5c897f1 (MD5) / Made available in DSpace on 2018-09-18T16:19:06Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Juan Isidoro González Hidalgo.pdf: 962222 bytes, checksum: 65dbf92348fb2a3088992c3fe5c897f1 (MD5) Previous issue date: 2017-08-04 / CAPES / Fluxo de dados (Data Stream) é uma sequência ordenada de instâncias que chegam a uma velocidade que não permite que sejam armazenadas permanentemente na memória. Tais dados são potencialmente ilimitados no tamanho, tornando-os impossíveis de serem processados pela maioria das abordagens tradicionais de mineração de dados. Estes acontecimentos impõem novas exigências aos algoritmos de aprendizagem devido às especificidades dos ambientes dinâmicos. A maioria deles aprende modelos de decisão que evoluem continuamente ao longo do tempo, tornando evidente que a não estacionaridade dificulta o processo de aprendizagem, onde ocorrem mudanças na distribuição de probabilidade dos dados – Mudança de Conceito (Concept Drift). Uma questão importante, ainda não convenientemente abordada, é o projeto de trabalho experimental para avaliar e comparar modelos de decisão que evoluem ao longo do tempo. A metodologia Prequential é uma abordagem utilizada para a avaliação de desempenho de classificadores em fluxos de dados com distribuições estacionárias e não estacionárias. Ela é baseada na premissa de que o objetivo da inferência estatística é fazer previsões de probabilidade sequencial para observações futuras, em vez de expressar informações sobre a acurácia passada alcançada. Este trabalho realiza uma avaliação empírica da metodologia abordada considerando as três estratégias utilizadas para atualizar o modelo de predição, a saber Basic Window (Janela Básica), Sliding Window (Janela Deslizante), e Fading Factors (Fator de Desvanecimento). Especificamente, procura-se identificar qual das variações é a mais adequada para a avaliação experimental dos resultados em cenários onde acontecem mudanças de conceitos, com maior interesse nas observações passadas dentro do fluxo total de dados. As métricas adotadas para a avaliação são acurácia Prequential dos enfoques e a acurácia real obtida no processo de aprendizagem de cada fluxo de dados. Os resultados dos experimentos realizados sugerem que a utilização de Prequential na variação Sliding Window seja a melhor alternativa. / A data stream is an ordered sequence of instances that arrive at a rate that does not allow them to be permanently stored in memory. Such data are potentially unlimited in size, rendering it impossible to be processed by most traditional data mining approaches. These events require new requirements of the learning algorithms due to the specifics of dynamic environments. Most of them learn decision models that evolve continuously over time, making it evident that non-stationarity hinders the learning process, where changes occur in the distribution of probability of the data (Concept Drift). An important issue, not yet adequately addressed, is the experimental work project to evaluate and compare decision models that evolve over time. The Prequential methodology is an approach used to evaluate the performance of classifiers in data streams with stationary and non-stationary distributions. It is based on the premise that the goal of statistical inference is to make sequential probability forecasts for future observations, instead of expressing information about the past predictions accuracy. This work makes an empirical evaluation of the methodology, considering the three strategies used to update the prediction model, namely Basic Window, Sliding Window, and Fading Factors. Specifically, it seeks to identify which of the variations is most appropriate for the experimental evaluation of the results in scenarios where concept drifts occur, with greater interest in the accuracy observed within the total data flow. The metrics adopted for the evaluation are Prequential accuracy of the approaches and the actual accuracy obtained in the learning process of each data stream. The results of the carried out experiments suggest that the use of Prequential in the variation Sliding Window is the best alternative.
65

Type-2 Fuzzy GMM para verificação de locutor independente de texto

VIEIRA, Sérgio Renan Ferreira 21 December 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-21T22:48:40Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Sérgio Renan Ferreira Vieira.pdf: 4693575 bytes, checksum: 045910fdcbeef40d698de798e70850ff (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-24T17:12:21Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Sérgio Renan Ferreira Vieira.pdf: 4693575 bytes, checksum: 045910fdcbeef40d698de798e70850ff (MD5) / Made available in DSpace on 2018-09-24T17:12:21Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Sérgio Renan Ferreira Vieira.pdf: 4693575 bytes, checksum: 045910fdcbeef40d698de798e70850ff (MD5) Previous issue date: 2016-12-21 / CNPq / Cada vez mais as corporações e instituições públicas desenvolvem aplicações móveis onde a segurança de autenticação é uma questão crítica. Sistemas biométricos são uma interessante abordagem, uma vez que usam características fisiológicas únicas de um indivíduo para autenticá-lo. A biometria de voz se destaca por não requerer o uso de transdutores adicionais em dispositivos móveis e por ter um modo de captura pouco incômodo para os usuários. Sistemas de autenticação que usam a voz de um usuário (locutor) sem levar em conta o que o mesmo diz são conhecidos como Sistemas de Verificação de Locutores Independente de Texto (SVLIT). Tais sistemas cadastram locuções para treinar o modelo de um locutor que será comparado posteriormente a uma locução de teste na autenticação. Os SVLIT, no entanto, estão sujeitos a operar com locuções de teste e treinamento capturadas em ambientes com níveis de ruído diferentes, aumentando a variabilidade intra-locutor e, consequentemente, diminuindo o desempenho. Esse tipo de discordância entre as locuções é conhecida como variabilidade de sessão. Este trabalho apresenta um novo SVLIT que lida com a variabilidade de sessão combinando o conhecido sistema de verificação GMM-UBM com a teoria de Conjuntos Nebulosos Tipo-2 (T2 FSs - Type-2 Fuzzy Sets) e uma metodologia de treinamento multicondicional. Consideramos que a variabilidade de sessão torna os parâmetros de um GMM incertos à medida que aumenta a discrepância entres os níveis de ruído de ambiente. Os T2 FSs e o GMM são combinados na abordagem conhecida como Type-2 Fuzzy GMM (T2 FGMM), utilizada em problemas de reconhecimento de padrão que usam GMMs cujos valores dos parâmetros são incertos dentro de um intervalo. Esse método, no entanto, exige o conhecimento prévio da amplitude do intervalo, ou seja, o grau de incerteza sobre os parâmetros. O SVLIT proposto utiliza o T2 FGMM realizando a estimação da incerteza. Para isso, foi utilizada uma metodologia de treinamento multicondicional com locuções ruidosas sintetizadas. Dessa maneira, o sistema é capaz de fazer a verificação sem conhecimento prévio do grau de ruído que as locuções de teste poderão ser expostas. Experimentos foram conduzidos com a base de dados MIT Device Speaker Recognition Corpus que é composta por locuções curtas (com uma média de 1,75 segundos de duração) gravadas através de um palmtop em três ambientes com níveis de ruído distintos: escritório silencioso, recepção de hotel e cruzamento de ruas ruidoso. O método proposto mostrou um ganho em Taxa de Erro Igual (EER - Equal Error Rate) de 24,11% comparado ao GMM-UBM, quando treinado com as locuções menos ruidosas e testado com as mais ruidosas. / Corporations and public institutes develop mobile applications where the security for authentication is a critical issue. Biometric systems are an interesting approach since it uses unique physiological characteristics of an individual for authenticating her/him. The voice biometry stands out because it does not need using special transducers in mobile devices and because it is not considered threatening to provide. Authentication systems that use utterances of an user regardless what she/he said are called Text-Independent Speaker Verification Systems (TISVSs). Such systems register speeches to train a speaker model which will be compared to a test utterance in the authentication. TISVSs, nevertheless, are subjected to operate using test and training speeches that were captured in environments under different noise levels, increasing the intra-speaker variability and, hence, decreasing the performance. This type of discrepancy is known as session variability. This work presents a new TISVS which deals with the session variability by combining the well-known GMM-UBM system with the theory of type-2 fuzzy sets (T2 FSs) and a multicondition methodology. We consider that the session variability makes uncertain the GMM parameters as increase the difference between the noise levels. The T2 FSs and GMM are combined in the approach known as type-2 fuzzy GMM (T2 FGMM), which is used in pattern recognition that use GMMs with uncertain parameters. This method however requires the previous knowledge of the interval range, i. e., the level of uncertainty under the parameters. The proposed TISVS uses the T2 FGMM performing the the uncertainty estimation. For this reason, it was used a multicondition model training using noisy synthesized utterances. Hence, the system is able to perform the verification without previous knowledge about the noise level the test utterances might be exposed. Experiments were conducted using the MIT Device Speaker Recognition Corpus. that is composed of short utterances (in average 1.75 minutes of duration) recorded by a hand-held device in three environments with different noise levels: a quiet office, a lobby, and a busy street intersection. The proposed method achieved a gain in the Equal Error Rate (EER) of 24.11% compared to the GMM-UBM, when it is trained using the lowest noisy speeches and tested with the noisiest speeches.
66

Módulo de resolução de conflitos de forma semiautomática em modelo Or-BAC

SOUZA, Janderson Silva de 13 June 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-10-05T19:43:53Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Janderson Silva de Souza.pdf: 4857522 bytes, checksum: d5bf546fb0cfb97dd15d1aaf748b6789 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-22T18:26:23Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Janderson Silva de Souza.pdf: 4857522 bytes, checksum: d5bf546fb0cfb97dd15d1aaf748b6789 (MD5) / Made available in DSpace on 2018-11-22T18:26:23Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Janderson Silva de Souza.pdf: 4857522 bytes, checksum: d5bf546fb0cfb97dd15d1aaf748b6789 (MD5) Previous issue date: 2017-06-13 / SETEC / A especificação de diretivas de segurança em um Modelo de Controle de Acesso que inclui permissões e proibições algumas vezes pode ocasionar conflitos. Isso corresponde a uma situação em que um sujeito tem a permissão e proibição (ambos) para executar uma determinada ação e um determinado objeto. Esse tipo de problema pode afetar profundamente a estabilidade do modelo, pois suas exigências de segurança são primordiais para o bom funcionamento dos sistemas que dependem dele. Como principal contribuição, este trabalho faz uma abordagem comparativa entre alguns modelos existentes e suas tratativas e propõe um método de resolução desses conflitos de uma forma semiautomática, no entanto, poderá ocorrer situações em que será necessária a intervenção do administrador para uma tomada de decisão mais complexa. O Organization Based Access Control (Or-BAC) foi selecionado por se tratar de um modelo base para outros modelos derivados. Este modelo é dotado de mecanismo de herança, o que permite que regras redundantes e potenciais conflitos sejam tratados em tempo polinomial. Além disso, o modelo possui uma ferramenta de apoio para simulação de aplicação de regras chamada MotOrBAC, o qual fornece as interfaces necessárias para a implementação do módulo de resolução de conflitos. / Specifying security policies in an Access Control Model that includes permissions and prohibitions may have conflicts. This corresponds to a situation in which a subject has the both permission and prohibition to execute a certain action and a certain object. This type of problem can profoundly affect the stability of the model because its security requirements are paramount for the proper functioning of the systems that depend on it. As a main contribution, this thesis makes a comparative approach between some existing models and their dealings also proposes a method of solving these conflicts in a semiautomatic way, however, there may be situations in which the intervention of the administrator will be necessary for a more complex decision making. The Or-BAC was selected because it is a base model for other derived models. This model is endowed with an inheritance mechanism, which allows redundant rules and potential conflicts to be treated in polynomial time. In addition, the model has a support tool for simulation of rule application called MotOrBAC, which provides the necessary interfaces for the implementation of the conflict resolution module.
67

Lei de acesso a informação: um estudo de caso nas instituições federais de ensino superior em Sergipe

SANTOS, Robert Mercenas 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-10-05T22:24:30Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Robert Mercenas Santos.pdf: 2072058 bytes, checksum: c3bac58740bc1de14ffae6a83f813752 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-22T18:49:45Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Robert Mercenas Santos.pdf: 2072058 bytes, checksum: c3bac58740bc1de14ffae6a83f813752 (MD5) / Made available in DSpace on 2018-11-22T18:49:45Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Robert Mercenas Santos.pdf: 2072058 bytes, checksum: c3bac58740bc1de14ffae6a83f813752 (MD5) Previous issue date: 2017-02-22 / Esta pesquisa objetivou estudar o contexto de atendimento a LAI nas IFES no estado de Sergipe, procurando identificar as características das ações voltadas para o atendimento da Lei, bem como os fatores relevantes que levaram à definição de tais ações como suficientes para tal fim. Com base na literatura disponível, este estudo buscou, mais especificamente, contextualizar as especificidades de cada requisito demandado na LAI dentro de cada instituição. A pesquisa foi realizada nas duas entidades federais de ensino superior no estado de Sergipe. A pesquisa buscou fazer um contraponto entre a realidade existente nestas instituições, as limitações que as mesmas tem em atender determinados requisitos da LAI e a realidade nacional. Os resultados da pesquisa mostraram que a inexistência de um modelo padrão para implantação da LAI nas instituições, algumas fragilidades nos mecanismos de controle, tais como o e-SIC, propostos pelo CGU, a falta de recursos financeiros específicos para este fim e a falta de uma política concreta de treinamento sobre o assuntos são fatores que contribuem diretamente para os baixos índices de adesão a LAI tanto nas instituições estudadas ebm como no contexto nacional. / This research aimed to study the context of service to LAI in the IFES in the state of Sergipe, seeking to identify the characteristics of actions aimed at complying with the Law, as well as the relevant factors that led to the definition of such actions as sufficient to that end. Based on the available literature, this study sought, more specifically, to contextualize the specificities of each requirement demanded in the LAI within each institution. The research was carried out in the two federal entities of higher education in the state of Sergipe. The research sought to make a counterpoint between the reality existing in these institutions, the limitations to meet certain requirements of LAI and the national reality. The results of the research showed that the lack of a standard model for LAI implantation in the institutions, some weaknesses in the control mechanisms, such as the e-SIC, proposed by the CGU, the lack of specific financial resources for this purpose and the lack of a concrete policy of training on subjects are factors that contribute directly to the low
68

Metrologia da captura e reprodução de rastros de sistemas de arquivos.

SILVA, Thiago Emmanuel Pereira da Cunha. 05 June 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-06-05T15:36:39Z No. of bitstreams: 1 THIAGO EMMANUEL VILAR BRASILEIRO - TESE - (PPGCC) 2016.pdf: 4581545 bytes, checksum: bca17a41fcfd85cd0130309b6e14f024 (MD5) / Made available in DSpace on 2018-06-05T15:36:39Z (GMT). No. of bitstreams: 1 THIAGO EMMANUEL VILAR BRASILEIRO - TESE - (PPGCC) 2016.pdf: 4581545 bytes, checksum: bca17a41fcfd85cd0130309b6e14f024 (MD5) Previous issue date: 2016 / Métodos para avaliação de desempenho têm, por por muitos anos, apoiado a adoção, desenvolvimento e operação de sistemas de arquivos. Em particular, a reprodução de rastros de utilização é um método bastante popular. Apesar de sua popularidade, alguns trabalhos produzidos recentemente contestam — embora sem comprovação empírica — a qualidade dos resultados obtidos com esse método. Em nossa opinião,este ceticismo se deve, em larga medida, à falta de métodos suficientemente embasados para detectar e quantificar os erros das medições baseadas em reproduções de rastros. Uma vez que não sabemos como diagnosticar o problema, é provável que novos trabalhos adotem métodos de reprodução inadequados ou criem novos métodos sem preocupações metodológicas mais amplas. Em outras palavras, estamos fadados a repetir os erros anteriores ou introduzir novos erros. Nossa tese é que podemos usar metrologia — a ciência de obter boas estimativas para medições conduzidas por meio de instrumentos de medição imperfeitos — para melhorar a qualidade da avaliação de desempenho de sistemas de arquivos baseada em rastros. Neste documento, desenvolvemos esta tese por meio de duas provas de conceito. A primeira considera métodos de captura de rastros, enquanto a segunda considera métodos de reprodução de rastros. Em ambas, consideramos ferramentas populares descritas na literatura. Na primeira prova de conceito, ao aplicar o protocolo de metrologia, descobrimos fontes de erro que tornam as medições de captura de rastros bastante tendenciosas, embora precisas. Nós também mostramos como compensar as fontes de erro por meio de um processo de calibração — prática ausente na literatura. Ainda, descobrimos que os métodos de captura são sensíveis ao efeitos de cargas de fundo, as quais, quando não identificadas, podem comprometer o processo de calibração. Na segunda, o protocolo de metrologia também nos permitiu observar fontes de erros que enfraquecem a qualidade das medições de reprodução. Embora o procedimento de calibração não seja aplicável na segunda prova de conceito, nossos resultados apontaram limitações nas ferramentas de reprodução que quando reconsideradas, permitiram a melhoria na qualidade dos métodos considerados.
69

Uma técnica para compilar sistemas configuráveis com #ifdefs baseada no impacto da mudança.

BRASILEIRO, Larissa Nadja Braz. 18 May 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-05-18T12:28:38Z No. of bitstreams: 1 LARISSA NADJA BRAZ BRASILEIRO - DISSERTAÇÃO (PPGCC) 2016.pdf: 4032685 bytes, checksum: a8e913ea098aadcbf3418b4a1743ddc4 (MD5) / Made available in DSpace on 2018-05-18T12:28:38Z (GMT). No. of bitstreams: 1 LARISSA NADJA BRAZ BRASILEIRO - DISSERTAÇÃO (PPGCC) 2016.pdf: 4032685 bytes, checksum: a8e913ea098aadcbf3418b4a1743ddc4 (MD5) Previous issue date: 2016 / Capes / Sistemas configuráveis tipicamente usam #ifdefs para denotar variabilidade. Gerar e compilar todas as configurações de um sistema pode consumir tempo. Uma alternativa consiste em usar analisadores sintáticos conscientes de variabilidade, como TypeChef. Porém, eles podem não escalar. Na prática, desenvolvedores podem utilizar estratégias de amostragem (sampling) para compilar apenas um subconjunto das configurações. Este trabalho propõe uma técnica para compilar sistemas configuráveis com #ifdefs baseada no impacto da mudança através da análise apenas das configurações impactadas por uma mudança de código. A técnica foi implementada em uma ferramenta chamada CHECKCONFIGMX, que reporta os novos erros de compilação introduzidos pela transformação. Um estudo empírico foi realizado para avaliar 3,913 transformações aplicadas aos 14 maiores arquivos dos sistemas configuráveis BusyBox, Apache HTTPD, e Expat. CHECKCONFIGMX encontrou 595 erros de compilação de 20 tipos introduzidos por 41 desenvolvedores em 214 commits (5.46% das transformações analisadas). No estudo realizado, a ferramenta reduziu ao menos 50% (uma média de 99%) o número de configurações compiladas em comparação à abordagem exaustiva, sem considerar feature models. CHECKCONFIGMX pode ajudar os desenvolvedores a reduzir o esforço de avaliar transformações de granularidade fina aplicadas a sistemas configuráveis com #ifdefs. / Configurable systems typically use #ifdefs to denote variability. Generating and compiling all configurations may be time-consuming. An alternative consists of using variability aware parsers, such as TypeChef. However, they may not scale. In practice, developers can use sampling strategies to compile only a subset of the configurations. We propose a change-centric approach to compile configurable systems with #ifdefs by analyzing only configurations impacted by a code change. We implement it in a tool called CHECKCONFIGMX, which reports the new compilation errors introduced by the transformation. We perform an empirical study to evaluate 3,913 transformations applied to the 14 largest files of BusyBox, Apache HTTPD, and Expat configurable systems. CHECKCONFIGMX finds 595 compilation errors of 20 types introduced by 41 developers in 214 commits (5.46% of the analyzed transformations). In our study, it reduces at least 50% (an average of 99%) the number of compiled configurations by comparing with the exhaustive approach without considering a feature model. CHECKCONFIGMX may help developers to reduce compilation effort to evaluate fine-grained transformations applied to configurable systems with #ifdefs.
70

Fiscalização da neutralidade da rede e seu impacto na evolução da internet

Setenareski, Ligia Eliana January 2017 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Coorientadora : Profa. Dra. Leticia Mara Peres / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 15/12/2017 / Inclui referências : f. 174-202 / Área de concentração : Ciência da computação / Resumo: Desde 2002 temos presenciado um longo e controverso debate mundial sobre a Neutralidade da Rede, tema que envolve aspectos políticos, legais, econômicos, sociais, éticos, técnicos e de competitividade e inovação. A diversidade de aspectos considerados em torno deste tema leva a pontos de convergência e de divergência de opiniões, de acordo com os interesses dos agentes envolvidos. A Neutralidade da Rede refere-se à Internet aberta, na qual os usuários podem transitar de acordo com a sua liberdade de escolha. Em linhas gerais, a Neutralidade da Rede significa que os provedores de Internet, denominados ISPs (Internet Service Providers) não podem bloquear, estrangular, ou priorizar o conteúdo que trafega em suas redes. E, ainda, a Neutralidade da Rede significa que o ISP só pode cobrar do usuário final uma única vez pelo acesso à sua rede, e não pode cobrar dos provedores de conteúdo pelo conteúdo que trafega na sua rede. Nesta mesma senda, encontra-se o problema da violação ou da quebra da Neutralidade da Rede. Em traços largos, pode-se afirmar que ao longo deste tempo em que perdura o debate, os ISPs têm apresentado as mais diversas formas de violar a Neutralidade da Rede. Estas violações são detectadas e relatadas por usuários finais, ou por organizações, ou por membros da comunidade técnico-científica. Esta comunidade tem criado e utilizado mecanismos computacionais para monitorar o tráfego da Internet. Estes mecanismos computacionais têm por finalidade detectar alguma violação ou inconformidade com os preceitos da Neutralidade da Rede. Dentre as violações efetuadas pelos ISPs encontram-se os bloqueios de acesso a conteúdos, aplicações e portas; o estrangulamento e a diferenciação de tráfego; a velocidade ofertada abaixo da velocidade mínima contratada; a degradação do desempenho da rede; a oferta do serviço chamado de taxa zero, que discrimina e prioriza o tráfego; além de outras. Os ISPs, notadamente opositores à Neutralidade da Rede, continuam exercendo pressão junto às agências reguladoras e junto a políticos, a fim de impedir, retardar ou, até mesmo, modificar normatizações já instituídas. Isto comprova a permanência do debate, sem qualquer demonstração de previsão temporal em curto prazo para solucioná-lo. Como resultado de pesquisa, esta tese contribui para os avanços na área com a descrição de esforços mundiais de normatização bem como com o relato de diversos estudos de caso de violações nos cinco continentes. Esta tese também descreve ferramentas e estratégias desenvolvidas para detectar algum tipo de violação à Neutralidade da Rede. Além disso, é apresentado um estudo preliminar sobre uma possível correlação entre a regulação da Neutralidade da Rede e a evolução da infraestrutura da Internet no mundo. E, ainda, com o objetivo de contribuir de forma específica com o avanço deste tema no Brasil, apresenta um panorama dos agentes envolvidos neste contexto e o papel de cada um. E, finalmente, foi criado o Observatório da Neutralidade da Rede como uma ferramenta de controle social, para todos os aspectos inerentes à Neutralidade da Rede, a ser utilizada pela sociedade brasileira. Palavras-chave: Detecção de Violação à Neutralidade da Rede; Regulação da Neutralidade da Rede; Observatório de Neutralidade da Rede; Ferramentas computacionais para a Neutralidade da Rede. / Abstract: Since 2002 we have witnessed a long and controversial debate around Net Neutrality, a subject that encompasses multiple aspects, not only technical but also political, legal, economic, social, ethical, and also those related to competitiveness and innovation. The diversity of aspects around this subject raises opinions that both converge and diverge, according to the interests of the parts involved. Net Neutrality refers to an Open Internet that does not restrict users, enforcing their free choice. According to Net Neutrality principles, Internet Service Providers (ISP) cannot block, throttle or create fast tracks for any kind of pick traffic on their network. Furthermore, Net Neutrality means that an ISP is only allowed to charge end users once for the access to its network, and cannot charge content providers for making their content available. The Net Neutrality debate involves not only what is required/wanted but also the issue of Net Neutrality violations. It is possible to say that since the debate has started, ISPs have been shown to violate multiple Net Neutrality principles. Violations have been detected and reported by end users, or by organizations or by the technical community. This community has also devised strategies to monitor Internet traffic with the purpose of detecting violations or any type of non-compliance with the basic Net Neutrality principles. The ISP violations that have been reported include: blocking access to specific content, applications or ports; throttling and traffic discrimination; offering a network speed that is lower than the minimum speed agreed with the user; delivering low network performance; offering zero-rate services which discriminate and prioritize the traffic; among many others. ISPs, notably Net Neutrality opponents, continue to exert pressure on regulators and politicians to prevent, delay or even modify existing regulations. This proves that the debate has continued, without any hint that it will be solved in the short term. One of the contributions of this thesis is a comprehensive description of global regulatory efforts including several case studies of Net Neutrality violations that have occurred across the five continents. This thesis also presents a comprehensive survey of tools and strategies developed to detect Net Neutrality violations. In addition, a preliminary study is presented on a possible correlation between the establishment of Net Neutrality regulations and the evolution of the Internet infrastructure worldwide. Another contribution that has the specific purpose of contributing to the advancement of this theme in Brazil is the description of the agents involved in enforcing Net Neutrality in the country. Finally, the Network Neutrality Observatory was created as a tool that can enable social control of all the aspects inherent to Network Neutrality in Brazil. Keywords: Detection of Net Neutrality violations; Net Neutrality Regulations; Net Neutrality Observatory; Net Neutrality Tools.

Page generated in 0.2724 seconds