• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 59
  • 1
  • Tagged with
  • 356
  • 192
  • 159
  • 115
  • 99
  • 34
  • 30
  • 29
  • 28
  • 28
  • 28
  • 27
  • 26
  • 26
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

[en] WHAT IS GLOBAL IN THE CLIMATE THREAT?: CARTOGRAPHIC ANALYSIS OF THE CLIMATE-SECURITY NEXUS / [pt] O QUE HÁ DE GLOBAL NA AMEAÇA CLIMÁTICA?: ANÁLISE CARTOGRÁFICA DO NEXO SEGURANÇA E CLIMA

BRUNO EDUARDO PORTELA BORGES DE MAGALHAES 11 August 2010 (has links)
[pt] A dissertação reconstrói o plano social formado em torno do debate público sobre os impactos de segurança das mudanças climáticas. Emprega para tanto o método de mapeamento de controvérsias desenvolvido por Pierre Bourdieu, que consiste no posicionamento dos agentes envolvidos no debate em um plano cartesiano, simbolizando as distâncias sociais entre os mesmos. Neste plano se cruzam um eixo horizontal, no qual os agentes são posicionados em função da caracterização que oferecem da ameaça climática (ênfase em segurança humana x ênfase em segurança geopolítica e militar), e um eixo vertical, no qual as coordenadas dos agentes são definidas a partir do tipo de medidas que advogam para o enfrentamento dos impactos de segurança do fenômeno (adaptação preventiva x adaptação reativa). Cruzando as tomadas de posição dos agentes nestes dois eixos, a pesquisa se propõe a avaliar a compatibilidade entre os resultados encontrados e os argumentos de Ulrich Beck, Didier Bigo, Jef Huysmans, Claudia Aradau e Rens Van Munster acerca dos impactos políticos do novo tipo de risco incomensurável que o fenômeno representa. Discute-se, em específico, a tese que associa a securitização das mudanças climáticas à transição de um modelo comunitarista de organização do sistema internacional rumo a um modelo centrado em um senso de pertencimento global. A dissertação tem como ambição, portanto, analisar os efeitos que as diferentes concepções de segurança climática vêm exercendo sobre a compreensão espaço-temporal moderna. Como conclusão, captura uma inclinação do debate em favor de uma concepção do global entendida como troca entre unidades particulares e uma predileção dos agentes por práticas de gerenciamento de risco. / [en] The dissertation maps the social space created around the public discussion concerning the security impacts of climate change. Pierre Bourdieu’s method of controversy mapping was applied, which consisted in positioning the agents involved in the debate on a Cartesian plane, symbolizing the social distances between them. The social map is formed by the intersection of two axes: first, the horizontal axis, in which actors are positioned according to how they frame the climate threat (emphasis on human security x emphasis on geopolitical and military security). Second, a vertical axis, in which agents are located according to the type of measures they advocate to deal with the security impacts of the phenomenon (preventive adaptation x reactive adaptation). By crossing agents’ positions in these two axes, the research tried to evaluate the consistency between its results and the arguments of Ulrich Beck, Didier Bigo, Jef Huysmans, Claudia Aradau and Rens van Munster concerning the political impacts of the new kind of unmanageable risk climate change represents. The dissertation evaluates, in particular, the hypothesis linking the securitization of climate change with the transcendence move from a communitarian international system towards a model based on a global sense of belonging. The research aimed, therefore, to analyze the effects that the different conceptions of climate security are having upon the modern understanding of space and time. As a conclusion, the dissertation identified an inclination among the analyzed agents towards a conception of the global understood as an exchange between well delineated particulars and a propensity towards practices of risk management.
182

Implementando segurança e controle em redes de computadores / Implementing security and control in computer networks

Bertholdo, Leandro Márcio January 1997 (has links)
O crescimento e proliferação da Internet nos últimos anos tem trazido à tona vários problemas relativos à segurança e operacionabilidade das máquinas de universidades e empresas. Inúmeras invasões são realizadas anualmente. Entretanto, a grande maioria delas não possui registro algum, sendo muitas vezes de total desconhecimento do administrador local. Para prover soluções para estes problemas foi realizado um estudo, aqui apresentado, que tem como principal objetivo propor uma filosofia de gerência de segurança. São utilizados para isso conceitos de gerenciamento de redes como SNMPv2, aliado à implementação de um conjunto de ferramentas que garantam a integridade dos vários sistemas envolvidos. O resultado foi um sistema denominado CUCO1, que alerta sobre tentativas de ataque e situações de risco. CUCO foi projetado para permitir a um administrador, protegido ou não por uma firewall, dispor de um controle maior e melhor sobre acessos e tentativas de acessos indevidos à sua rede. O sistema usa uma estratégia de monitoração de eventos em diferentes níveis e aplicações, tentando com isto detectar e alertar a ocorrência de ataques tradicionais. Também está incorporado um bloco de funções que visam identificar um agressor situado em algum lugar da Internet, e obter maiores informações sobre ele e o domínio onde esta localizado. / The Internet increase and proliferation in the last years has brought a lot of problems related to the security and handling of hosts in universities and corporations. Many break-ins are done each year, without any record or knowledge by the site’s administrator. To give solutions to this problems was made up a study, here presented, has as the main goal the proposal of a security management philosophy. Are used network management concepts, joined with a toolkit to ensure the integrity of many systems envolved. The result was a system named CUCO2, that alerts about attacks and risks situations. CUCO was designed to allow an administrator, protected or not by firewall, to have a bigger and better access control in his network. The system uses an event monitor strategy in different levels and applications, trying to detect and alert the occurrence of common attacks. Moreover, it is also incorporated by a set of functions that attempt to identify aggressor’s location in any place in the Internet, and get information about him and the domain where he is located.
183

ChangeLedge : change design and planning in networked systems based on reuse of knowledge and automation / ChangeLedge: projeto e planejamento de mudanças em sistemas de rede com base no reuso de conhecimento e automação

Cordeiro, Weverton Luis da Costa January 2009 (has links)
A gerência adequada de recursos e serviços de Tecnologia da Informação (TI) se tornou imperativa para o sucesso de organizações modernas. A Biblioteca de Infraestrutura de Tecnologia da Informação (Information Technology Infrastructure Library, ITIL) representa, nesse contexto, o framework mais popular para ajudar a alcançar esse fim. Para lidar com mudanças em TI, a ITIL define o processo de gerência de mudanças (change management), cujo principal objetivo é garantir que métodos e procedimentos padronizados são utilizados para o tratamento imediato e eficiente dessas mudanças. Para alcançar esse objetivo, é fundamental reutilizar a experiência adquirida com mudanças passadas no projeto de requisições futuras. A ITIL sugere o uso de modelos de mudanças (change models) como uma forma para permitir o reuso de tal experiência em mudanças recorrentes e similares. A criação de modelos de mudanças pode ser concretizada considerando duas abordagens distintas. Em uma abordagem top-down, operadores de TI podem projetar os modelos manualmente, com base no conhecimento adquirido no passado. Em uma perspectiva alternativa, bottom-up, esses modelos poderiam ser extraídos a partir de traços de mudanças passadas obtidos com orquestradores de mudanças. Na prática, no entanto, mudanças tem sido geralmente descritas e documentadas de forma ad hoc, devido `a falta de mecanismos adequados para apoiar o projeto das mesmas. Isso impede que o conhecimento adquirido na especificação, planejamento e condução de mudanças passadas seja reutilizado em requisições futuras. Para abordar esse problema, nesta dissertação são propostos (i ) o conceito de templates de mudança como um mecanismo para formalizar, preservar, e (re)usar conhecimento na especificação de mudanças recorrentes e similares, (ii ) um algoritmo para o refinamento automatizado de planos de mudanças em workflows executáveis, (iii ) um mecanismo para extrair templates de mudanças a partir de traços de execuções passadas, e (iv) uma solução fim-a-fim, apoiada por um sistema real, para permitir o planejamento e implantação de mudanças em TI. Para provar conceito e viabilidade técnica da solução proposta, foi realizada uma implementação prototípica de um sistema de gerência de mudanças chamado ChangeLedge, o qual foi utilizado para conduzir uma série de experimentos considerando mudanças típicas em TI. Os resultados alcançados indicam a efetividade da solução e eficiência do sistema, o qual é capaz de gerar planos de mudança executáveis e corretos em um período de tempo substancialmente menor que o que seria gasto por um operador humano experiente, e de extrair templates que descrevem com acurácia mudanças passadas executadas na organização. / Proper management of Information Technology (IT) resources and services has become imperative for the success of modern organizations. The IT Infrastructure Library (ITIL) represents, in this context, the most widely accepted framework to help achieve this end. In order to deal with IT changes, ITIL defines the change management process, whose main goal is to ensure that standardized methods and procedures are used for the efficient and prompt handling of these changes. To meet this goal, it is of paramount importance reusing the experience acquired from previous changes in the design of subsequent ones. ITIL suggests the use of change models as a mean of enabling the reuse of such experience across recorrent, similar changes. The creation of change models can be done considering two distinct approaches. In a top-down approach, IT operators may manually design models based on the knowledge owned/acquired in the past. In contrast, in a bottom-up perspective, these models could be discovered from past execution traces gathered from IT provisioning tools. In practice, however, changes have been usually described and documented in an ad hoc fashion, due to the lack of proper mechanisms to both support the change design process. This hampers knowledge acquired when specifying, planning, and carrying out previous changes to be reused in subsequent requests. To address this problem, in this thesis we propose (i ) the concept of change templates as a mechanism to formalize, preserve, and (re)use knowledge in the specification of (recurrent and similar) IT changes, (ii ) an algorithm for the automated refinement of change plans into actionable workflows, (iii ) a mechanism to discover change templates from traces of past changes, and (iv) an end-to-end solution, supported by a real system, to allow planning and implementation of IT changes to be designed and executed. To prove concept and technical feasibility of the proposed solution, we have developed a prototypical implementation of a change management system called ChangeLedge and used it to carry out a set of experiments, considering typical IT changes. The results obtained indicate the effectiveness of the solution and efficiency of the system, which is able to generate accurate and actionable change plans in substantially less time than would be spent by a skilled human operator, and to extract templates that accurately describe IT change procedures previously executed in the organization.
184

Um algoritmo de criptografia de chave pública semanticamente seguro baseado em curvas elípticas / A semantically secure public key algorithm based on elliptic curves

Araujo Neto, Afonso Comba de January 2006 (has links)
Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema. / This dissertation presents the development of a new public key algorithm. This algorithm has two key features, which were taken to be a goal from the start. The first feature is that it is semantically secure. That means that no polynomially bounded adversary can extract any partial information about the plaintext from the ciphertext, not even decide if two different ciphertexts correspond to the same plaintext. The second feature of the algorithm is that it depends on only one security assumption: that it is computationally unfeasible to calculate the logarithm on the group formed by the points of a prime order elliptic curve. That is achieved by ensuring that all parts of the algorithm are reducible to that problem. Also, it is presented a way to extend the algorithm so that it the resists attacks of an active adversary, in special, against an adaptive chosen-ciphertext attack. In order to do that, and attain to the assumption that only the assumption of the logarithm is necessary, it is introduced a new hash function with strength based of the same problem.
185

Desenvolvimento e análise de desempenho de um 'packet/session filter' / Development and performance analysis of a packet/session filter

Spohn, Marco Aurelio January 1997 (has links)
A segurança em sistemas de computação é uma das áreas mais críticas nas ciências da informação. Freqüentemente se ouve falar em alguma "brecha" descoberta em algum sistema. Não importando quão grave seja o problema, já existe certa paranóia em relação a questões de segurança. Esses furos na segurança podem ser explorados de diversas maneiras: para obter benefícios financeiros indevidos, personificação maliciosa a custos de uma pretensa "brincadeira", perda de informações sigilosas, danos em arquivos do sistema, etc. Esses são alguns dos motivos porque se investe cada vez mais em segurança. Como se não bastasse, ainda existem os problemas relativos a legislação: por um lado, o governo pode vir a exigir que a segurança em sistemas de informação seja encarada como um problema federal e impor controle sobre tudo que seja utilizado nos mecanismos de proteção; por outro lado, outros podem reclamar a necessidade de privacidade e liberdade de escolha em problemas relativos a segurança. Os sistemas são, a medida que agregam mais recursos, muito complexos e extensos, propiciando um meio fértil para acúmulo de erros e conseqüentes problemas de segurança. A conectividade alterou a realidade da computação: as redes de computadores estão aí para provar. Entretanto, os sistemas em rede a medida que facilitam a realização de uma série de tarefas também apresentam vulnerabilidades. As redes públicas são um exemplo crítico, pois todas as informações passam por meios não confiáveis sujeitos a alteração ou utilização por terceiros. A Internet talvez represente um dos ambientes mais críticos a nível de segurança. Devido a sua abrangência e velocidade com que cresce, ela é um dos ambientes mais propícios a disseminação e exploração de "furos" de segurança. Existem, entretanto, um esforço constante em desenvolvimento de mecanismos para protegê-la. "Internet Firewalls", são um conjunto de mecanismos utilizados para formar uma barreira de segurança entre a rede interna e a Internet. isolando-a das principais ameaças. Os componentes básicos de um "firewall" são o "packet filter" e o "proxy server". Basicamente, o que esses componentes fazem é uma filtragem dos pacotes. 0 "packet filter", como o nome sugere, faz uma filtragem dos pacotes até o nível de transporte (UDP e TCP). 0 "proxy server" atua como um procurador entre o cliente e o servidor real realizando uma filtragem a nível de aplicação; portanto, é uma tarefa mais apurada. Cada um desses componentes básicos apresentam os seus benefícios à segurança da rede interna. Um dos problemas desses mecanismos, é que eles acarretam em um "overhead" ao sistema, degradando o desempenho. Um "packet filter" tem de ser suficientemente rápido para que não seja o gargalo do sistema. De fato, como é apresentado nesse trabalho, pode-se conseguir um filtro tão rápido quanto necessário. A filtragem dos pacotes é baseada nas regras de filtragem que são elaboradas segundo a política de segurança, a qual estabelece qual o tipo de tráfego que pode existir entre a rede interna e a Internet. Cada pacote que passa pelo filtro é comparado com as regras de filtragem na ordem em que elas foram especificadas pelo administrador. Dependendo do número de regras, e este é um fator relevante porque são em grande número os serviços utilizados na rede, o tempo médio de filtragem aumenta. Uma solução para melhorar o desempenho na filtragem, é realizar a filtragem dos pacotes por sessão ("session filter"). Nesse caso somente se consegue atender aos serviços baseados no TCP (que é orientado a conexão); entretanto, considerando que os serviços mais utilizados na rede são baseados no TCP esse é um mecanismo viável. Na filtragem por sessão apenas o pacote de solicitação de conexão é comparado com a lista de regras de filtragem. Os pacotes subsequentes são verificados junto a uma "cache" de sessões ativas. Caso o pacote pertença a alguma sessão válida ele é passado adiante; caso contrário, ele é descartado. O acesso a "cache" deve ser suficientemente rápido para justificar esse procedimento. Além do ganho em desempenho, o filtro de sessões apresenta a vantagem de monitoramento: todas as sessões ativas entre a rede interna e a Internet estão registradas na "cache". Esta dissertação apresenta o projeto e a implementação de um "Packet/session filter". O filtro foi implementado como um módulo do "kernel" do sistema operacional "FreeBSD". O filtro "ip_fw" disponível como "freeware" na referida plataforma, serviu como referência básica para o desenvolvimento do filtro proposto. O utilitário "ipfw", disponível para gerenciar o filtro de pacotes "ip_fw", foi adaptado para interagir com o filtro desenvolvido. Os testes de desempenho apresentam resultados esperados. Ou seja, o filtro de sessão melhora consideravelmente o processo de filtragem em relação a um filtro convencional. O recurso de monitoramento das sessões ativas também representa uma facilidade a mais no controle e obtenção de estatísticas para o "firewall". / Security in computer systems is one of the most critical areas in "information sciences". Often it is heard something about a new "hole" discovered in some system. No matter how important is such a problem, there is a "paranoia" regarding questions about security. These security holes could be explored in a diversity of ways: to obtain financial benefits, to impersonate somebody to spoofing, to obtain secret informations, to damage to file systems, etc. Those are some of the reasons because so much time and money are spent in security. There are also some problems concerning legislation: government can demand that security in information systems is a federal problem and it can lead to impose control over everything that is used in protection mechanisms; on the other hand, there is the question of privacy and freedom of choice concerning to security. By adding new resources to the systems, the complexity is increase and new bugs and security problems can arise. Connectivity has changed the computer reality: computer networks show that. However, network systems also present weak points. Public networks are a critical example because all information flow by untrusted medias subject to modification or misuse by outsiders. The Internet may be one of the most critical environments concerning security. Because the internet covers almost all the world and grows so fast, it's able to dissiminate "holes" in security. There is, however, a constant effort to develop new mechanisms to protect the Internet, Internet Firewalls are a set of mechanisms used to build a security barrier between the internal network and the internet, maintaining the internal network far away from the main threats. The basic components of a firewall are the packet filter and the proxy server. These two components basically do a packet screening. The "packet filter", as the name suggests, makes a packet filtering up to the transport layer (UDP and TCP). The Proxy Server acts like a proxy between the client and the real server, the proxy does a packet filtering at the application level; therefore, it's a refined task. Each one of these components present their own benefits to the internal network security. A problem of those mechanisms is that they bring an overhead to the system, slowing the performance. A packet filter must be fast enough, otherwise it'll be the bottleneck in the system. The present work slows that, it's possible to obtain a filter as fast as necessary. The packet filtering is based on the filter rules which are prepared following the security policy that establishes what kind of traffic can flow between the internal network and the Internet. Each packet that passes through the filter is compared with the filtering rules to check if it is in the sequence specified by the administrator. Depending on the number of rules, and this is an important issue because there is a great number of services available in the network, the filtering mean time increases. A solution to improve the filtering process is to make the packet filtering by session (session filter). In this case it's only possible to attend to TCP, based services (connection oriented); however, considering that the most used services in the internet are based on TCP this is a feasible mechanism. In the session filtering only the first packet is compared against the filtering rules. The next packets are verified against a session cache. If the packet refers to a valid session it's sent forward; otherwise, it's dropped. The access time to the cache must be fast enough in order to allow applying this procedure. Beyond the performance improvement the session filter presents the advantage of monitoring: all the active sessions are recorded in the "cache". This work presents the project and development of a "packet/session filter". The filter was developed as a kernel module of the operating system "FreeBSD". The filter "ip_fw" available as freeware served as a basic reference to the implementation of the filter here presented. The "ipfw" utility available to manage the "ipfw" packet filter was adapted to interact to the developed filter. The performance benchmark presents expected results. The session filter enhances the filtering process when compared to the conventional packet filter. The monitoring facility also represents an enhancement the control and statistics gathering.
186

Coherence in distributed packet filters

Penz, Leandro Lisboa January 2008 (has links)
Redes de computadores estão sob constante ameaça, ainda mais quando conectadas à Internet. Para reduzir o risco, dispositivos de segurança como o filtro de pacotes são usados. Uma primeira camada de segurança, o filtro de pacotes é responsável pelo bloqueio do tráfego indesejado em posições chave da rede. Os pacotes que devem ser permitidos ou bloqueados pelo filtro são definidos através de um conjunto de regras programadas pelo administrador da rede. Essas regras tem duas partes: a seleção e a ação. Conforme cresce a rede e o número de serviços, a quantidade de regras tende a aumentar. Passado certo limite, a complexidade de manter uma quantidade grande de regras se torna um fardo para o administrador. Isso aumenta a probabilidade de enganos que podem prejudicar a segurança da rede. Este trabalho desenvolve o conceito de “anomalia”, cada qual representa um problema em potencial, uma contradição ou uma regra supérflua dentro do conjunto de regras; ou seja, cada anomalia alerta o administrador da rede para determinada situação. Há 7 tipos de anomalias, que podem ser divididos em dois grupos: anomalias de filtro único e anomalias em rede. As anomalias de filtro único alertam o administrador sobre regras que se contradizem (“bloqueio”) ou que não possuem efeito no filtro (“invisibilidade” e “redundância”). As anomalias em rede, por sua vez, alertam o administrador sobre filtros que se contradizem (“discordância”), filtros que bloqueiam tráfego desejado (“bloqueio”), regras que não se aplicam a nenhum pacote que passe pelo filtro onde estão (“irrelevância”) e roteadores que permitem a passagem de tráfego indesejado (“vazamento”). Cada um desses tipos de anomalia é definido formalmente e apresentado junto com um algoritmo que a encontra. As anomalias e seus algoritmos foram usados para implementar uma ferramenta, o Packet Filter Checker (PFC), que lê as regras e a descrição da topologia da rede e cria um relatório com todas as anomalias presentes. Este trabalho apresenta um caso de uso fictício que é analisado e corrigido com base nos resultados apresentados pela ferramenta. O caso de uso é apresentado em diversas iterações, cada uma representando alterações nos requisitos da rede. Este caso mostra a ferramenta e os conceitos no contexto-alvo: na ajuda ao administrador da rede. / Computer networks are under constant threat, even more when connected to the Internet. To decrease the risk of invasions and downtime, security devices such as the packet filter are deployed. As a first layer of security, the packet filter is responsible for blocking out unwanted traffic at key network locations. The packets dropped or forwarded by the filter are defined by a set of rules programmed by the network administrator. These rules are in the form of guarded commands, each with a condition and a decision section. As the number of services and networks grow, the number of rules tend to grow as well. Beyond a certain threshold, the complexity of maintaining such a large and distributed set of rules becomes a burden for the network administrator. Mistakes can be easily made, compromising security. This work develops the concept of “anomaly”, each representing a potential problem, a contradiction or a superfluous rule in the rule set; i.e. a warning to the system administrator. There are 7 types of anomalies divided in two groups: single filter anomalies and networked anomalies. The single-filter anomalies warns the administrator about rules that contradict one another (the “conflict” anomaly) or have no effect (“invisibility” and “redundancy”) in the analysed filter. The networked anomalies, on the other hand, analyse the filters in the context of the network topology and warn the administrator about filters that contradict one another (“disagreement”), filters that block desired traffic (“blocking”), rules that have no effect on the given network topology (“irrelevancy”) and routers that are enabling unwanted traffic (“leaking”). Each type of anomaly is formally defined along with its algorithm. The developed concepts were used to implement a tool — the Packet Filter Checker (PFC) — that reads a description of the rules and network topology in a simple custom language and reports all anomalies present. This tool is used to analyse and fix a fictional user case in several iterations of changing requirements. This shows the tool and the anomalies in the target context: where they help the network administrator.
187

An effective approach for network management based on situation management and mashups

Rendon, Oscar Mauricio Caicedo January 2015 (has links)
The Situation Management discipline is intended to address situations happening or that might happen in dynamic systems. In this way, this discipline supports the provisioning of solutions that enable analyzing, correlating, and coordinating interactions among people, information, technologies, and actions targeted to overcome situations. Over recent years, the Situation Management has been employed in diverse domains ranging from disaster response to public health. Notwithstanding, up to now, it has not been used to deal with unexpected, dynamic, and heterogeneous situations that network administrators face in their daily work; in this thesis, these situations are referred to as network management situations. The mashup technology also allows creating solutions, named mashups, aimed to cope with situations. Mashups are composite Web applications built up by end-users through the combination of Web resources available along the Internet. These composite Web applications have been useful to manage situations in several domains ranging from telecommunication services to water floods. In particular, in the network management domain, the mashup technology has been used to accomplish specific tasks, such as botnet detection and the visualization of traffic of the border gateway protocol. In the network management domain, large research efforts have been made to automate and facilitate the management tasks. However, so far, none of these efforts has carried out network management by means of the Situation Management and the mashup technology. Thus, the goal of this thesis is to investigate the feasibility on using the Situation Management and mashups as an effective (in terms of complexity, consuming of time, traffic, and time of response) approach for network management. To achieve the raised goal, this thesis introduces an approach formed by mashments (special mashups devised for coping with network management situations), the Mashment Ecosystem, the process to develop and launch mashments, the Mashment System Architecture, and the Mashment Maker. An extensive analysis of the approach was conducted on networks based on the Software-Defined Networking paradigm and virtual nodes. The results of analysis have provided directions and evidences that corroborate the feasibility of using the Situation Management and mashups as an effective approach for network management.
188

Supporting feature model configuration based on multi-stakeholder preferences

Stein, Jacob January 2015 (has links)
Configuração modelo de features é conhecida por ser uma atividade complexa, demorada e propensa a erros. Esta atividade torna-se ainda mais complicada quando envolve múltiplas partes interessadas no processo de configuração. Trabalhos de pesquisa têm proposto abordagens para ajudar na configuração de modelo de features, mas elas dependem de processos sistemáticos que restringem as decisões de alguns dos stakeholders. Neste trabalho, propomos uma nova abordagem para melhorar o processo de configuração multi-stakeholder, considerando as preferências dos stakeholders expressas através de restrições duras e brandas. Com base em tais preferências, recomendamos diferentes configurações de produto utilizando diferentes estratégias da teoria da escolha social. Nossa abordagem é implementada em uma ferramenta chamada SACRES, que permite criar grupos de stakeholders, especificar preferências dos stakeholders sobre uma configuração e gerar as configurações ideais. Realizamos um estudo empírico para avaliar a eficácia de nossas estratégias no que diz respeito à satisfação individual e justiça entre todos os stakeholders. Os resultados obtidos provem evidência de que estratégias em particular possuem melhor performance em relação à satisfação de grupo, chamadas average e multiplicative considerando as pontuações atribuídas pelos participantes e complexidade computacional. Nossos resultados são relevantes não só no contexto de Linha de Produto de Software, mas também para a Teoria da Escolha Social, dada a instanciação de estratégias de escolha social em um problema prático. / Feature model con guration is known to be a hard, error-prone and timeconsuming activity. This activity gets even more complicated when it involves multiple stakeholders in the con guration process. Research work has proposed approaches to aid multi-stakeholder feature model con guration, but they rely on systematic processes that constraint decisions of some of the stakeholders. In this dissertation, we propose a novel approach to improve the multi-stakeholder con guration process, considering stakeholders' preferences expressed through both hard and soft constraints. Based on such preferences, we recommend di erent product con gurations using di erent strategies from the social choice theory. Our approach is implemented in a tool named SACRES, which allows creation of stakeholder groups, speci cation of stakeholder preferences over a con guration and generation of optimal con guration. We conducted an empirical study to evaluate the e ectiveness of our strategies with respect to individual stakeholder satisfaction and fairness among all stakeholders. The obtained results provide evidence that particular strategies perform best with respect to group satisfaction, namely average and multiplicative, considering the scores given by the participants and computational complexity. Our results are relevant not only in the context software product lines, but also in the context of social choice theory, given the instantiation of social choice strategies in a practical problem.
189

Entre silêncios e invisibilidades : os sujeitos em cumprimento de medidas de segurança nos manicômios judiciários brasileiros

Weigert, Mariana de Assis Brasil e January 2015 (has links)
Esta tese estuda o cumprimento das medidas de segurança no Brasil contemporâneo, a fim de compreender o impacto da Reforma Psiquiátrica e da Lei nacional 10.216/01 no campo dos considerados loucos criminosos. Para tanto, apresento a lógica periculosista voltada a esse grupo de sujeitos vulneráveis, examinando a maneira como ela se constitui e se mantém. Tendo como referencial teórico fundamentalmente as obras de Foucault e de Agamben, faço o mapeamento dos mecanismos atuantes no campo do considerado louco infrator que autorizam e legitimam as mais diversas violências contra os internos dos manicômios judiciários brasileiros. Esta tese, pois, centra-se nas seguintes questões: que mecanismos existem nos campos das práticas punitivas que anulam as conquistas realizadas no campo da saúde mental (Reforma Psiquiátrica)? Como as expressivas mudanças trazidas pela Lei 10.216/01 têm repercutido na forma de lidar com os loucos infratores? A partir da obra Os Anormais, de Foucault, discuto como ocorre a fusão entre as ciências jurídicas e psiquiátricas voltando-se a esse sujeito que não é nem considerado propriamente doente nem propriamente criminoso, mas um anormal. Para realizar tal objetivo, foram analisados materiais como: entrevista com Ernesto Venturini, anotações realizadas após visitas ao IPFMC de Porto Alegre, censo 2011 sobre hospitais psiquiátricos judiciários no país, Dados do Departamento Penitenciário Nacional (DEPEN), Parecer sobre Medidas de Segurança e Hospitais de Custódia e Tratamento Psiquiátrico sob a Perspectiva da Lei 10.216/01, elaborado pela Procuradoria Federal dos Direitos do Cidadão (PFDC) do Ministério Público Federal (MPF), Lei da Reforma Psiquiátrica brasileira (Lei 10.216/01) e Lei da Reforma Psiquiátrica italiana (Lei 180). Parte da investigação foi realizada na Universidade de Bologna, Itália, sob a coorientação do criminólogo Massimo Pavarini, para compreender de que maneira o país vem tratando o cumprimento das medidas de segurança e como a Reforma Psiquiátrica tem propugnado mudanças no tratamento do considerado louco infrator. Como resultado da tese aponto que a união entre ambos os campos do saber gera um terceiro discurso, algo distinto daquilo que sozinhas produzem as ciências jus e as ciências psi. Já que não há uma epistemologia própria, nas práticas voltadas a esses indivíduos não há uma limitação adequada, não há freios, porque também não há uma ciência definida, mas o entrelaçamento entre duas. E se é assim, o que ocorre é a legitimação de condutas violadoras de direitos que atuam sobre o considerado louco infrator, muitas vezes, de maneira inclusive letal. Pessoas amontoadas em manicômios judiciários, diferenciadas dos demais considerados loucos pelo fato de terem praticado um crime, e nas quais é possível incidir não porque a ciência médica ou jurídica simplesmente determine, mas porque a união desses saberes cria um discurso próprio voltado a um sujeito próprio chamado de anormal. / This thesis analyses the implementation of compulsory hospitalisation in Contemporary Brazil in order to understand the impact of the Psychiatric Reform and the National Law 10.216/01 on the considered insane offender field. Therefore, it presents the dangerous logic focusing on this group of vulnerable subjects, observing how it constitutes and maintains. Through the guidance of Foucault and Agamben’s works, it maps the mechanisms operating in the considered insane offender field, which authorize and legitimize the most diverse violence against inmates in Brazilian legal mental institutions. The central question of this thesis is, therefore, what are the existing mechanisms in the punitive practices field that nullify the achievements made in the mental health field (psychiatric reform)? How have the significant changes introduced by the Law 10.216/01 been reflecting in dealing with insane offenders? From Foucault’s Os Anormais book, I discuss how the merger between legal and psychiatric sciences occurs, focusing on this subject that is neither properly considered mentally ill nor strictly criminal, but an abnormal. To accomplish this objective, many resources were analysed, such as an interview with Ernesto Venturini; notes made after visits to IPFMC in Porto Alegre; the 2011 census on legal mental institutions in the country; data from the Departamento Penitenciário Nacional (DEPEN); researches on compulsory hospitalisation and Custody Hospitals and Psychiatric Treatment under the Law 10.216/01, carried out by the Federal Attorney for Citizens' Rights (PFDC) of the Federal Public Ministry (MPF), the Brazilian Psychiatric Law Reform (Law 10.216/01) and the Italian Psychiatric Law Reform (Act 180). Part of this research took place at the University of Bologna, Italy, under the co-direction of the criminologist Massimo Pavarini, in order to understand how the country has been dealing with the compliance of the compulsory hospitalisation and how the Psychiatric Reform has advocated changes in the considered insane offender treatment. As a result, this thesis states that the union between the two fields of knowledge generates a third stream/speech, something different from what the jus sciences and the psi sciences produce alone. Since there is not a specific epistemology, practices aimed at these individuals do not have a limitation; there are no brakes, because there is not a well-defined science, but a merge between those two. And, as consequence, what eventually occurs is the legitimation of conducts that violate rights, acting against the considered insane offender, often in lethal ways. People crowded in legal mental institutions, differed by the other so-called "crazy people" just by the fact of having committed a crime. The law is applied to them not by imposition of medical science or legal science, but because the union of these two fields creates its own discourse, which is addressed to a person considered abnormal.
190

Diagnóstico da segurança viária em áreas escolares : estudo de caso em Florianópolis-SC

Nascimento, Aline de Melo January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Civil, Florianópolis, 2014. / Made available in DSpace on 2015-02-05T21:05:25Z (GMT). No. of bitstreams: 1 328526.pdf: 14822689 bytes, checksum: a3d950d2167e767cd2348f15463c2a51 (MD5) Previous issue date: 2014 / Este trabalho apresenta um procedimento para o diagnóstico da segurança viária escolar que foi testado e avaliado em áreas escolares que se localizam em rodovias estaduais em Florianópolis - SC. Para tanto, primeiramente foi realizado uma caracterização in loco das escolas a serem estudadas, abordando a sua infraestrutura, condições de acesso e segurança viária, como equipamentos urbanos e de sinalização. As análises da caracterização da escola foram feitas de acordo com o check list, baseado em dois documentos: uma dissertação sobre a proposição de uma lista de verificação para revisão de segurança viária de rodovias (SCHOPF, 2006); e o Levantamento da Situação Escolar (LSE), que foi utilizado para o cadastramento da situação da infraestrutura física, do mobiliário, dos equipamentos, materiais didáticos e escolares, recursos humanos e acessibilidade das escolas da rede pública de ensino (FNDE, 2010). Nessa mesma visita às escolas, realizou-se uma entrevista com o(a) diretor(a), com objetivo de obter a sua perspectiva sobre a infraestrutura da escola e o seu entorno, visando a segurança viária. Em seguida, foi aplicado, para uma amostra dos alunos de cada escola, um questionário on-line, com o objetivo de identificar, principalmente, a origem das viagens feitas para a escola e o destino das viagens feitas da escola. Neste questionário, procurou-se identificar também o modo de transporte utilizado nas viagens. A etapa seguinte constituiu-se na análise de acidentes de trânsito no entorno das escolas estudadas. O banco de dados contendo os Boletins de Ocorrência de Acidentes de Trânsito (BOATÂ s) foi obtido com o Departamento Estadual de Infraestrutura de Santa Catarina (DEINFRA/SC). A partir da tabulação desses dados, foram analisadas a quantidade de acidentes entre os anos de 2008 a 2012, os tipos de acidentes, a quantidade e tipos de vítimas, os tipos de veículos envolvidos, a porcentagem de acidentes de trânsito sem vítimas e com feridos e o cálculo da taxa de severidade dos acidentes. Foi possível concluir que não existe uma padronização na segurança viária nas escolas estudadas e que em todas elas ocorreram atropelamentos e acidentes com bicicletas em seu entorno, os quais envolveram crianças e adolescentes. Esses acidentes ocorreram durante a semana entre os horários de entrada e saída das escolas.<br> / Abstract : This work presents a procedure for diagnosing road safety in school areas. This procedure has been tested and evaluated in schools that are located on state highways in the city of Florianópolis - SC. In order to accomplish this study, the first step was to perform a fieldwork in order to characterize the schools to be studied, addressing its infrastructure, access conditions and road safety. The checklist, which guided this analysis, was based on two documents: a dissertation that propose a checklist to review road safety (Schopf, 2006); and the Survey of School Situation ,(LSE), that focus on collecting data of the status of physical infrastructure, furniture, equipment, textbooks and school supplies, human resources and accessibility of the public schools (FNDE, 2010). Second, it was done an interview with the principal of each school, in order to gather their point of view of the school to road safety. Third, a sample of students in each school responded to an online questionnaire, which aimed to identify the origin and destinations of the trips made to and from the school and the mean of transportation used on these trips. The next step sought to analyze the traffic accidents in the surrounding area of the studied schools. The database containing the Police Reports was obtained with the Santa Catarina State Department of Infrastructure - DEINFRA / SC. Last, it was analyzed the number of traffic accidents over the years studied, the types of accidents, the number and types of victims, types of vehicles involved, percentage of traffic accidents without casualties and wounded, and the rate of the severity of traffic accidents. It was concluded that there are no pattern regarding road safety in school areas. Furthermore, in all of the school studied, there were traffic accidents with bicycles and pedestrians, in which involved children and adolescent. In addition, these accidents occurred on weekdays in the period when the students are either entering or leaving the school.

Page generated in 0.092 seconds