• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Detecção de comportamento anormal em vídeos de multidão

Gregoratto, Caio de Jesus 03 June 2016 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-11-24T13:42:19Z No. of bitstreams: 1 Dissertação - Caio de J. Gregoratto.pdf: 5988307 bytes, checksum: 4201ec14991adeddfa5abbf91b512489 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-11-24T13:42:34Z (GMT) No. of bitstreams: 1 Dissertação - Caio de J. Gregoratto.pdf: 5988307 bytes, checksum: 4201ec14991adeddfa5abbf91b512489 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-11-24T13:42:50Z (GMT) No. of bitstreams: 1 Dissertação - Caio de J. Gregoratto.pdf: 5988307 bytes, checksum: 4201ec14991adeddfa5abbf91b512489 (MD5) / Made available in DSpace on 2016-11-24T13:42:50Z (GMT). No. of bitstreams: 1 Dissertação - Caio de J. Gregoratto.pdf: 5988307 bytes, checksum: 4201ec14991adeddfa5abbf91b512489 (MD5) Previous issue date: 2016-06-03 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Security systems produce a massive amount of video material that can be used to recog-nize abnormal behavior or activities, which expose the people to life-threatening scenarios. However, human operators are not able to evaluate ali the material available in a consistent manner. So, the automatic recognition of video behavior can be crucial for the effective use of surveillance systems to maintain the security of an area or the integrity of people in pub-lic places. This work presents an method focused on the recognition of abnormal behavior in crowd videos. This method combines feature-based methods with appearance-based methods and use them according to the context of the scene. Appearance-based methods create modela based on the leveis of image intensity, while feature-based methods use data extracted from the image, such as edges, lines and coordinates, to generate their modela. The feature-based approach is generally used because it describes the scene in more de-tails, however it involves higher computational costa. The proposed method displays for the human operator only content with possible crowd agglomeration or dispersing, which are considered abnormal behaviors evaluated in this research. The displayed video receive visual marks to help the human operator to locate suspicious activities identified by the system. The resulta obtained during the experiments show that the proposed method is able to recognize abnormal behaviors in crowd videos and mark areas of the image where abnormalities as agglomeration or dispersion are detected. The proposed method, differ-ent from classical approaches available in the literature, makes assessments of the suspect acenes different from the assessment of the acenes with normal behavior or with only the background. As a consequence, experimental resulta show that the proposed method performs 64% faster than the baselines over a database created for Chis work, as well as 71% faster than baselines on UMN and PETS2009 databases. In addition, the proposed method achieves 90% of accuracy on the YAB database, otherwise the baseline method achieves 85% of accuracy. / Sistemas de segurança produzem uma quantidade massiva de material de vídeo que pode ser utilizada para reconhecer comportamento anormal ou atividades que ofereçam riscos à saúde das pessoas. Entretanto, nem sempre os operadores humanos são capazes de ava-liar de forma coerente todo o material disponível. Portanto, reconhecer comportamento em vídeo de forma automatizada pode ser fundamental para que o uso de sistemas de vigilância seja eficiente em manter a segurança de uma área ou a integridade das pes-soas em locais públicos. Diante disso, esta dissertação apresenta um método voltada para detectar e reconhecer comportamento anormal em vídeos de multidão. Esse método com-bina técnicas baseadas em características com técnicas baseadas na aparência e as utiliza conforme o contexto das atividades presentes na cena. Técnicas baseadas na aparência utilizam modelos matemáticos gerados a partir dos níveis de intensidade da imagem para realizar suas tarefas, enquanto que as técnicas baseadas em características usam dados extraídos da imagem, como bordas, linhas e coordenadas, para derivar seus modelos. O método proposto exibe para o operador humano, por meio de marcações visuais, somente conteúdo com possíveis ocorrências de aglomeração ou dispersão da multidão, compor-tamentos considerados anormais avaliados nesta pesquisa. Os resultados obtidos nos ex-perimentos mostram que a abordagem proposta é capaz de reconhecer comportamentos anormais em vídeos de multidão e marcar as regiões na imagem onde ocorrem anomalias do tipo aglomeração ou dispersão das pessoas na cena. O método proposto, diferente das demais abordagens existentes na literatura, faz avaliações distintas entre as cenas suspei-tas de conter comportamento anormal e as cenas com comportamento normal ou somente com a imagem de fundo. Como consequência, os resultados dos experimentos mostram que o método proposto apresenta tempo de execução 64% menor do que os baselines em uma base de dados criada neste trabalho e 71% menor nas bases de dados UMN e PETS2009. Além disso, o método proposto atinge uma acurácia de 90% na base de dados YAB, enquanto o baseline atinge 85%.
362

Heurísticas para o problema do caixeiro viajante com seleção de hotéis / Heuristics to the travelling salesperson problem with hotel selection

Sousa, Marques Moreira de 25 February 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2015-11-12T10:42:09Z No. of bitstreams: 1 texto completo.pdf: 1645681 bytes, checksum: eede2be161a471450d5d998d3d3f3ffe (MD5) / Made available in DSpace on 2015-11-12T10:42:09Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1645681 bytes, checksum: eede2be161a471450d5d998d3d3f3ffe (MD5) Previous issue date: 2015-02-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A otimização de percursos é de grande interesse para empresas que fornecem serviços relacionados com transporte, seja de pessoas ou de mercadorias, visto que podem levar a uma diminuição do tempo e do custo necessário para prestar um serviço e, consequentemente, elevar a lucratividade. Neste trabalho é abordado o Problema do Caixeiro Viajante com Seleção de Hotéis (PCVSH), uma variante do clássico Pro- blema do Caixeiro Viajante (PCV). No PCVSH, existe um limite de tempo imposto a uma jornada diária de trabalho. Desta forma, considerando que há um conjunto de clientes que precisam ser atendidos, há casos em que não é possível atender a todos em um mesmo dia. Levando em consideração esta restrição, é necessário es- colher hotéis, dentre um conjunto previamente fornecido, para que seja realizada a parada entre duas jornadas diárias consecutivas. O objetivo desta dissertação é apresentar, discutir e tratar o Problema do Caixeiro Viajante com Seleção de Hotéis aplicando heurísticas e comparando os resultados obtidos com aqueles disponíveis na literatura. Foram propostas três heurísticas, sendo duas baseadas em Algoritmo Memético (AM) e outra baseada na metaheurística Iterated Greedy (IG), além de um modelo de Programação Linear Inteira alternativo ao existente na literatura. / The optimization of routes is of great interest to companies that provide services related to transportation, being of peoples or goods, as they can lead to a decrease in the time and cost required to provide a service, and consequently to a raise in profitability. In this work we deal with the Travelling Salesperson Problem with Hotel Selection (PCVSH), a variant of the classic Travelling Salesperson Problem (TSP). In PCVSH there is a limit of time imposed to a daily journey of work. Thus, considering that there is a set of customers that need to be visit, there are cases in which one cannot visit all in one day. Considering this restriction, one you must choose hotels, among a previously given set, where a break will take place between two working daily journey. The aim of this work is to present, discuss and solve the Travelling Salesperson Problem with Hotel Selection applying heuristics and comparing the results with those available in the literature. Three heuristics, two based on memetic algorithm (AM) and another based on the metaheuristic Iterated Greedy (IG), and an alternative Integer Linear Programming model to the existing on the literature were proposed.
363

Abordagem dos elementos da experiência do usuário aplicada ao design de uma interface de webmail acessível

SOARES FILHO, Antônio Gerard Tenório 31 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-22T19:40:36Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Antonio Gerard Tenório Soares Filho.pdf: 5699036 bytes, checksum: 59a00c3e5748a955a768d69ccd7097de (MD5) / Made available in DSpace on 2016-04-22T19:40:37Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Antonio Gerard Tenório Soares Filho.pdf: 5699036 bytes, checksum: 59a00c3e5748a955a768d69ccd7097de (MD5) Previous issue date: 2015-08-31 / CAPES / Esta pesquisa investiga a forma como pessoas cegas ou com baixa visão utilizam serviços de e-mail, a partir de uma abordagem qualitativa associada ao Design de Interação (DI), em busca de problemas. Ainda na perspectiva do DI, é elaborada uma proposta de solução para um dos problemas encontrados. A concepção da proposta utiliza-se de técnicas e recursos como, wireframes, documentos de requisitos, fluxos navegacionais, diagramas e modelos conceituais para representar as características do sistema. Por fim é desenvolvido um protótipo interativo, baseado em HTML/CSS e JavaScript, para realização de testes com usuários e implementação de melhorias, obtidas por meio do feedback e da análise do material coletado. / This research investigates how visual impaired people use e-mail services, from a qualitative approach associated to Interaction Design (ID), in the pursue of problems. Proceeding with the DI perspective, it has been drafted a solution for one of the problems encountered. The proposal was structured with techniques and resources as wireframes, requirements documents, navigational flows, diagrams and conceptual models to represent the characteristics of the system. Finally it was developed a high-fidelity interactive prototype, based on HTML / CSS and JavaScript, to conduct user testing and implementation of improvements obtained through the feedback and analysis of the collected material.
364

Previsão de séries temporais usando sistemas de múltiplos preditores

SILVA, Eraylson Galdino da 14 June 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-14T21:55:13Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Eraylson Galdino da Silva.pdf: 8551281 bytes, checksum: 9b494a88be22823d36a44cd414900651 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-18T16:00:17Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Eraylson Galdino da Silva.pdf: 8551281 bytes, checksum: 9b494a88be22823d36a44cd414900651 (MD5) / Made available in DSpace on 2018-09-18T16:00:17Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Eraylson Galdino da Silva.pdf: 8551281 bytes, checksum: 9b494a88be22823d36a44cd414900651 (MD5) Previous issue date: 2017-06-14 / CNPq / Sistema de Múltiplos Preditores (SMP) consiste no desenvolvimento de um conjunto de modelos para prever a mesma variável. Na literatura é possível encontrar trabalhos que mostram que a sua utilização em previsão de séries temporais pode melhorar a acurácia. Para tal, é construído um conjunto com diferentes preditores e a previsão final é obtida através da seleção ou combinação. A seleção de preditores consiste em encontrar um preditor dentro do conjunto que possa retornar a melhor previsão, podendo reduzir o custo computacional e aumentar a acurácia do sistema de previsão. Além da abordagem para retornar a previsão final é necessário que exista diversidade entre os preditores, a qual, consiste em desenvolver um conjunto de preditores que apresentem previsões diferentes para a mesma variável. Uma das técnicas para criar modelos diversos é particionar a série em diferentes amostras e treinar um modelo para cada amostra, possibilitando o desenvolvimento de preditores especialistas em padrões diferentes da série. Sabendo que a utilização de SMP pode aumentar a acurácia de sistemas de previsão de séries temporais, ainda existe a necessidade de pesquisas que apresentem em que circunstâncias a combinação é melhor que a seleção de preditores, além disso, quais as melhores formas de combinação e qual a influência de treinar os preditores através de partições diferentes da série. Para tal, esta dissertação realiza uma comparação entre diferentes abordagens de combinação: Média Simples, Mediana, Regressão Linear, Redes Neurais e Maquina de Vetor de Suporte; e uma abordagem de seleção de preditores que utiliza medida de distância entre os padrões para selecionar o melhor modelo, com o intuito de responder esses questionamentos. Para avaliar o desempenho das diferentes abordagens, foram utilizadas quatro séries: Mackey Glass, Laser, Microsoft e Goldman Sachs. Em cada série os desempenhos das arquiteturas foram avaliados através de um conjunto de métricas. Com base nos resultados obtidos, é possível inferir que em média os desempenhos apresentados pelas melhores abordagens de combinação: Redes Neurais, Regressão Linear e Média Simples, são melhores que a abordagem de seleção utilizada. Além disso, a relação entre a acurácia e a diversidade dos modelos pode variar de acordo com a abordagem de combinação utilizada. / Multiple Predictor Systems (MPS) consists in development a group of models for forecast same variable. According to some works in the literature, MPS can improve in time series forecast. For that, building a group with several models for same forecasting variable and the final forecast is to get through a combination or selection model.The selection of forecasts consists in finding the better model inside of a group that can improve efficiency and performance. The motivation for selection decreases the cost and to use a specific model for each pattern of the time series. Beyond the approach to get the final forecast of Ensemble, it is necessary that exist diversity among models forecasting. For that, one approach is to split the time series in different samples and train a model for each sample, thus making it possible to build off experts’ models. In the knowledge that time series forecast can be better through MPS, it still exists the necessity for new research to find answers to some questions. For instance, in which circumstances are combination approaches better than selection? Which are the better approaches to combining? How important is it to train the models through different partitions of the series? For that, in present theses are developed with diverse approaches of combination: Mean Simple, Median, Linear Regression, Neural Networks and Support Vector Machine, and an approach to forecasting selection that use a distance measure between patterns for select the model. To verify the feasibility between different approaches, four series are used: Mackey-Glass, Laser, Microsoft, and Goldman Sachs. For each time series, the performances of the architectures were evaluated through several metrics. Based on the results obtained, it is possible to infer that on average, the performances presented by better combination approaches: Neural Network, Linear Regression, and Simple Mean are better than selection approach. Moreover, the relationship between accuracy and diversity for combination approach vary according to approach used.
365

Desenvolvimento de um módulo para template matching baseado em ZNCC com prototipação em FPGA

ALBUQUERQUE, Érika Spencer de 30 June 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-14T22:27:06Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Érika Spencer de Albuquerque.pdf: 10129789 bytes, checksum: 0f1c6c65d152eda8be36d47e78e51355 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-18T16:04:15Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Érika Spencer de Albuquerque.pdf: 10129789 bytes, checksum: 0f1c6c65d152eda8be36d47e78e51355 (MD5) / Made available in DSpace on 2018-09-18T16:04:15Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Érika Spencer de Albuquerque.pdf: 10129789 bytes, checksum: 0f1c6c65d152eda8be36d47e78e51355 (MD5) Previous issue date: 2017-06-30 / CAPES / Template matching ou casamento de padrões é um problema clássico de visão computacional, soluções para esse problema se aplicam a reconhecimento, detecção e rastreamento de objetos. O casamento de padrões consiste em buscar regiões de uma imagem fonte que mais se assemelham a uma imagem menor de referência (template). Uma abordagem para realizar essa busca baseia-se em comparar, através de uma medida de similaridade, a imagem de referencia com cada janela de mesma dimensão da imagem fonte. A métrica Correlação Cruzada Normalizada de Média Zero (ZNCC) é uma medida de similaridade amplamente utilizada em problemas de casamento de padrões devido a sua robustez a variações lineares de brilho e contraste. O principal desafio para o casamento de padrões, especialmente usando a métrica ZNCC é o alto custo computacional de calcular os valores de ZNCC referentes a cada janela de imagem. Há ainda, aplicações que requerem o casamento de padrões para múltiplos padrões (templates), como por exemplo, o rastreio de múltiplos objetos independentes ou de múltiplas poses do mesmo objeto , isso multiplica o custo computacional da operação, tornando difícil a obtenção de uma solução em tempo real. Esse trabalho propõe uma arquitetura de módulo em hardware com prototipação em FPGA que explora conceitos de paralelismo e pipeline para acelerar o cálculo da ZNCC entre uma imagem e múltiplos padrões. Resultados experimentais mostram que o módulo proposto chega a acelerar em 3x o tempo de processamento comparado às implementações em GPU e CPU. Além disso, o acelerador proposto alcança um dempenho de tempo real (32.13FPS) para o processamento de até 10 templates (Imagem 432x432 e template 72x144) (ALBUQUERQUE et al., 2016). / Template matching ou casamento de padrões é um problema clássico de visão computacional, soluções para esse problema se aplicam a reconhecimento, detecção e rastreamento de objetos. O casamento de padrões consiste em buscar regiões de uma imagem fonte que mais se assemelham a uma imagem menor de referência (template). Uma abordagem para realizar essa busca baseia-se em comparar, através de uma medida de similaridade, a imagem de referencia com cada janela de mesma dimensão da imagem fonte. A métrica Correlação Cruzada Normalizada de Média Zero (ZNCC) é uma medida de similaridade amplamente utilizada em problemas de casamento de padrões devido a sua robustez a variações lineares de brilho e contraste. O principal desafio para o casamento de padrões, especialmente usando a métrica ZNCC é o alto custo computacional de calcular os valores de ZNCC referentes a cada janela de imagem. Há ainda, aplicações que requerem o casamento de padrões para múltiplos padrões (templates), como por exemplo, o rastreio de múltiplos objetos independentes ou de múltiplas poses do mesmo objeto , isso multiplica o custo computacional da operação, tornando difícil a obtenção de uma solução em tempo real. Esse trabalho propõe uma arquitetura de módulo em hardware com prototipação em FPGA que explora conceitos de paralelismo e pipeline para acelerar o cálculo da ZNCC entre uma imagem e múltiplos padrões. Resultados experimentais mostram que o módulo proposto chega a acelerar em 3x o tempo de processamento comparado às implementações em GPU e CPU. Além disso, o acelerador proposto alcança um dempenho de tempo real (32.13FPS) para o processamento de até 10 templates (Imagem 432x432 e template 72x144) (ALBUQUERQUE et al., 2016).
366

A atuação do Wikileaks, de grupos hacktivistas e do movimento cypherpunk na reconfiguração do jornalismo investigativo

ALBUQUERQUE, Dayane Amorim Gonçalves de 29 August 2016 (has links)
QUEIROZ, Ruy José Guerra Barretto de, também é conhecido em citações bibliográficas por: DE QUEIROZ, Ruy José Guerra Barretto / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-24T22:50:51Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dayane Amorim Gonçalves de Albuquerque.pdf: 1601259 bytes, checksum: 97736ccef3cf2fda36eb5f3d2d1b3657 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-27T21:34:52Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dayane Amorim Gonçalves de Albuquerque.pdf: 1601259 bytes, checksum: 97736ccef3cf2fda36eb5f3d2d1b3657 (MD5) / Made available in DSpace on 2018-09-27T21:34:52Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dayane Amorim Gonçalves de Albuquerque.pdf: 1601259 bytes, checksum: 97736ccef3cf2fda36eb5f3d2d1b3657 (MD5) Previous issue date: 2016-08-29 / As transformações pelas quais o jornalismo vem passando não é algo novo. Estudos apontam que no início do século XX jornais já se preparavam para as inovações tecnológicas da época. A tecnologia, por sua vez, parece ser um dos fatores mais importantes para que o jornalismo investigativo esteja se reinventando. Nesse cenário, onde a tecnologia vem oferecendo suporte para o jornalismo, é preciso que haja uma adequação das atividades jornalísticas a esse novo momento. Neste estudo vamos abordar se e como três novos atores tecnológicos podem estar atuando na reconfiguração do jornalismo investigativo. Um deles é o Movimento Cypherpunk, que defende o uso da criptografia forte para haver mudança social e política e promover uma comunicação protegida em rede. Por sua vez, os grupos hacktivistas desenvolvem sistemas a fim de promover livre circulação de informação na Internet. Tem ainda o WikiLeaks, um site de vazamento de informações que dá anonimato as suas fontes e parece ter chegado como uma tendência irreversível. Ademais, cypherpunks, hacktivistas e WikiLeaks trabalham de forma a proporcionar anonimato as suas fontes e lutam pela liberdade de informação e expressão. Para entendermos como acontece essa influência de novos atores da tecnologia no jornalismo investigativo, nós comparamos as impressões de acadêmicos da comunicação, obtidas através de uma revisão sistemática, com as percepções de dez jornalistas, obtidas através de uma entrevista, que atuam/atuaram no mercado. Após o estudo, entendemos que, embora o jornalismo como um todo esteja passando por transformações, a sua metodologia não mudou. Entendemos, portanto, que a do jornalismo investigativo também não. O que pudemos concluir foi que ainda existem muitos questionamentos a respeito da influência do WikiLeaks sobre o jornalismo investigativo e que a relação do Hacktivismo e do Movimento Cypherpunk com o jornalismo ainda é prematura, sendo necessário, portanto novas pesquisas sobre essa relação. Porém, podemos afirmar que o WikiLeaks funciona como uma ferramenta de apoio ao jornalista e como uma fonte de informações e isso facilita o trabalho do jornalista. Além disso, ferramentas desenvolvidas por hacktivistas e cypherpunks permitem uma mudança na atividade de whistleblowing (alguém que expõe a existência de irregularidades na gestão e no funcionamento de empresas ou instituições). Consequentemente, há mudanças no quesito “proteção às fontes”, fundamental para o sucesso de uma investigação jornalística. Uma fonte que antes se intimidava por medo de ser descoberta, hoje tem a possibilidade de fazer uma denúncia a um jornalista através de uma ferramenta de vazamento de informação que lhe dá anonimato. / The transformations that journalism is going through is not new. Studies show that in the early twentieth century newspapers already were preparing for the technological innovations of the time. The technology, in turn, appears to be one of the most important factors that investigative journalism is reinventing itself. In this scenario, where technology has been providing support for journalism, there must be an adaptation of journalistic activities to this new time. In this study, we will address whether and how three new actors of technology may be acting in the reconfiguration of investigative journalism. One is the Cypherpunk Movement, which advocates the use of strong encryption to be social and political change and promote a secure communications network. In turn, the hacktivists groups develop systems to promote the free flow of information on the Internet. It also has WikiLeaks, a website of information leakage that gives anonymity to their sources and seems to have come as an irreversible trend. Moreover, cypherpunks, hacktivists and WikiLeaks work to provide anonymity to their sources and fight for freedom of information and expression. To understand how it happens that the influence of new actors of technology in investigative journalism, we compare the communication scholars impressions, obtained through a systematic review, with perceptions ten journalists, obtained through an interview, which act / acted on the market . After the study, we understand that while journalism as a whole is undergoing a transformation, its methodology has not changed. We understand, therefore, that the investigative journalism either. What we concluded was that there are still many questions about the influence of WikiLeaks on investigative journalism and the relationship of Hacktivism and Cypherpunk movement with journalism is still premature, if necessary, so further research on this relationship. However, we can say that WikiLeaks acts as a support tool for journalist and as a source of information and it facilitates the work of the journalist. In addition, tools developed by hacktivists and cypherpunks allow a change in whistleblowing activity (someone who exposes the existence of irregularities in the management and operation of companies or institutions). Consequently, changes in the item "protection of sources," critical to the success of a journalistic investigation. A source who once intimidated by the fear of discovery, today has the possibility of making a complaint to a journalist through an information leak tool that gives you anonymity.
367

Uso de técnicas de visualização de informação para apoiar o gerenciamento da cadeia de suprimentos /

Santos, Amanda Fructuozo. January 2019 (has links)
Orientador: Danilo Medeiros Eler / Banca: Evandro Baccarin / Banca: Milton Hirokazu Shimabukuru / Resumo: A análise de dados tem sido utilizada em muitas empresas para proporcionar ferramentas de apoio à tomada de decisões de negócio. Assim, os gestores podem avaliar pontos fortes e pontos fracos de sua cadeia de suprimento. Esse apoio à tomada de decisões resulta na redução de custos, minimiza rupturas no atendimento ao cliente, auxilia no planejamento futuro, entre outros benefícios que ajudam a aumentar a competitividade do produto e/ou a criar valor agregado e diferenciais em relação à concorrência. Em uma organização, muitos dados são gerados todos os dias e conseguir organizá-los e exibi-los de maneira que atenda a necessidade dos gestores de cadeia de suprimentos de analisar de forma rápida e eficiente a situação de sua cadeia é um grande desafio. Este trabalho apresenta uma abordagem de exploração baseada em técnicas de visualização da informação para auxiliar os gestores na tomada de decisões, proporcionando desde uma visão mais geral até uma mais específica da cadeia de suprimentos, com foco em pontos específicos como vendas, produção, estoque e previsão de demanda / Abstract: Data analytics have been used in many companies to provide business decision-making aids. Thus, managers can assess strengths and weaknesses in their supply chain. This decision-making support results in cost savings, minimizes customer service disruptions, helps with future planning, among others benefits that enhance product competitiveness and/or creates added value and competitive advantage. In an organization, a lot of data is generated every day, and being able to organize and display it in a way that meets the need for supply chain managers to quickly and efficiently analyze their chain situation is a big challenge. This work presents an exploration approach based on information visualization techniques to aid managers in decision making, providing from a general to a specific view of the supply chain, focusing on specific points such as sales, production, inventory and demand forecasting / Mestre
368

Escalonamento adaptativo para sistemas de processamento contínuo de eventos. / Adaptive scheduling for continuous event processing systems.

SOUSA, Rodrigo Duarte. 13 April 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-04-13T17:23:58Z No. of bitstreams: 1 RODRIGO DUARTE SOUSA - DISSERTAÇÃO - PPGCC 2014..pdf: 3708263 bytes, checksum: d9e59ec276a62382b6317ec8ce6bf880 (MD5) / Made available in DSpace on 2018-04-13T17:23:58Z (GMT). No. of bitstreams: 1 RODRIGO DUARTE SOUSA - DISSERTAÇÃO - PPGCC 2014..pdf: 3708263 bytes, checksum: d9e59ec276a62382b6317ec8ce6bf880 (MD5) Previous issue date: 2014-08-04 / Sistemasde processamento contínuo de eventos vêm sendo utilizados em aplicações que necessitam de um processamento quase em tempo real. Essa necessidade, junto da quantidade elevada de dados processados nessas aplicações, provocam que tais sistemas possuam fortes requisitos de desempenho e tolerância a falhas. Sendo assim, escalonadores geralmente fazem uso de informações de utilização dos recursos das máquinas do sistema (como utilização de CPU, memória RAM, rede e disco) natentativadereagirapossíveissobrecargasque possam aumentar a utilização dos recursos, provocando uma piora no desempenho da aplicação. Entretanto, devido aos diferentes perfis de aplicações e componentes, a complexidade de se decidir, de forma flexível e genérica, o que deve ser monitorado e a diferença entre o que torna um recurso mais importante que outro em um dado momento, podem provocar escolhas não adequadas por parte do escalonador. O trabalho apresentado nesta dissertação propõe um algoritmo de escalonamento que, através de uma abordagem reativa, se adapta a diferentes perfis de aplicações e de carga, tomando decisões baseadas no monitoramento da variação do desempenho de seus operadores. Periodicamente,o escalonador realiza uma avaliação de quais operadores apresentaram uma piora em seu desempenho e, posteriormente, tenta migrar tais operadores para nós menos sobrecarregados. Foram executados experimentos onde um protótipo do algoritmo foi avaliado e os resultados demonstraram uma melhora no desempenho do sistema, apartirdadiminuiçãodalatênciadeprocessamentoedamanutenção da quantidade de eventos processados. Em execuções com variações bruscas da carga de trabalho, a latência média de processamento dos operadores foi reduzida em mais de 84%, enquanto queaquantidadedeeventos processados diminuiuapenas 1,18%. / The usage of event stream processing systems is growing lately, mainly at applications that have a near real-time processing as a requirement. That need, combined with the high amount of data processed by these applications, increases the dependency on performance and fault tolerance of such systems. Therefore, to handle these requirements, schedulers usually make use of the resources utilization (like CPU, RAM, disk and network bandwidth) in an attempt to react to potential over loads that may further increase their utilization, causing the application’s performance to deteriorate. However, due to different application profiles and components, the complexity of deciding, in a flexible and generic way, what resources should be monitored and the difference between what makes a resource utilization more important than another in a given time, can provoke the scheduler to perform wrong actions. In this work, we propose a scheduling algorithm that, via a reactive approach, adapts to different applications profiles and load, taking decisions based at the latency variation from its operators. Periodically, the system scheduler performs an evaluation of which operators are giving evidence of beingin an over loaded state, then, the scheduler tries to migrate those operators to a machine with less utilization. The experiments showed an improvement in the system performance, in scenarios with a bursty workload, the operators’ average processing latency was reduced by more than 84%, while the number of processed events decreased by only1.18%.
369

Automatização de feedback para apoiar o aprendizado no processo de resolução de problemas de programação.

ARAÚJO, Eliane Cristina de. 03 May 2018 (has links)
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-05-03T19:03:28Z No. of bitstreams: 1 ELIANE CRISTINA DE ARAÚJO – TESE (PPGCC) 2017.pdf: 2665968 bytes, checksum: 9e26132dd3a51ff87b8e42dc6f719f14 (MD5) / Made available in DSpace on 2018-05-03T19:03:28Z (GMT). No. of bitstreams: 1 ELIANE CRISTINA DE ARAÚJO – TESE (PPGCC) 2017.pdf: 2665968 bytes, checksum: 9e26132dd3a51ff87b8e42dc6f719f14 (MD5) Previous issue date: 2017-09-05 / No ensino de programação, é fundamental que os estudantes realizem atividades práticas. Para que sejam bem sucedidos nessas atividades, os professores devem guiá-los, especialmente os iniciantes, ao longo do processo de programação. Consideramos que o processo de programação, no contexto do ensino desta prática, engloba as atividades necessárias para resolver um problema de computação. Este processo é composto por uma série de etapas que são executadas de forma não linear, mas sim iterativa. Nós consideramos o processo de programação adaptado de Polya (1957) para a resolução de problemas de programação, que inclui os seguintes passos [Pól57]: (1) Entender o problema, (2) Planejar a solução, (3) Implementar o programa e (4) Revisar. Com o foco no quarto estágio, nós almejamos que os estudantes tornem-se proficientes em corrigir as suas estratégias e, através de reflexão crítica, serem capazes de refatorar os seus códigos tendo em vista a boa qualidade de programação. Durante a pesquisa deste doutorado, nós desenvolvemos uma abordagem para gerar e fornecer feedback na última fase do processo de programação: avaliação da solução. O desafio foi entregar aos estudantes feedback elaborado e a tempo, referente ás atividades de programação, de forma a estimulá-los a pensar sobre o problema e a sua solução e melhorar as suas habilidades. Como requisito para a geração de feedback, comprometemo-nos a não impormais carga de trabalho aos professores, evitando-os de criar novos artefatos. Extraímos informações a partir do material instrucional já desenvolvido pelos professores quando da criação de uma nova atividade de programação: a solução de referência. Implementamos e avaliamos nossa proposta em um curso de programação introdutória em um estudo longitudinal. Os resultados obtidos no nosso estudo vão além da desejada melhoria na qualidade de código. Observamos que os alunos foram incentivados a melhorar as suas habilidades de programação estimulados pelo exercício de raciocinar sobre uma solução para um problema que já está funcionando. / In programming education, the development of students’ programming skills through practical programming assignments is a fundamental activity. In order to succeed in those assignments, instructors need to provide guidance, especially to novice learners, about the programming process. We consider that this process, in the context of programming education, encompasses steps needed to solve a computer-programming problem. We took into consideration the programming process adapted from Polya (1957) to computer programming problem-solving, that includes the following stages [Pól57]: (1) Understand the problem; (2) Plan the solution; (3) Implement the program and (4) Look Back. Focusing on the fourth stage, we want students to be proficient in correcting strategies and, with critical reflection, being able to refactor their code caring about good programming quality. During this doctoral research, we developed an approach to generate formative feedback to leverage programming problem-solving in the last stage of the programming process: targeting the solution evaluation. The challenge was to provide timely and elaborated feedback, referring to programming assignments, to stimulate students to reason about the problem and their solution, aiming to improve their programming skills. As a requirement for generating feedback, we compromised not to impose the creation of new artifacts or instructional materials to instructors, but to take advantage of a usual resource already created when proposing a new programming assignment: the reference solution. We implemented and evaluated our proposal in an introductory programming course in a longitudinal study. The results go beyond what we initially expected: the improved assignments’ code quality. We observed that students felt stimulated, and in fact, improved their programming abilities driven by the exercise of reasoning about their already functioning solution.
370

Visualização de dados como suporte ao design instrucional.

MENEZES, Douglas Afonso Tenório de. 03 May 2018 (has links)
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-05-03T20:37:40Z No. of bitstreams: 1 DOUGLAS AFONSO TENÓRIO DE MENEZES – TESE (PPGCC) 2017.pdf: 30688716 bytes, checksum: aeb667914da2d303938d7e10953623eb (MD5) / Made available in DSpace on 2018-05-03T20:37:40Z (GMT). No. of bitstreams: 1 DOUGLAS AFONSO TENÓRIO DE MENEZES – TESE (PPGCC) 2017.pdf: 30688716 bytes, checksum: aeb667914da2d303938d7e10953623eb (MD5) Previous issue date: 2017-07 / Capes / O uso de ambientes virtuais de aprendizagem está cada vez mais frequente, e muitas vezes os dados que são gerados nestes ambientes não são explorados adequadamente, o que dificulta a geração de indicadores da qualidade dos programas de formação. A qua- lidade do aprendizado em um ambiente virtual de aprendizagem é determinada por uma organização adequada do material e das formas de ensino. Para tal, deverá ser levado em consideração, entre outros fatores, o histórico de sucessos e insucessos de realizações anteriores das disciplinas a serem ofertadas e do perfil específico das novas turmas de alu- nos. O tratamento adequado destes dados pode evidenciar indicativos importantes sobre o desempenho de uma turma, tais como o nível de comprometimento e a motivação dos alunos, fatores que podem influenciar diretamente no processo de aprendizagem. Estes dadospodemserutilizadosporespecialistasaoseremexibidoscomoumresumoemforma de visualizações gráficas adequadas, possibilitando uma rápida interpretação e percepção de indicativos importantes dos cursos e seus alunos. As visualizações auxiliam na com- preensão e análise dos dados gerados, ampliam a cognição e facilitam a compreensão das informações apresentadas. Esta tese apresenta uma proposta para visualização de dados educacionais, com o objetivo de analisar como a visualização de dados pode ajudar o professor a identificar e adequar um Design Instrucional problemático, por meio de dados históricos, de cursos já realizados, assim como durante a realização de uma nova edição do curso, auxiliando-o na melhoria do DI de um curso/disciplina. / The use of virtual learning environments is becoming more frequent, and often the data that are generated in these environments are not properly exploited, which makes it difficult to generate quality indicators of training programs. The quality of learning in these settings is determined by an appropriate organization of the material and forms of instruction. In order to do so, it should be taken into account, among other factors, the history of successes and failures of previous achievements of the disciplines to be offered and the specific profile of a new class of students. Adequate treatment of these data can show important indicators about a class’s performance, such as the level of commitment and motivation of the students, factors that can directly influence the learning process. These data can be used by specialists to be displayed as a summary in the form of ade- quate graphical visualizations, allowing a fast interpretation and perception of important indications of a course and its students. It helps to understand a set of data, facilitate the analysis of the generated data, to increase the cognition and the understanding of the presented information. This thesis presents a proposal for the visualization of educatio- nal data, in which the objective is to analyze how the visualization of data can help the teacher to identify and adapt a problematic Instructional Design, through historical data of courses already carried out, and during the realization of a new edition of the course, assisting the teacher in improving the Instructional Design of a course / discipline.

Page generated in 0.0749 seconds